Synology NAS lijkt ineens helemaal leeg te zijn

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Ik heb een behoorlijk vervelend probleem, het zit als volgt:
Onlangs ben ik overgestapt van een DS216Play naar een zelfbouw NAS. Deze NAS heb ik helemaal geïnstalleerd en vervolgens heb ik de bestanden overgezet. Ik ben begonnen in de zelfbouw NAS met 2 x WD Red HDD's van 3TB per stuk (3,5"). Ik heb dit bij de zelfbouw NAS uitgebreid met 2 x Seagate Barracuda 5TB schijven (2,5"). In eerste instantie heb ik een schijf gebeurt om de data van de DS216Play op te zetten. Later heb ik de data op de zelfbouw NAS gezet en heb ik deze geformatteerd en ook in de zelfbouw NAS geplaatst.

De zelfbouw NAS draai op XPenology (DSM 6.1.1-1501 Update 4) en als bootloader gebruik ik Juns loader (V1.02-a). De problemen zijn gisteravond/vanochtend ontstaan. Ik kwam er in ieder geval vanochtend achter. Gister avond heb ik de volgende dingen gedaan (mogelijke oorzaken dus):
- De 2,5" 5TB hdd erbij geplaatst.
- Het SHR volume uitgebreid met de 5TB hardeschijf
- De NAS is toen begonnen met een parity check, dit duurt ongelofelijk lang (ongeveer 30 seconden per 0,01%), de laatste keer dat ik keek was hij op ongeveer 5%
- Heb ik Plex geïnstalleerd in een Docker omgeving
- Het SSL certificaat van Let's Encrypt vernieuwd (omdat er een nieuw subdomein bij is gekomen), dit heb ik getest en werkte probleemloos

Vanochtend wilde ik de NAS benaderen en gingen er wat dingen mis:
- Plex gaf foutmeldingen, welke weet ik niet meer precies
- De NAS gaf aan een update te hebben gevonden (bij het configuratiescherm stond een rode "1")
- De NAS gaf aan drie updates te hebben gevonden voor packages (bij het package center stond een rode "3")
- Als ik het package center opende kreeg ik een melding waarin stond dat ik geen internetverbinding had,
- Als ik het configuratiescherm opende op het tabblad waar de updates worden weergegeven kreeg ik een foutmelding, ik weet niet meer precies welke, maar volgens mij was het "de bewerking kan niet worden voltooid", ik kon dus ook niet zien welke update er klaar stond, maar naar mijn weten is er geen update uitgekomen en draaide ik de laatste versie

Om bovenstaande problemen op te lossen dacht ik dat een simpele reboot van de NAS het probleem wel zou oplossen. Echter als ik op herstarten klikte, verscheen zoals gewoonlijk het laadscherm, waarop stond dat de diskstation opnieuw werd opgestart. Na een paar minuten wachten refreshte ik handmatig de pagina en tot mijn verbazing stond de NAS nog gewoon aan en was er niets veranderd. Na 3-4 keer proberen ook niet. Toen besloot ik om de NAS volledig af te sluiten en aan te zetten bij thuiskomst.

Nadat ik de opdracht tot afsluiten had gegeven kreeg bij het benaderen van de NAS de volgende waarschuwing:
"Sorry, de pagina die u zoekt kan niet weergegeven worden.":
Afbeeldingslocatie: https://ic.tweakimg.net/camo/441066d1f4cac5c8a405c61665fb4249e67e85f6/?url=http%3A%2F%2Fs10.postimg.org%2F48x514pp5%2FFoutmelding.png

Tegelijkertijd kon ik wel nog naar webapplicaties die draaiden binnen Docker en bij een website die draait binnen webstation. Erg vreemd dus. Vervolgens heb ik via de CLI (via SSH) de opdracht "Reboot" gegeven. De NAS ging toen eindelijk opnieuw opstarten, maar misschien was dat juist de grootste fout.. Sinds dien krijg ik alleen nog maar bovenstaande foutmelding (Sorry, de pagina die u zoekt kan niet weergegeven worden.) en zijn de webservices niet meer bereikbaar. Ik kan de NAS wel nog via SSH benaderen, en ik kan ook WinSCP gebruiken om in het systeem te komen. Echter is /Volume1 leeg, daar staat enkel de map "@database" en die is ook leeg :'(

Wat ik verder geprobeerd heb, is dit commando uit te voeren "cat /proc/mdstat" (daarmee kun je zien of de parity check bijvoorbeeld nog bezig is, dat is niet het geval, dit is de output die ik krijg:
code:
1
2
3
4
5
6
7
8
9
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [raidF1]
md1 : active raid1 sda2[0] sdb2[1] sdc2[3] sdd2[2]
      2097088 blocks [12/4] [UUUU________]

md0 : active raid1 sda1[1] sdb1[0] sdc1[2](S) sdd1[3](S)
      2490176 blocks [2/2] [UU]

unused devices: <none>


Volgens mij vind Synology dus maar 2 van de 4 harde schijven, wat dus al vreemd is (en wat misschien het probleem is). Iemand enig idee hoe ik dit op kan lossen?
Ik heb van de belangrijkste bestanden een offsite back-up, maar ik zou toch zo'n 4TB aan data kwijt zijn en daar zou ik echt enorm van balen.

Bedankt alvast en sorry voor de lange TS!

I haven’t slept for three days, because that would be too long.

Alle reacties


Acties:
  • 0 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
@|sWORDs| weet dit misschien ivm Xpenology :)

Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Heb dit ook al in het XPenology topic aangekaart, maar daar helaas ook nog geen reactie die de oplossing biedt, begin toch vrij wanhopig to worden ;(

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
@miicker En niet om te zeggen dat je het vergeet of niet geprobeerd hebt, maar je gaat netjes naar http://nas:5000 of https://nas:5001? :)

Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Vorkie schreef op donderdag 15 juni 2017 @ 21:49:
@miicker En niet om te zeggen dat je het vergeet of niet geprobeerd hebt, maar je gaat netjes naar http://nas:5000 of https://nas:5001? :)
Jep, beide geprobeerd, krijg overal dezelfde melding ;(

I haven’t slept for three days, because that would be too long.


Acties:
  • +1 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 16:53
@miicker wat doet mdadm --detail /dev/md0 en mdadm --detail /dev/md1
Het lijkt erop dat er 2 spares zijn toegewezen.

[ Voor 25% gewijzigd door DukeBox op 15-06-2017 21:57 ]

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • +1 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
@miicker Hm, je zou nog kunnen kijken wat er in de NGINX directory in de CONF files staat. Deze verwijst je naar /usr/syno/synoman als root met index.cgi.

Alle details van de webserver kan je zien in

/etc/nginx/nginx.conf (vi nginx.conf)

PS: Zo ziet het er bij een werkende DS916+ uit welke met 1 disk aan het uitbreiden is (en met SSD Cache)

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md3 : active raid0 sdd1[0]
      244193984 blocks super 1.2 64k chunks [1/1] [U]
      
md2 : active raid5 sdc5[2] sdb5[1] sda5[0]
      2925435456 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
      [====>................]  reshape = 24.0% (702767168/2925435456) finish=3763.3min speed=9843K/sec
      
md1 : active raid1 sdc2[2] sda2[0] sdb2[1]
      2097088 blocks [4/3] [UUU_]
      
md0 : active raid1 sdc1[2] sda1[0] sdb1[1]
      2490176 blocks [4/3] [UUU_]
      
unused devices: <none>

[ Voor 60% gewijzigd door Vorkie op 15-06-2017 21:59 ]


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
DukeBox schreef op donderdag 15 juni 2017 @ 21:56:
@miicker wat doet mdadm --detail /dev/md0 en mdadm --detail /dev/md1
Het lijkt erop dat er 2 spares zijn toegewezen.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
mdadm --detail /dev/md0 en mdadm --detail /dev/md1
/dev/md0:
        Version : 0.90
  Creation Time : Tue Jan  5 19:19:09 2016
     Raid Level : raid1
     Array Size : 2490176 (2.37 GiB 2.55 GB)
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Jun 15 21:56:52 2017
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : f1df16f6:02ce62e5:3017a5a8:c86610be
         Events : 0.54

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8        1        1      active sync   /dev/sda1
mdadm: cannot open en: No such file or directory
mdadm: cannot open mdadm: No such file or directory
/dev/md1:
        Version : 0.90
  Creation Time : Thu Jun 15 21:37:59 2017
     Raid Level : raid1
     Array Size : 2097088 (2047.94 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2047.94 MiB 2147.42 MB)
   Raid Devices : 12
  Total Devices : 4
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Thu Jun 15 21:48:44 2017
          State : active, degraded
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

           UUID : c0b76373:74443d87:d60c4879:3b98346c (local to host NAS)
         Events : 0.55

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2
       2       8       34        2      active sync   /dev/sdc2
       3       8       50        3      active sync   /dev/sdd2
       -       0        0        4      removed
       -       0        0        5      removed
       -       0        0        6      removed
       -       0        0        7      removed
       -       0        0        8      removed
       -       0        0        9      removed
       -       0        0       10      removed
       -       0        0       11      removed


Vind maar twee harde schijven van de 4, denk dat daar het probleem ligt :o

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
@ThaNetRunner ik heb die file even bekeken, maar daar kan ik niets geks in vinden, hij luistert in ieder geval gewoon op poort 5000

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • Sinned123
  • Registratie: April 2000
  • Laatst online: 16-06 11:29
Heb je nog andere sata poorten? of worden beide schijven gevoed vanuit dezelfde kabel van je voeding?
Het OS kan prima omgaan met schijven die in een andere volgorde worden geplaatst.

9xLG335N Neon2 + P370 + Phase SE3000


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Sinned123 schreef op donderdag 15 juni 2017 @ 22:12:
Heb je nog andere sata poorten? of worden beide schijven gevoed vanuit dezelfde kabel van je voeding?
Het OS kan prima omgaan met schijven die in een andere volgorde worden geplaatst.
ik zal eens andere poorten proberen, maar ze worden wel beide voorzien van voeding vanuit een splitter, zo'n kabel:
pricewatch: Startech.com 4x SATA Power Splitter Adapter Cable (PYO4SATA)

I haven’t slept for three days, because that would be too long.


Acties:
  • +1 Henk 'm!

  • Sinned123
  • Registratie: April 2000
  • Laatst online: 16-06 11:29
je gebruikt toch geen picopsu of wel?

Hmm verder op laat hij toch 4 schijven zien?

[ Voor 39% gewijzigd door Sinned123 op 15-06-2017 22:15 ]

9xLG335N Neon2 + P370 + Phase SE3000


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Sinned123 schreef op donderdag 15 juni 2017 @ 22:14:
je gebruikt toch geen picopsu of wel?
jawel, 160W.
Met 120W adapter.
Misschien goed om te vermelden dat ik in het BIOS gewoon alle 4 de schijven zie.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
@Sinned123 ik zie inderdaad dat er wel 4 schijven staan. Ik heb de schijven op andere sata poorten gezet, maar krijg helaas dezelfde melding.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • Sinned123
  • Registratie: April 2000
  • Laatst online: 16-06 11:29
je hebt kans dat je picopsu het niet red om ze alle 4 op te spinnen.
Schijven trekken ontiegelijk veel piekbelasting.

Heb je een reguliere voeding die je kunt gebruiken als test?

160w pico + 120w adapter zou trouwens voldoende moeten zijn, althans ik weet niet wat voor cpu+mobo je hebt. Maar ik heb een soortgelijke setup gehad. Maar uiteindelijk toch naar een 400w voeding gegaan die toch zuiniger bleek.

[ Voor 59% gewijzigd door Sinned123 op 15-06-2017 22:20 ]

9xLG335N Neon2 + P370 + Phase SE3000


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Sinned123 schreef op donderdag 15 juni 2017 @ 22:17:
je hebt kans dat je picopsu het niet red om ze alle 4 op te spinnen.
Schijven trekken ontiegelijk veel piekbelasting.

Heb je een reguliere voeding die je kunt gebruiken als test?

160w pico + 120w adapter zou trouwens voldoende moeten zijn, althans ik weet niet wat voor cpu+mobo je hebt. Maar ik heb een soortgelijke setup gehad. Maar uiteindelijk toch naar een 400w voeding gegaan die toch zuiniger bleek.
Het kostte veel moeite, maar ik heb een pc uit elkaar gehaald, de voeding eruit gehaald en aangesloten op mijn NAS, exact hetzelfde probleem :(

I haven’t slept for three days, because that would be too long.


Acties:
  • +1 Henk 'm!

  • Lip
  • Registratie: December 2000
  • Niet online

Lip

De professionele prutser

Even tussen neuslippen door.

Pas je wel op met die seagate harddisks, opzich niets mis mee zolang je de APM aanpast

https://forum.qnap.com/vi...481982944c788b63&start=30

pagina 3 post van 'DEIX'

[ Voor 6% gewijzigd door Lip op 15-06-2017 22:45 ]

Beter geluid voor iedereen! Zo doe je dat!!! Vergeet je niet een +3 te geven? Bedankt voor het lezen. Flat frequency response EQUALS real music!!! EQUALS Sonic clarity


Acties:
  • 0 Henk 'm!

  • Sinned123
  • Registratie: April 2000
  • Laatst online: 16-06 11:29
hmm ik heb een soortgelijke situatie gehad, maar dat betrof maar 1x3TB schijf die welliswaar SHR was, maar ik hoefde verder geen raid set te configureren, daarvan heb ik uiteindelijk met een livecd alles terug gehaald.
Net gezocht in oude topics, maar de links van toen werken niet meer :(

oude topic:
Ext4 partitie(synology) van 3TB benaderen via Win7 X64

[ Voor 13% gewijzigd door Sinned123 op 15-06-2017 22:38 ]

9xLG335N Neon2 + P370 + Phase SE3000


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Sinned123 schreef op donderdag 15 juni 2017 @ 22:37:
hmm ik heb een soortgelijke situatie gehad, maar dat betrof maar 1x3TB schijf die welliswaar SHR was, maar ik hoefde verder geen raid set te configureren, daarvan heb ik uiteindelijk met een livecd alles terug gehaald.
Net gezocht in oude topics, maar de links van toen werken niet meer :(
Links naar het XPenology forum? Die werken binnenkort namelijk weer omdat ze hen forum zijn aan het omzetten, soms kun je wel zoeken op titels van de topics en dan zijn ze te vinden.

I haven’t slept for three days, because that would be too long.


Acties:
  • +1 Henk 'm!

  • Sinned123
  • Registratie: April 2000
  • Laatst online: 16-06 11:29

9xLG335N Neon2 + P370 + Phase SE3000


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Thanks, ik ga er toch nog even mee wachten. Ik heb niet eens een harde schijf waar ik zoveel data op kan zetten :|

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • Sinned123
  • Registratie: April 2000
  • Laatst online: 16-06 11:29
Je kan nog kijken of je ze los wel ziet.
Voor zover ik weet word het "OS" op elke schijf gezet, en zou je met iedereen schijf kunnen booten.

9xLG335N Neon2 + P370 + Phase SE3000


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Sinned123 schreef op donderdag 15 juni 2017 @ 22:49:
Je kan nog kijken of je ze los wel ziet.
Voor zover ik weet word het "OS" op elke schijf gezet, en zou je met iedereen schijf kunnen booten.
Hoe bedoel je dit? Extern aansluiten o.i.d.?

I haven’t slept for three days, because that would be too long.


Acties:
  • +1 Henk 'm!

  • Sinned123
  • Registratie: April 2000
  • Laatst online: 16-06 11:29
de 2 werkende schijven eraf en kijken wat de rest doet, in principe kan je niet je raid config zomaar vernaggelen. Die info staat apart op elke schijf. Mochten ze het spontaan doen dan "live" die andere schijven er bij prikken.

9xLG335N Neon2 + P370 + Phase SE3000


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Sinned123 schreef op donderdag 15 juni 2017 @ 22:55:
de 2 werkende schijven eraf en kijken wat de rest doet, in principe kan je niet je raid config zomaar vernaggelen. Die info staat apart op elke schijf. Mochten ze het spontaan doen dan "live" die andere schijven er bij prikken.
Schijf 1:
geen succes

Schijf 2:
geen succes

Schijf 3:
Afbeeldingslocatie: https://image.ibb.co/cTxiV5/2017_06_15_23_10_43.jpg

Lijkt me niet slim om te doen, wel? (Schijf 3 is de schijf die ik er als derde bij heb gedaan, die werkte als Parity disk

Schijf 4:
Zelfde als schijf 3.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Lip schreef op donderdag 15 juni 2017 @ 22:37:
Even tussen neuslippen door.

Pas je wel op met die seagate harddisks, opzich niets mis mee zolang je de APM aanpast

https://forum.qnap.com/vi...481982944c788b63&start=30

pagina 3 post van 'DEIX'
Ik heb wel een ander soort harde schijven, ST5000LM000 (dus niet ST4000DM000) zijn volgens mij wel beter, maar goed dat is nu redelijk off topic.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

Ik was even druk vanavond. Als synology niet alle schijven ziet dan lijkt dit toch de port mapping te zijn.

Zorg dat je seriele toegang hebt en start op (of pas je grub.conf aan op een andere machine).
druk op c binnen een seconde (blijf er gewoon op drukken na de power on)
append SataPortMap=8888
esc
boot de standaard optie

mocht je dan nog steeds niets zien in de Assistent log je in met admin en doe je:
sudo cp /lib/modules/update/* /lib/modules'
sudo reboot

Hierna kan het nog zo zijn dat je de schijven wel ziet, maar ze uit je array zijn gevallen, dan moet je ze met de hand weer toevoegen en rebuilden. (geen zin om dat nu uit te typen, dat zien we dan wel weer)

[ Voor 88% gewijzigd door |sWORDs| op 16-06-2017 00:09 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
|sWORDs| schreef op vrijdag 16 juni 2017 @ 00:01:
Ik was even druk vanavond. Als synology niet alle schijven ziet dan lijkt dit toch de port mapping te zijn.

Zorg dat je seriele toegang hebt en start op (of pas je grub.conf aan op een andere machine).
druk op c binnen een seconde (blijf er gewoon op drukken na de power on)
append SataPortMap=8888
esc
boot de standaard optie

mocht je dan nog steeds niets zien in de Assistent log je in met admin en doe je:
sudo cp /lib/modules/update/* /lib/modules'
sudo reboot

Hierna kan het nog zo zijn dat je de schijven wel ziet, maar ze uit je array zijn gevallen, dan moet je ze met de hand weer toevoegen en rebuilden. (geen zin om dat nu uit te typen, dat zien we dan wel weer)
Volgens mij zag hij ze wel allemaal toch? Zie:
code:
1
2
3
4
5
    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2
       2       8       34        2      active sync   /dev/sdc2
       3       8       50        3      active sync   /dev/sdd2


Kun je me iets meer uitleg geven, ik ben echt een leek op het gebied van linux en de CLI.

Moet ik append SataPortMap=8888 aanpassen op de boot USB? Want met Juns loader staat SataPortMap er niet meer tussen geloof ik.

Trouwens, sinds ik de HDD's een voor een getest heb blijf ik dus het scherm krijgen waarmee ik kan klikken op "Opnieuw installeren" :|
Ook nu ik weer alle vier de HDD's aangesloten heb :o
Ik neem aan dat als ik daarop klik dat ik alles kwijt ben, of niet soms?

Nu werkt SSH ook niet meer, dus ik denk dat ik dan de Linux Live CD moet gaan gebruiken? Ik heb daar zojuist even mee gespeeld, en zie dat ik dan waarschijnlijk wel nog bij mijn bestanden kom, dat is in ieder geval een opluchting. Maar er zitten alsnog heel wat uurtjes in het configureren van de NAS, dus zou alsnog liever een fix zien dan dat ik weer 5 dagen kwijt ben aan het kopiëren van al mijn data en dan de NAS opnieuw te moeten configureren..

Wat me niet lukt binnen de Linux Live CD is om de systeem partities te mounten, dat heb ik wel nodig om alles van de map /lib/modules/update/ te verplaatsen naar /lib/modules.

Edit: het is me gelukt om te doen wat je zei @|sWORDs|, SataPortMap staat zoals gezegd niet in de grub.conf, ik heb het echter toegevoegd (las op een ander forum dat dat kon). Echter zonder resultaat, vervolgens heb ik de bestanden van /lib/modules/update gekopieerd naar /lib/modules
Ik krijg echter nog steeds de melding "Sorry, de pagina die u zoekt kan niet weergegeven worden."
(Ik heb disk 1 & 2 aangesloten, hierop krijg ik namelijk deze melding, bij disk 3 & 4 moet ik de NAS opnieuw installeren (en wordt hij dus wel gevonden door de Synology Assistant

[ Voor 11% gewijzigd door miicker op 16-06-2017 01:09 ]

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

Kun je alle vier de schijven weer aansluiten en dan:
code:
1
e2fsck -pvf -C0 /dev/md1

uitvoeren?

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • Raoul.TLS
  • Registratie: Augustus 2008
  • Laatst online: 30-05 18:39
Succes met je probleem. Als ik een probleem heb met disk volume besteed ik het uit aan Synology en dan loggen zij in en checken mijn stappen wat ik heb gedaan en wat het probleem is en de mogelijke oplossing. (ik heb een Synology)
Bij XPenology kan je ook een melding Ticket aanmaken dat zij ernaar kijken ?
Als ze 2 maal toe het gefixed krijgen dat uit een raid5 met 2 defecte disken dat ze alle data terug kunnen halen zijn ze goed bezig.
Er is een mogelijkheid disken in een ander bak te zetten en Raid set opnieuw op te bouwen.
Config staat op elke disk en is zeker te herstellen.

Succes

<GOT>DrOPje #2516


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 16:53
Raoul.TLS schreef op vrijdag 16 juni 2017 @ 09:55:
Bij XPenology kan je ook een melding Ticket aanmaken dat zij ernaar kijken ?
Neem aan dat je dat niet serieus meent..

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
|sWORDs| schreef op vrijdag 16 juni 2017 @ 08:36:
Kun je alle vier de schijven weer aansluiten en dan:
code:
1
e2fsck -pvf -C0 /dev/md1

uitvoeren?
Als ik alle vier de schijven aansluit dan krijgt mijn NAS een ander (niet statisch) IP en krijg ik in de assistent te zien dat ik hem opnieuw moet installeren. Ik kan de NAS dan niet bereiken via SSH. Hoe kan ik toch dit commando geven?

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • job
  • Registratie: Februari 2002
  • Laatst online: 15-06 13:19
En als je het via telnet probeert?

Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
job schreef op vrijdag 16 juni 2017 @ 10:53:
En als je het via telnet probeert?
Werkt ook niet ;(

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
@|sWORDs| ik heb even de twee discs waarmee hij aangeeft dat ik hem opnieuw moet installeren losgekoppeld, de NAS aangezet en ze toen weer verbonden met de NAS (terwijl deze aan stond dus). Geen idee of het op die manier dient te werken, maar dit is wat ik krijg:
code:
1
2
3
e2fsck -pvf -C0 /dev/md1
/dev/md1 is mounted.
e2fsck: Cannot continue, aborting.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

miicker schreef op vrijdag 16 juni 2017 @ 10:59:
@|sWORDs| ik heb even de twee discs waarmee hij aangeeft dat ik hem opnieuw moet installeren losgekoppeld, de NAS aangezet en ze toen weer verbonden met de NAS (terwijl deze aan stond dus). Geen idee of het op die manier dient te werken, maar dit is wat ik krijg:
code:
1
2
3
e2fsck -pvf -C0 /dev/md1
/dev/md1 is mounted.
e2fsck: Cannot continue, aborting.
Kun je eens alle stats laten zien van hoe het nu is?

code:
1
cat /proc/mdstat

[ Voor 4% gewijzigd door |sWORDs| op 16-06-2017 14:43 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
@|sWORDs| dit is de output die putty me geeft:
code:
1
2
3
4
5
6
7
8
9
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [raidF1]
md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [12/2] [UU__________]

md0 : active raid1 sda1[1]
      2490176 blocks [2/1] [_U]

unused devices: <none>

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

En deze twee?:
code:
1
sudo fdisk -l

code:
1
sudo mdadm --detail /dev/md1

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
@|sWORDs|
code:
1
sudo fdisk -l


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8D0686A7-725F-49F7-B7F6-C91F70C4A770

Device       Start        End    Sectors  Size Type
/dev/sda1     2048    4982527    4980480  2.4G Linux RAID
/dev/sda2  4982528    9176831    4194304    2G Linux RAID
/dev/sda5  9453280 5860326239 5850872960  2.7T Linux RAID


Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 45AB83E2-5106-4035-B279-B74FEF547E65

Device       Start        End    Sectors  Size Type
/dev/sdb1     2048    4982527    4980480  2.4G Linux RAID
/dev/sdb2  4982528    9176831    4194304    2G Linux RAID
/dev/sdb5  9453280 5860326239 5850872960  2.7T Linux RAID


Disk /dev/md0: 2.4 GiB, 2549940224 bytes, 4980352 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/md1: 2 GiB, 2147418112 bytes, 4194176 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


GPT PMBR size mismatch (102399 != 125038591) will be corrected by w(rite).
Disk /dev/synoboot: 59.6 GiB, 64019759104 bytes, 125038592 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 3F50193D-FE93-4AB2-9E9F-CD6AD583199D

Device         Start    End Sectors Size Type
/dev/synoboot1  2048  32767   30720  15M EFI System
/dev/synoboot2 32768  94207   61440  30M Linux filesystem
/dev/synoboot3 94208 102366    8159   4M BIOS boot


Disk /dev/zram0: 2.3 GiB, 2442133504 bytes, 596224 sectors
Units: sectors of 1 * 4096 = 4096 bytes
Sector size (logical/physical): 4096 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/zram1: 2.3 GiB, 2442133504 bytes, 596224 sectors
Units: sectors of 1 * 4096 = 4096 bytes
Sector size (logical/physical): 4096 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


code:
1
sudo mdadm --detail /dev/md1


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
/dev/md1:
        Version : 0.90
  Creation Time : Thu Jun 15 21:37:59 2017
     Raid Level : raid1
     Array Size : 2097088 (2047.94 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2047.94 MiB 2147.42 MB)
   Raid Devices : 12
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Fri Jun 16 10:57:46 2017
          State : clean, degraded
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : c0b76373:74443d87:d60c4879:3b98346c (local to host NAS)
         Events : 0.137

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2
       -       0        0        2      removed
       -       0        0        3      removed
       -       0        0        4      removed
       -       0        0        5      removed
       -       0        0        6      removed
       -       0        0        7      removed
       -       0        0        8      removed
       -       0        0        9      removed
       -       0        0       10      removed
       -       0        0       11      removed


Daar vind hij dus maar 2 van de 4 harde schijven, waarschijnlijk omdat ik er 2 bij heb geprikt toen hij al aan stond. Als ik die namelijk eerder in de NAS prik dan kan ik hem niet benaderen via SSH, dan vindt de Synology Assistent hem wel, maar krijg ik de melding dat ik hem opnieuw dien te installeren en dat de configuratie verloren is gegaan.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

Ik denk dat er wel meer mis is. Ik zie alleen maar sda en sdb zelfs in fdisk. Probeer eens te booten met gparted en kijk eens of je alle disks dan wel ziet?

[ Voor 33% gewijzigd door |sWORDs| op 16-06-2017 15:05 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
|sWORDs| schreef op vrijdag 16 juni 2017 @ 15:05:
Ik denk dat er wel meer mis is. Ik zie alleen maar sda en sdb zelfs in fdisk.
En wat zou je moeten zien?
SDA is toch gewoon schijf 1, en SDB is schijf 2?
Schijf 3 en 4 zijn waarschijnlijk offline of zo, omdat ze pas zijn aangesloten nadat de NAS al aan stond.

Met de Linux Live CD zie ik wel gewoon alle vier de schijven.

[ Voor 7% gewijzigd door miicker op 16-06-2017 15:07 ]

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

miicker schreef op vrijdag 16 juni 2017 @ 15:06:
[...]


En wat zou je moeten zien?
SDA is toch gewoon schijf 1, en SDB is schijf 2?
Schijf 3 en 4 zijn waarschijnlijk offline of zo, omdat ze pas zijn aangesloten nadat de NAS al aan stond.
Nee, met vrijwel alle controllers heb je gewoon hotswap en zouden de disken gewoon door fdisk gezien moeten worden. Als het alleen DSM was dan zou ik aan de sataportmap denken, maar dit is niet goed.
miicker schreef op vrijdag 16 juni 2017 @ 15:06:
[...]

Met de Linux Live CD zie ik wel gewoon alle vier de schijven.
Nu nog steeds? En probeer daar eens met twee te booten en dan twee toe te voegen?

[ Voor 20% gewijzigd door |sWORDs| op 16-06-2017 15:09 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
|sWORDs| schreef op vrijdag 16 juni 2017 @ 15:08:
[...]

Nee, met vrijwel alle controllers heb je gewoon hotswap en zouden de disken gewoon door fdisk gezien moeten worden. Als het alleen DSM was dan zou ik aan de sataportmap denken, maar dit is niet goed.


[...]

Nu nog steeds? En probeer daar eens met twee te booten en dan twee toe te voegen?
Ik ga het even proberen, welke commando's moet ik geven om de disks te kunnen zien?
Mijn BIOS ziet trouwens ook 4 discs.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

miicker schreef op vrijdag 16 juni 2017 @ 15:11:
[...]


Ik ga het even proberen, welke commando's moet ik geven om de disks te kunnen zien?
Mijn BIOS ziet trouwens ook 4 discs.
fdisk -l

Kun je ook iets meer over je systeem vertellen? Welk moederbord en welke satapoorten je gebruikt?

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
|sWORDs| schreef op vrijdag 16 juni 2017 @ 15:12:
[...]

fdisk -l

Kun je ook iets meer over je systeem vertellen? Welk moederbord en welke satapoorten je gebruikt?
Dit is de setup die ik gebruik:

#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 62,94€ 62,94
1ASRock B250M Pro4€ 86,90€ 86,90
1BitFenix Phenom Micro-ATX Zwart€ 71,95€ 71,95
1Startech.com 4x SATA Power Splitter Adapter Cable (PYO4SATA)€ 8,16€ 8,16
1Lexar Jumpdrive S45 64GB Zilver€ 16,27€ 16,27
2Seagate Backup Plus Portable Drive (STDR) 5TB Zilver€ 177,95€ 355,90
1Arctic Alpine 11 Passive€ 8,63€ 8,63
1Crucial CT8G4DFD8213€ 58,90€ 58,90
1Mini-box picoPSU PicoPSU-160-XT€ 45,95€ 45,95
1Mini-box PCI Bracket€ 2,96€ 2,96
1Salcar (12V 10A) 120W adapter€ 22,99€ 22,99
Bekijk collectie
Importeer producten
Totaal€ 741.55


en dan nog 2x WD Red 3TB. WD Red's zitten op sata poort 1 & 2, de Seagate Barracua's zitten op satapoorten 3 en 4, 5 en 6 (en het M2 slot) zijn leeg. Als ik het systeem boot met enkel de 2 WD RED schijven dan krijg ik de melding dat de pagina niet kan worden weergegeven, dan vindt de assistent de NAS niet en kan ik er wel in met SSH. Als ik boot vanaf een van de twee andere discs (de Seagate discs) (of als ik alle 4 de discs aansluit bij het booten) dan vindt de assistent hem wel, maar krijg ik dus een webpagina die me verteld dat ik het systeem opnieuw moet installeren.

De WD Red schijven komen uit mijn DS216Play (deze heb ik ook nog), die zijn echter door de nieuwe NAS geformatteerd. Ik heb ze tegelijk met een van de 5TB Barracuda schijven in de nieuwe NAS geplaatst. Een van de barracuda schijven heb ik toen nog als externe HDD gebruikt om de bestanden van de DS216Play over te zetten naar de nieuwe NAS. Toen ik daarmee klaar was heb ik ook die geformatteerd en heb ik deze aan het nieuwe systeem toegevoegd.

I haven’t slept for three days, because that would be too long.


Acties:
  • +1 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

Dat mag geen probleem zijn, alle 6 de SATA poorten komen uit de chipset, dus geen verschil per aansluiting zolang de M.2 niet met een SATA disk gevuld is.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
|sWORDs| schreef op vrijdag 16 juni 2017 @ 15:28:
Dat mag geen probleem zijn, alle 6 de SATA poorten komen uit de chipset, dus geen verschil per aansluiting zolang de M.2 niet met een SATA disk gevuld is.
Dit is de output van fdisk -l wanneer ik boot met 4 discs:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
ubuntu@ubuntu:~$ sudo -i
root@ubuntu:~# fdisk -l

Disk /dev/loop0: 1.4 GiB, 1497772032 bytes, 2925336 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8D0686A7-725F-49F7-B7F6-C91F70C4A770

Device       Start        End    Sectors  Size Type
/dev/sda1     2048    4982527    4980480  2.4G Linux RAID
/dev/sda2  4982528    9176831    4194304    2G Linux RAID
/dev/sda5  9453280 5860326239 5850872960  2.7T Linux RAID


Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 45AB83E2-5106-4035-B279-B74FEF547E65

Device       Start        End    Sectors  Size Type
/dev/sdb1     2048    4982527    4980480  2.4G Linux RAID
/dev/sdb2  4982528    9176831    4194304    2G Linux RAID
/dev/sdb5  9453280 5860326239 5850872960  2.7T Linux RAID


Disk /dev/sdc: 4.6 TiB, 5000981078016 bytes, 9767541168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: DA11E6F5-B5E8-4755-BC80-64BB22811818

Device          Start        End    Sectors  Size Type
/dev/sdc1        2048    4982527    4980480  2.4G Linux RAID
/dev/sdc2     4982528    9176831    4194304    2G Linux RAID
/dev/sdc5     9453280 5860326239 5850872960  2.7T Linux RAID
/dev/sdc6  5860342336 9767334239 3906991904  1.8T Linux RAID


Disk /dev/sdd: 4.6 TiB, 5000981078016 bytes, 9767541168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: CC7CF3B5-9DF2-4A28-AE90-D08861C2B9EE

Device          Start        End    Sectors  Size Type
/dev/sdd1        2048    4982527    4980480  2.4G Linux RAID
/dev/sdd2     4982528    9176831    4194304    2G Linux RAID
/dev/sdd5     9453280 5860326239 5850872960  2.7T Linux RAID
/dev/sdd6  5860342336 9767334239 3906991904  1.8T Linux RAID


Disk /dev/sde: 29.8 GiB, 32015679488 bytes, 62530624 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x00b2b0df

Device     Boot Start      End  Sectors  Size Id Type
/dev/sde1  *     2048 62530623 62528576 29.8G  c W95 FAT32 (LBA)


Ik vul deze post zo aan met de output wanneer ik boot met 2 discs & wanneer ik er live 2 bij prik

Edit:
output wanneer ik boot met twee discs (en er ook 2 aangesloten heb):
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
Disk /dev/loop0: 1.4 GiB, 1497772032 bytes, 2925336 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8D0686A7-725F-49F7-B7F6-C91F70C4A770

Device       Start        End    Sectors  Size Type
/dev/sda1     2048    4982527    4980480  2.4G Linux RAID
/dev/sda2  4982528    9176831    4194304    2G Linux RAID
/dev/sda5  9453280 5860326239 5850872960  2.7T Linux RAID


Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 45AB83E2-5106-4035-B279-B74FEF547E65

Device       Start        End    Sectors  Size Type
/dev/sdb1     2048    4982527    4980480  2.4G Linux RAID
/dev/sdb2  4982528    9176831    4194304    2G Linux RAID
/dev/sdb5  9453280 5860326239 5850872960  2.7T Linux RAID


Disk /dev/sdc: 29.8 GiB, 32015679488 bytes, 62530624 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x00b2b0df

Device     Boot Start      End  Sectors  Size Id Type
/dev/sdc1  *     2048 62530623 62528576 29.8G  c W95 FAT32 (LBA)


vervolgens sluit ik de twee discs aan terwijl de NAS aan staat:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
Disk /dev/loop0: 1.4 GiB, 1497772032 bytes, 2925336 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8D0686A7-725F-49F7-B7F6-C91F70C4A770

Device       Start        End    Sectors  Size Type
/dev/sda1     2048    4982527    4980480  2.4G Linux RAID
/dev/sda2  4982528    9176831    4194304    2G Linux RAID
/dev/sda5  9453280 5860326239 5850872960  2.7T Linux RAID


Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 45AB83E2-5106-4035-B279-B74FEF547E65

Device       Start        End    Sectors  Size Type
/dev/sdb1     2048    4982527    4980480  2.4G Linux RAID
/dev/sdb2  4982528    9176831    4194304    2G Linux RAID
/dev/sdb5  9453280 5860326239 5850872960  2.7T Linux RAID


Disk /dev/sdc: 29.8 GiB, 32015679488 bytes, 62530624 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x00b2b0df

Device     Boot Start      End  Sectors  Size Id Type
/dev/sdc1  *     2048 62530623 62528576 29.8G  c W95 FAT32 (LBA)


Zo te zien pikt hij het dus niet als ik discs aansluit terwijl het systeem al aan staat (ik voel wel dat de discs beginnen te spinnen trouwens).

Edit: heb de info over het RAM geheugen even weggehaald om het iets leesbaarder te maken.

[ Voor 119% gewijzigd door miicker op 16-06-2017 16:01 ]

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
@|sWORDs|
Heb m'n post aangepast en alle output staat er in, maar het lijkt dus niet te werken als ik ze op en hotswap manier toevoeg.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Zijn er nog mensen die denken dat er een oplossing voor dit probleem is? Zelf zit ik nu toch sterk te denken om het volgende te doen:
De discs (RAID group) mounten met een Linux Live CD, vervolgens een van de lege 5TB harde schijven formatteren en ook met sata kabel verbinden en dan de data naar die HDD te kopiëren (dus met SATA kabel).

Als ik namelijk alles via externe HDD moet doen ben ik weer 2,5 dag bezig met kopiëren.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

ik vind het een lastige, ik kan zo niet zien wat er mis is.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
|sWORDs| schreef op vrijdag 16 juni 2017 @ 19:58:
ik vind het een lastige, ik kan zo niet zien wat er mis is.
dan ga ik helaas maar voor optie B, dat gaat me veel tijd kosten, maar alles is beter dan 4TB aan dataverlies :P hopelijk gaat dat lukken.

Enig idee of het mogelijk moet zijn om de twee of drie hdd's te mounten en vervolgens de data te kopiëren naar een andere hdd (ook verbonden via sata).

Moet ik die ene HDD dan ook mounten, of komt die standaard in de file explorer als die geformatteerd is?

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Ìk gebruik deze tutorial om de data partitie te mounten:
https://xpenology.com/for...ta-amp-system-partitions/
Ik doe dus dit:
code:
1
2
3
4
sudo -i
apt-get update
apt-get install mdadm lvm2
mdadm -Asf && vgchange -ay


Dit doe ik terwijl er drie van de 4 discs aangesloten zijn en dat werkt, de data kan ik dan benaderen.

Nu heb ik hierover twee vragen:
- In mijn opstelling zaten 4 schijven, 1 daarvan was nog niet toegevoegd aan het volume (daar was hij nog bezig met een parity check, omdat alles draait met SHR), kan het dan zo zijn dat ik alsnog dataverlies heb omdat er ook gegevens op die vierde schijf zijn gezet?
- Hoe kan ik de eerste drie schijven mounten (dus zoals ik nu doe) en dan de vierde als aparte schijf mounten (zodat ik de data kan kopiëren van de drie schijven naar die éne schijf?

Qua ruimte op de schijf moet het zeker lukken, er staat ongeveer 4,2 TB op en de schijf heeft 4,5TB vrije ruimte.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 17-06 09:22

|sWORDs|

vSphere/ESXi

Je kunt die vierde toch gewoon wissen?

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
|sWORDs| schreef op vrijdag 16 juni 2017 @ 21:21:
Je kunt die vierde toch gewoon wissen?
Ja klopt, dat zou kunnen, alleen ben ik een beetje huiverig, want als je gebruikt maakt van SHR en voegt een schijf toe dan verdeeld hij de data toch over alle vier de schijven?
Aangezien ik vermoed dat hij op 15% van installatie was ben ik bang dat er al het e.e.a. aan data op staat en dat ik misschien alsnog data verlies heb, of corrupte data.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Oké ik heb nu disc 4 geformatteerd met als bestandssysteem exfat. Ik heb de volgende code uitgevoerd in de terminal:
code:
1
2
3
4
5
6
sudo -i
add-apt-repository "deb http://archive.ubuntu.com/ubuntu $(lsb_release -sc) universe"
apt-get update
apt-get install exfat-fuse exfat-utils
apt-get install mdadm lvm2
mdadm -Asf && vgchange -ay


En kan heb hiermee de data partitie gemount van de NAS bestaande uit drie schijven. Daarnaast kan ik nu de exfat schijf mounten. Ik heb dat gedaan en kopieer nu bestanden van de schijven uit de NAS naar de andere disc. Maar het gaat echt absurd langzaam. Ik ben begonnen met een kleine map, met weliswaar veel bestanden (14.463) maar slechts 157MB groot. Dit kopieert hij met 80kB per seconde :|
Hij is al al 15 minuten bezig en is nog niet op de helft.

Enig idee hoe dit sneller kan?
Daarnaast kreeg ik de melding dat de map "users" niet gekopieerd kon worden omdat hij geen read rechten heeft voor die map :S ik kan de map users niet eens vinden (wellicht doordat ik geen read rechten heb? Enig idee hoe ik dit kan oplossen. Ik wil straks de map waar 4TB in zit kopiëren en wil dan niet erachter komen dat hij na 5% een melding toont die dan 8 uur open heeft gestaan of zo :+

Edit: ik zag dat het wellicht kon helpen om disc 4 te unmounten en opnieuw te mounten op de volgende manier:
code:
1
2
3
4
umount /dev/sdd1
cd
mkdir mnt
sudo mount /dev/sdd1 mnt


Dat ga ik zo als deze kopieer actie voorbij is proberen en dan kijken of het sneller gaat.

[ Voor 10% gewijzigd door miicker op 16-06-2017 23:46 ]

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Hij is nog steeds bezig met kopiëren. Ik heb het commando rsync gebruikt. Heel raar, hij begon enorm langzaam (russen de 1 en 3 MB per seconde). Na ongeveer 10 uur aangestaan te hebben sprong hij naar 120 MB per seconde. Met die snelheid heeft ie ongeveer 3 - 4TB gekopieerd.

Mijn schatting is dat hij nog ongeveer 300GB moet kopiëren, maar dat doet hij nu wel met een snelheid van gemiddeld 2MB per seconde :|
Iemand enig idee waar dit aan kan liggen?

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • wim1928
  • Registratie: Mei 2015
  • Laatst online: 24-09-2024
haal eens het Ram geheugen er uit ,en plaats het dan weer terug

Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
wim1928 schreef op dinsdag 20 juni 2017 @ 12:56:
haal eens het Ram geheugen er uit ,en plaats het dan weer terug
Heb gister avond de NAS opnieuw opgestart en de discs op een andere manier gemount, sindsdien een snelheid van +- 50MB per seconde :) vanochtend was hij klaar met de opdracht van gisteravond, nu heb ik hem nog een opdracht geven, hopelijk is hij straks klaar als ik thuis ben (met die snelheid moet hij allang klaar zijn). Dan even controleren of alles op de harde schijf staat en dan ga ik de NAS opnieuw installeren.

I haven’t slept for three days, because that would be too long.


Acties:
  • 0 Henk 'm!

  • miicker
  • Registratie: Juni 2011
  • Niet online
Uiteindelijk heb ik bestanden snel van de SHR group kunnen kopiëren naar m'n andere harde schijf (aangesloten via een SATA aansluiting). Die heb ik geformatteerd in NTFS, de snelheid was dus eerst bagger, toen ik het als volgt deed was het wel snel:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
sudo -i
apt-get update
apt-get install mdadm
mdadm --assemble --scan
<<Output>>:
mdadm: /dev/md0 has been started with 1 drive (out of 2).
mdadm: /dev/md/2 has been started with 3 drives (out of 4).
mdadm: /dev/md/3 has been started with 1 drive (out of 2).
<<!>>

apt-get install lvm2
vgscan --mknodes
<<Output>>
Reading all physical volumes.  This may take a while...
Found volume group "vg1000" using metadata type lvm2
<<!>>

vgchange -ay /dev/vg1000
lvdisplay vg1000 <<hiermee zie je info over de groep, en of het de juiste is>>
cd
mkdir mnt
mount /dev/vg1000/lv mnt

<<nu kun je dus bladeren met het commando "cd mnt">>


Na al het geklooi, eindelijk alle bestanden overgezet te hebben, heb ik XPenology weer geboot. Ik deed niets, maar ineens was deze teruggezet naar fabrieksinstellingen (op enkele settings na) en ik had al mijn bestanden nog. 2-3 dagen lopen kloten met die Linux Live CD voor niets :|
Maar goed, ik wacht nog even met het aansluiten van de laatste harde schijf (want daar staat nu de volledige backup op en als ik die aansluit wordt hij geformatteerd).
Ik ga nu eerst de hele NAS opnieuw configureren (heb alles terug gezet naar fabrieksinstellingen.

Om een of andere reden stonden alle Docker containers er wel nog op nadat ik Docker opnieuw geïnstalleerd heb. Nu dus maar eerst even wat dagen alles testen en als alles blijft werken dan ga ik die andere schijf toevoegen.

I haven’t slept for three days, because that would be too long.


Acties:
  • +1 Henk 'm!

  • Thralas
  • Registratie: December 2002
  • Laatst online: 08:39
Het is allemaal wat rommelig hierboven, dus ik heb niet alles gelezen, maar wilde dit nog even kwijt:
miicker schreef op donderdag 15 juni 2017 @ 21:58:
code:
1
2
mdadm --detail /dev/md0 en mdadm --detail /dev/md1
  Creation Time : Thu Jun 15 21:37:59 2017
Als je probleem dataverlies is, dan lijkt het me geen goed teken als je een array hebt die pas twintig minuten geleden is aangemaakt. Dan zou ik goed nagaan of je niet op de verkeerde knopjes aan het drukken bent.

De output van hierboven ziet er overigens nog steeds zorgelijk uit. Je start drie md arrays, maar ze zijn allemaal degraded. Of dat is een obscuur truukje van Synology, of er is iets loos. Ik zou nog eens goed nalopen of de array states (ie. /proc/mdstat) kloppen met je verwachtingen.
Pagina: 1