[Ubuntu] Mounten van LVM in LiveCD lukt niet

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • ari3
  • Registratie: Augustus 2002
  • Niet online
Ik heb een systeem met LVM die een disk mirror heeft. Na een upgrade van 12.04 ging er iets mis met het configureren van grub. Kennelijk van /dev/md-2 opeens geen geldige device voor de boot partitie. Hoewel de upgrade verder succesvol verlopen was kan ik niet meer booten. Ook met met grub-rescue.

Daarom maar eens geprobeerd of ik de schijven kan mounten met de LiveCD. Daar is iets vreemds mee. Aangezien de partities en volumes niet gewijzigd zijn verwacht ik dat gewoon te kunnen doen, maar zie deze output:

code:
1
2
$ sudo pvscan
  No matching physical volumes found


code:
1
2
$ sudo lvscan
  No volume groups found


Hoe kan dit? Vreemd is dat de scans niets vinden terwijl ze er wel lijken te zijn:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
$ sudo fdisk -l /dev/sdb /dev/sdc

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000845e4

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *        2048      391167      194560   fd  Linux raid autodetect
/dev/sdb2          393214  1953523711   976565249    5  Extended
/dev/sdb5          393216    16015359     7811072   fd  Linux raid autodetect
/dev/sdb6        16017408  1953523711   968753152   fd  Linux raid autodetect

Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000bcea9

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1   *        2048      391167      194560   fd  Linux raid autodetect
/dev/sdc2          393214  1953523711   976565249    5  Extended
/dev/sdc5          393216    16015359     7811072   fd  Linux raid autodetect
/dev/sdc6        16017408  1953523711   968753152   fd  Linux raid autodetect


code:
1
2
3
4
5
6
7
8
9
10
11
$ sudo blkid
/dev/loop0: TYPE="squashfs" 
/dev/sda1: LABEL="SSD" UUID="d44ff317-d3c1-4bcb-9827-f51daf50e118" TYPE="ext4" 
/dev/sdb1: UUID="5110eb04-ecda-7639-e393-9afd458f0a53" TYPE="linux_raid_member" 
/dev/sdb5: UUID="095de550-6f35-a0b4-b7a3-0f27314e6ef5" TYPE="linux_raid_member" 
/dev/sdb6: UUID="20b545d1-81a8-d68d-6a8b-e0133a9f46ab" TYPE="linux_raid_member" 
/dev/sdc1: UUID="5110eb04-ecda-7639-e393-9afd458f0a53" TYPE="linux_raid_member" 
/dev/sdc5: UUID="095de550-6f35-a0b4-b7a3-0f27314e6ef5" TYPE="linux_raid_member" 
/dev/sdc6: UUID="20b545d1-81a8-d68d-6a8b-e0133a9f46ab" TYPE="linux_raid_member" 
/dev/sdd1: LABEL="Ubuntu 13.04 amd64" TYPE="iso9660" 
/dev/sdd2: SEC_TYPE="msdos" UUID="5A1D-CEB6" TYPE="vfat"


En voor /dev/sdb de output van de verschillende partities:
code:
1
2
3
4
5
$ sudo mdadm --examine /dev/sdb
/dev/sdb:
   MBR Magic : aa55
Partition[0] :       389120 sectors at         2048 (type fd)
Partition[1] :   1953130498 sectors at       393214 (type 05)


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
/$ sudo mdadm --examine /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 5110eb04:ecda7639:e3939afd:458f0a53
  Creation Time : Tue May 11 17:58:21 2010
     Raid Level : raid1
  Used Dev Size : 194496 (189.97 MiB 199.16 MB)
     Array Size : 194496 (189.97 MiB 199.16 MB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0

    Update Time : Mon Jun 24 23:24:49 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
       Checksum : adeec0d9 - correct
         Events : 349


      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

   0     0       8       33        0      active sync   /dev/sdc1
   1     1       8       17        1      active sync   /dev/sdb1


code:
1
2
3
4
5
sudo mdadm --examine /dev/sdb2
/dev/sdb2:
   MBR Magic : aa55
Partition[0] :     15622144 sectors at            2 (type fd)
Partition[1] :   1937506907 sectors at     15623591 (type 05)


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
$ sudo mdadm --examine /dev/sdb5
/dev/sdb5:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 095de550:6f35a0b4:b7a30f27:314e6ef5
  Creation Time : Tue May 11 17:58:27 2010
     Raid Level : raid1
  Used Dev Size : 7811008 (7.45 GiB 8.00 GB)
     Array Size : 7811008 (7.45 GiB 8.00 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 1

    Update Time : Mon Jun 24 23:16:51 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
       Checksum : a8d9f398 - correct
         Events : 217


      Number   Major   Minor   RaidDevice State
this     1       8       21        1      active sync   /dev/sdb5

   0     0       8       37        0      active sync   /dev/sdc5
   1     1       8       21        1      active sync   /dev/sdb5


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
$ sudo mdadm --examine /dev/sdb6
/dev/sdb6:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 20b545d1:81a8d68d:6a8be013:3a9f46ab
  Creation Time : Tue May 11 17:58:33 2010
     Raid Level : raid1
  Used Dev Size : 968753088 (923.87 GiB 992.00 GB)
     Array Size : 968753088 (923.87 GiB 992.00 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2

    Update Time : Mon Jun 24 23:24:51 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0
       Checksum : c8303554 - correctsudo mdadm --examine /dev/sdb6
/dev/sdb6:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 20b545d1:81a8d68d:6a8be013:3a9f46ab
  Creation Time : Tue May 11 17:58:33 2010
     Raid Level : raid1
  Used Dev Size : 968753088 (923.87 GiB 992.00 GB)
         Events : 366916


      Number   Major   Minor   RaidDevice State
this     1       8       22        1      active sync   /dev/sdb6

   0     0       8       38        0      active sync   /dev/sdc6
   1     1       8       22        1      active sync   /dev/sdb6


Iemand een idee hoe ik de LVM volumes mount zodat ik grub kan fixen?

[ Voor 3% gewijzigd door ari3 op 25-06-2013 20:45 ]

"Kill one man, and you are a murderer. Kill millions of men, and you are a conqueror. Kill them all, and you are a god." -- Jean Rostand


Acties:
  • 0 Henk 'm!

  • Hero of Time
  • Registratie: Oktober 2004
  • Laatst online: 22:26

Hero of Time

Moderator LNX

There is only one Legend

Je zal je LVM niet kunnen vinden, omdat je partities geen LVM volumes zijn. Er staat dat 't Linux RAID is. Je moet dus eerst met mdadm je raid array opbouwen, dan pas krijg je je LVM volumes te zien. Dat is ook hoe je de boel hebt geconfigureerd, eerst RAID en daar overheen LVM.

Om je grub z'n werk te laten doen, heb je een losse, buiten de RAID en LVM om, /boot nodig die de juiste modules heeft om LVM in software-RAID te kunnen lezen. Normaal gesproken is dit geen probleem en moet 't dan ook gewoon werken, maar zo heel af en toe kan 't onderuit gaan tijdens configureren. Helaas is dat nu bij jou gebeurt.

En, ehm, je hebt blijkbaar /dev/sda (een SSD) voor je gehele OS en zijn de 1TB schijven puur voor data opslag, of niet? Er zou dan al helemaal geen probleem moeten zijn met grub. Maar misschien dat de boot flag op de schijven 'm in de war schopt.

Commandline FTW | Tweakt met mate


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Je zult inderdaad je raidset moeten starten, mdadm -A /dev/mdX --scan
Daarna zul je waarschijnlijk je VG's nog moeten activeren. Je kunt eerst een vgscan doen om te zien of ze gevonden worden, dan een vgchange -a y <vgnaam> om hem te activeren. Als het goed is zijn dan je LV's weer beschikbaar en kun je filesystemes mounten.

Edit: de namen van je raidsets vind je als het goed is in /etc/mdadm/mdadm.conf (of zoiets)
Edit2: je hebt het over /dev/md-2 , dat is wat vreemd. Raisets hebben meestal standaard geen streepje, dus /dev/md0 , md1 etc..
Misschien bedoel je /dev/dm-2 , via de device-mapper, dat is dan een link naar een LV volgens mij. Dus ik weet niet ook helemaal wat je probeerde te doen daar.

[ Voor 37% gewijzigd door u_nix_we_all op 25-06-2013 22:22 ]

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • ari3
  • Registratie: Augustus 2002
  • Niet online
u_nix_we_all schreef op dinsdag 25 juni 2013 @ 22:16:
Je zult inderdaad je raidset moeten starten, mdadm -A /dev/mdX --scan
Daarna zul je waarschijnlijk je VG's nog moeten activeren. Je kunt eerst een vgscan doen om te zien of ze gevonden worden, dan een vgchange -a y <vgnaam> om hem te activeren. Als het goed is zijn dan je LV's weer beschikbaar en kun je filesystemes mounten.

Edit: de namen van je raidsets vind je als het goed is in /etc/mdadm/mdadm.conf (of zoiets)
Thanks, in /etc/mdadm/mdadm.conf zat inderdaad de mapping!
code:
1
2
3
4
$ sudo mdadm -A -s
mdadm: /dev/md0 has been started with 2 drives.
mdadm: /dev/md1 has been started with 2 drives.
mdadm: /dev/md2 has been started with 2 drives.

Hierna ging de LiveCD automatisch de boel mounten. Ook werkte pvscan hierna weer:
code:
1
2
3
4
5
$ sudo pvscan
  PV /dev/md2   VG vg_root   lvm2 [923.87 GiB / 0    free]
  PV /dev/md1   VG vg_swap   lvm2 [7.45 GiB / 0    free]
  PV /dev/md0   VG vg_boot   lvm2 [188.00 MiB / 0    free]
  Total: 3 [931.50 GiB] / in use: 3 [931.50 GiB] / in no VG: 0 [0   ]
Edit2: je hebt het over /dev/md-2 , dat is wat vreemd. Raisets hebben meestal standaard geen streepje, dus /dev/md0 , md1 etc..
Misschien bedoel je /dev/dm-2 , via de device-mapper, dat is dan een link naar een LV volgens mij. Dus ik weet niet ook helemaal wat je probeerde te doen daar.
Ja, ik bedoelde inderdaad /dev/dm-2.
Hero of Time schreef op dinsdag 25 juni 2013 @ 22:05:
Je zal je LVM niet kunnen vinden, omdat je partities geen LVM volumes zijn. Er staat dat 't Linux RAID is. Je moet dus eerst met mdadm je raid array opbouwen, dan pas krijg je je LVM volumes te zien. Dat is ook hoe je de boel hebt geconfigureerd, eerst RAID en daar overheen LVM.

Om je grub z'n werk te laten doen, heb je een losse, buiten de RAID en LVM om, /boot nodig die de juiste modules heeft om LVM in software-RAID te kunnen lezen. Normaal gesproken is dit geen probleem en moet 't dan ook gewoon werken, maar zo heel af en toe kan 't onderuit gaan tijdens configureren. Helaas is dat nu bij jou gebeurt.
Volgens mij heb ik geen losse /boot? De /boot partitie moet toch ook gespiegeld zijn? Immers, als een van de schijven het begeeft moet ik toch naadloos kunnen booten van de andere schijf?
En, ehm, je hebt blijkbaar /dev/sda (een SSD) voor je gehele OS en zijn de 1TB schijven puur voor data opslag, of niet? Er zou dan al helemaal geen probleem moeten zijn met grub. Maar misschien dat de boot flag op de schijven 'm in de war schopt.
Nee, de SSD is recent geplaatst maar nog niet gebruikt. Kan dus ook niet booten hiervan.

"Kill one man, and you are a murderer. Kill millions of men, and you are a conqueror. Kill them all, and you are a god." -- Jean Rostand


Acties:
  • 0 Henk 'm!

  • Hero of Time
  • Registratie: Oktober 2004
  • Laatst online: 22:26

Hero of Time

Moderator LNX

There is only one Legend

Even wat documentatie geraadpleegd en je /boot kan idd op een software-RAID1 array staan. RAID1 schijven/partities kan je namelijk prima handmatig mounten (je zou dus een 'mount /dev/sdb1 /mnt/disk1' kunnen doen. Wel het file system opgeven, anders werkt 't niet. Mdadm, je software-RAID, verzorgt de sync van bestanden door gebruik te maken van een aparte device-node om beide partities aan te roepen, /dev/md0 bijvoorbeeld.

Omdat je aangeeft geen aparte /boot te hebben, is je hele / buiten LVM en alleen je data partitie(s), dus je extended, is (zijn) LVM. Het is onmogelijk om /, waar je /boot inzit, in LVM te plaatsen. Het systeem zou niet kunnen booten namelijk. Grub kan zelf lezen van software-RAID, maar het initramfs bevat de modules voor LVM.

Commandline FTW | Tweakt met mate


Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 30-09 11:31

Demo

Probleemschietende Tovenaar

Mag ik me afvragen wat het praktisch nut is van drie RAID-arrays, waar drie PV's op aangemaakt zijn met vervolgens één VG en waarschijnlijk één LV? Of je maakt losse arrays en partitioneert die, of je maakt een grote RAID-array, bouwt daar een VG op en maakt daar meerdere LV's in aan..

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 29-09 17:12
ik sluit me bij Demoniac aan. Ik heb 1 raid 1 voor /boot (200MB) en 1 RAID5 voor mijn root LV en data LV.
Pagina: 1