mdadm показывает разное количество устройств по сравнению с / proc / mdstat - PullRequest
0 голосов
/ 01 мая 2020

На сервере, имеющем (в настоящее время) 22 дисковода, я хотел бы иметь зеркало для / boot и / файловых систем (поверх первого раздела каждого диска). Это должно позволить серверу загружаться с каждого диска.

Для моего root MD это работает нормально. Однако загрузочный MD показывает меньше дисков с помощью команды mdadm, которая указана в моем /proc/mdstat.

Это мой рабочий root статус MD файловой системы:

storage10:~# mdadm --detail /dev/md4
/dev/md4:
        Version : 1.2
  Creation Time : Sun Oct 13 23:49:04 2019
     Raid Level : raid1
     Array Size : 41951232 (40.01 GiB 42.96 GB)
  Used Dev Size : 41951232 (40.01 GiB 42.96 GB)
   Raid Devices : 22
  Total Devices : 22
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Fri May  1 22:10:27 2020
          State : clean
 Active Devices : 22
Working Devices : 22
 Failed Devices : 0
  Spare Devices : 0

           Name : storage10:4  (local to host storage10)
           UUID : 02dff74d:a91b19a9:4e6685dd:3df99485
         Events : 4465714

    Number   Major   Minor   RaidDevice State
       0       8      210        0      active sync   /dev/sdn2
       1       8      226        1      active sync   /dev/sdo2
       9      65       98        2      active sync   /dev/sdw2
      20       8      242        3      active sync   /dev/sdp2
       7      65       66        4      active sync   /dev/sdu2
       6      65       50        5      active sync   /dev/sdt2
       5      65       34        6      active sync   /dev/sds2
       4      65       18        7      active sync   /dev/sdr2
       3      65        2        8      active sync   /dev/sdq2
      21       8       66        9      active sync   /dev/sde2
      10       8       18       10      active sync   /dev/sdb2
      19       8      178       11      active sync   /dev/sdl2
      18       8      130       12      active sync   /dev/sdi2
      17       8      162       13      active sync   /dev/sdk2
      16       8       34       14      active sync   /dev/sdc2
      15       8       50       15      active sync   /dev/sdd2
      14       8      194       16      active sync   /dev/sdm2
      13       8      114       17      active sync   /dev/sdh2
      12       8      146       18      active sync   /dev/sdj2
      11       8        2       19      active sync   /dev/sda2
      23       8       98       20      active sync   /dev/sdg2
      22       8       82       21      active sync   /dev/sdf2

И это моя "деградировавшая" загрузочная файловая система:

storage10:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Tue Jul 26 11:23:17 2016
     Raid Level : raid1
     Array Size : 511936 (500.02 MiB 524.22 MB)
  Used Dev Size : 511936 (500.02 MiB 524.22 MB)
   Raid Devices : 22
  Total Devices : 22
Preferred Minor : 0
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Fri May  1 22:09:53 2020
          State : clean, degraded
 Active Devices : 22
Working Devices : 22
 Failed Devices : 0
  Spare Devices : 0

           UUID : 98fc2fba:b422011d:9d4deba6:47ca997f
         Events : 0.418

    Number   Major   Minor   RaidDevice State
       0      65       97        0      active sync   /dev/sdw1
       1       8      241        1      active sync   /dev/sdp1
       2      65       65        2      active sync   /dev/sdu1
       3      65       49        3      active sync   /dev/sdt1
       4      65       33        4      active sync   /dev/sds1
       5      65       17        5      active sync   /dev/sdr1
       6      65        1        6      active sync   /dev/sdq1
       7       8       65        7      active sync   /dev/sde1
       8       8      225        8      active sync   /dev/sdo1
       9       8      209        9      active sync   /dev/sdn1
      10       8       17       10      active sync   /dev/sdb1
      11       8       33       11      active sync   /dev/sdc1
      12       8       49       12      active sync   /dev/sdd1
      13       8      193       13      active sync   /dev/sdm1

Когда я смотрю на свой интерфейс ядра, все выглядит нормально:

storage10:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md0 : active raid1 sdw1[0] sdf1[21] sdg1[20] sda1[19] sdk1[18] sdj1[17] sdi1[16] sdh1[15] sdl1[14] sdm1[13] sdd1[12] sdc1[11] sdb1[10] sdn1[9] sdo1[8] sde1[7] sdq1[6] sdr1[5] sds1[4] sdt1[3] sdu1[2] sdp1[1]
      511936 blocks [22/22] [UUUUUUUUUUUUUUUUUUUUUU]
      bitmap: 0/1 pages [0KB], 65536KB chunk


md4 : active raid1 sdg2[23] sdf2[22] sde2[21] sdp2[20] sdl2[19] sdi2[18] sdk2[17] sdc2[16] sdd2[15] sdm2[14] sdh2[13] sdj2[12] sda2[11] sdb2[10] sdw2[9] sdu2[7] sdt2[6] sds2[5] sdr2[4] sdq2[3] sdo2[1] sdn2[0]
      41951232 blocks super 1.2 [22/22] [UUUUUUUUUUUUUUUUUUUUUU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

Я не вижу никаких проблем, если моя команда mdadm не показывал бы мне статус: "Состояние: чистое, ухудшилось "

Есть идеи, что делать?

...