RAID1 на Raspberry Pi не работает. Как я могу проверить почему? - PullRequest
0 голосов
/ 16 февраля 2020

Я сделал NAS-сервер с Samba на Raspberry Pi4 с двумя внешними SSD-устройствами, настроенный как том RAID1. Я использовал mdadm для создания тома RAID:

sudo mdadm --create --verbose /dev/md127 --level=mirror --raid-devices=2 /dev/sda1 /dev/sdb1

Проверка / proc / mdstat сначала показала, что он работает, но позже один SSD-диск вышел из строя. Вне зависимости от этой ошибки, я изменил свою ОС с Rasbian на ОС Manjaro для Rasberry Pi 4 и перенастроил том RAID1. Я снова получил ту же ошибку. Это, по крайней мере, показывает, что ошибка воспроизводима на двух разных ОС.

Диски SSD работают нормально, поэтому проблема не в том, что один из них сломан. Я могу легко переформатировать их и использовать как обычное внешнее хранилище для любого другого компьютера (Linux и Windows ОС). Я подозреваю, что проблема заключается в том, что внешние накопители (2x SanDis c SSD 500 ГБ) не имеют внешнего источника питания и что Pi пытается запитать их обоих?

Есть ли способ, как я могу проверить, в чем может быть проблема? Сейчас я просто догадываюсь, в чем может быть проблема, и это не очень удовлетворительно.

Вывод mdadm выглядит следующим образом:

sudo mdadm --detail /dev/md127

Версия: 1.2 Время создания: вторник, 11 февраля 10:36:00 2020 Уровень рейда: raid1 Размер массива: 488251392 (465,63 ГиБ 499,97 ГБ) Используемый размер Dev: 488251392 (465,63 ГиБ 499,97 ГБ) Рейдовые устройства: 2 Всего устройств: 2 Постоянство: Суперблок постоянен

 Intent Bitmap : Internal

   Update Time : Sun Feb 16 09:05:57 2020
         State : clean, degraded 
Active Devices : 1

Рабочие устройства: 1 Отказавшие устройства: 1 Запасные устройства: 0

Политика согласования: битовая карта

          Name : mkpi:PiRaidArray  (local to host mkpi)
          UUID : b19e319d:43c78d97:a0aba26a:24469c8f
        Events : 8849

Number   Major   Minor   RaidDevice State
   0       8        1        0      active sync   /dev/sda1
   -       0        0        1      removed

   1       8       17        -      faulty

И далее, здесь вывод из cat /proc/mdstat

Personalities : [raid1] 
md127 : active raid1 sdb1[1](F) sda1[0]
      488251392 blocks super 1.2 [2/1] [U_]
      bitmap: 4/4 pages [16KB], 65536KB chunk

unused devices: <none>
...