Мне не повезло в настройке Raid с использованием MDADM.На данный момент я подозреваю, что это мое оборудование.Вскоре после первоначальной настройки, а также во время и после успешного процесса синхронизации диски будут помечены как Сбой и удалены из массива.Я пробовал использовать как RAW-метод привода, так и метод Partition.Используя метод разделов, я попробовал как полную емкость, так и меньший размер раздела (-100 МБ емкости в начале раздела).Из многих сообщений, которые я обнаружил, я пришел к выводу, что добавление разделенных дисков с размером раздела, меньшим, чем фактическая емкость диска, на необработанный неразделенный диск является рекомендуемым способом настройки рейда mdadm.Это упрощает управление, т. Е. Заменяет неисправные диски и т. Д.
Мое оборудование запускается с сервера Dell PowerEdge R410.У меня есть адаптер esata (не high-end), подключенный к Sans Digital TowerRaid TR5M- (B) с 5 отсеками и 4 накопителями WD Red NAS емкостью 4 ТБ.Я хотел сохранить хранилище данных отдельно от физического сервера.Я еще не пробовал переносить диски на сервер Dell, так как я не хочу ОС на рейд-массиве.Я полагаю, что мог бы попытаться загрузиться с внешнего диска, но это настолько неортодоксально, что я действительно не хочу идти в этом направлении.
Я наткнулся на один или два поста, в которых говорилось о проблемах «времени», и удивляюсь, действительно ли это является источником моей проблемы.Но они говорили о «процессе синхронизации» во время сбоя.И в моем случае я видел, как рейд успешно синхронизировался на 100%, а потом видел, как рейд рушится.Я могу опубликовать список проверок и подробностей mdadm.
Поэтому, прежде чем снова собирать массив для публикации настроек, сведений о состоянии и т. Д., Я решил спросить сообщество, что вы думаете.Тем не менее, вот как это выглядит перед самым выходом из строя / удалением всех дисков.
services-admin@mydomain:(172.20.0.9)~/DockerServices$ sudo mdadm --detail /dev/md0
Version : 1.2
Creation Time : Mon Feb 25 14:42:27 2019
Raid Level : raid6
Array Size : 7813566464 (7451.60 GiB 8001.09 GB)
Used Dev Size : 3906783232 (3725.80 GiB 4000.55 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Feb 25 16:01:57 2019
State : clean, FAILED
Active Devices : 0
Failed Devices : 4
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
- 0 0 2 removed
- 0 0 3 removed
0 8 1 - faulty /dev/sda1
1 8 17 - faulty /dev/sdb1
2 8 33 - faulty /dev/sdc1
3 8 49 - faulty /dev/sdd1