Intereting Posts

RAID 5, построенный с использованием mdadm, запускается в деградированном режиме. Это нормально?

Я настраиваю новый набор дисков на установку CentOS 7 (10x1TB), однако я вижу что-то раздражающее во время процесса сборки.

Когда я пытаюсь построить массив, он сразу же распознается, но указывает на состояние ошибки (ухудшено, один диск отсутствует).

Команда полной сборки:

mdadm --create /dev/md1 --level=5 --raid-devices=9 /dev/sde1 /dev/sdg1 /dev/sdc1 /dev/sdd1 /dev/sdf1 /dev/sdl1 /dev/sdj1 /dev/sdi1 /dev/sdm1 --spare-devices=1 /dev/sdk1

Однако затем я попробовал то же самое без запасного диска:

mdadm --create /dev/md1 --level=5 --raid-devices=9 /dev/sde1 /dev/sdg1 /dev/sdc1 /dev/sdd1 /dev/sdf1 /dev/sdl1 /dev/sdj1 /dev/sdi1 /dev/sdm1

затем варианты из трех накопителей:

mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sdj1 /dev/sdi1 /dev/sdm1

mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sde1 /dev/sdg1 /dev/sdc1

Во всех случаях новый массив инициализируется с ожидаемым свободным размером (8TB и 2TB в вариантах.) Массив также можно использовать во время перестройки, я могу читать и записывать файлы.

Любопытно, что при создании резервной копии запасной диск показывает значительную активность чтения / записи, подразумевая, что он каким-то образом участвует в сборке.

В принципе, это нормально, а если нет, что я делаю неправильно?

Редактировать:

Это вывод: mdadm --detail /dev/md1

 /dev/md1: Version : 1.2 Creation Time : Sun Jan 4 00:00:22 2015 Raid Level : raid5 Array Size : 7813042176 (7451.10 GiB 8000.56 GB) Used Dev Size : 976630272 (931.39 GiB 1000.07 GB) Raid Devices : 9 Total Devices : 10 Persistence : Superblock is persistent Update Time : Sun Jan 4 00:05:33 2015 State : clean, degraded, recovering Active Devices : 8 Working Devices : 10 Failed Devices : 0 Spare Devices : 2 Layout : left-symmetric Chunk Size : 512K Rebuild Status : 0% complete Name : localhost.localdomain:1 (local to host localhost.localdomain) UUID : f2d4f470:9d5022bf:a397b5a0:45b94d28 Events : 72 Number Major Minor RaidDevice State 0 8 65 0 active sync /dev/sde1 1 8 97 1 active sync /dev/sdg1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1 4 8 81 4 active sync /dev/sdf1 5 8 177 5 active sync /dev/sdl1 6 8 145 6 active sync /dev/sdj1 7 8 129 7 active sync /dev/sdi1 10 8 193 8 spare rebuilding /dev/sdm1 9 8 161 - spare /dev/sdk1 

Да, это нормально. Когда вы сначала создаете массив, блоки четности должны быть рассчитаны и записаны, что и есть то, что вы видите. Если вы знаете, что диски уже заполнены нулями, вы можете использовать переключатель --assume-clean чтобы направить mdadm чтобы пропустить первоначальную --assume-clean . Если диски на самом деле не заполнены нулями, то при проверке четности в массиве в будущем будет сообщаться множество ошибок, так как вы никогда не вычисляли правильную четность.

Кроме того, FYI, не рекомендуется создавать такой большой массив с использованием raid5, так как вероятность того, что второй диск окажется неудачным, прежде чем он сможет перестроить, становится очень высоким. Вместо этого вы можете использовать raid6.