Рейд 5 не начинается

У меня был рейд 5 с 3 дисками на моем старом компьютере, но материнская плата умерла. Я поместил все диски в новый компьютер, но рейд больше не хочет запускать. При загрузке компьютера я вижу все диски, а mdadm -E / dev / sd [bcd] 1 сообщает мне, что все три диска чисты. Cat / proc / mdstat говорит / dev / md0: inactive sdc13 sdd11 sdb10 Я запускаю fedora 15 в этом поле. Любые советы для начала этого рейда очень ценятся!

–Edited– Тем временем я переустановил ОС (на новом отдельном диске, os никогда не был частью рейда) и использовал CentOS 7.

Выходы:

mdadm -E /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 1.1 Feature Map : 0x1 Array UUID : aa1739a9:abf29975:85909ad4:7ce90400 Name : HappyFiles:0 Creation Time : Mon Jun 6 19:07:27 2011 Raid Level : raid5 Raid Devices : 3 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 3907023872 (3726.03 GiB 4000.79 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 0 sectors State : clean Device UUID : 822d3a00:cf68046c:45de1427:d65beb68 Internal Bitmap : 8 sectors from superblock Update Time : Mon Nov 10 22:19:29 2014 Checksum : 195e3a86 - correct Events : 1527192 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 1 Array State : .AA ('A' == active, '.' == missing) mdadm -E /dev/sdb1 /dev/sdb1: Magic : a92b4efc Version : 1.1 Feature Map : 0x1 Array UUID : aa1739a9:abf29975:85909ad4:7ce90400 Name : HappyFiles:0 Creation Time : Mon Jun 6 19:07:27 2011 Raid Level : raid5 Raid Devices : 3 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 3907023872 (3726.03 GiB 4000.79 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 0 sectors State : clean Device UUID : 7546d111:71f87ce2:8b5e9cfb:05ed0bc4 Internal Bitmap : 8 sectors from superblock Update Time : Tue Nov 11 19:01:52 2014 Checksum : d11417ca - correct Events : 1527199 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 2 Array State : ..A ('A' == active, '.' == missing) cat /proc/mdstat Personalities : md127 : inactive sdb1[3](S) sda1[1](S) 3907024896 blocks super 1.1 unused devices: <none> mdadm --assemble --scan mdadm: No arrays found in config file or automatically 

Очевидно, в этот момент он потерял один из своих дисков (не в списке / dev), вероятно, кабель потерял после перемещения компьютера. Я обращаюсь к нему через SSH из офиса прямо сейчас (где я трачу waaaaay слишком много времени). Обычно mdadm -E / dev / sdX1 третьего диска дает аналогичный вывод, как и два других диска.

—-РЕДАКТИРОВАТЬ—-

Порт третьего диска оказался сломанным, после подключения его к другой карте, я добираюсь до mdadm -E этого тоже!

  Magic : a92b4efc Version : 1.1 Feature Map : 0x1 Array UUID : aa1739a9:abf29975:85909ad4:7ce90400 Name : HappyFiles:0 Creation Time : Mon Jun 6 19:07:27 2011 Raid Level : raid5 Raid Devices : 3 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 3907023872 (3726.03 GiB 4000.79 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 0 sectors State : clean Device UUID : 3c5c8512:49ba8111:bd936c82:00cb6b67 Internal Bitmap : 8 sectors from superblock Update Time : Fri May 4 09:51:16 2012 Checksum : 262a346f - correct Events : 82967 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 0 Array State : AAA ('A' == active, '.' == missing) 

cat / proc / mdstat теперь говорит

  # cat /proc/mdstat Personalities : md127 : inactive sdc1[3](S) sdb1[1](S) sda1[0](S) 5860537344 blocks super 1.1 unused devices: <none> 

Итак, как мне теперь получить этот рейд в сети, по крайней мере, достаточно долго, чтобы скопировать как можно больше данных?

2 Solutions collect form web for “Рейд 5 не начинается”

Я предполагаю, что вы сделали новую установку и добавили диски на новый компьютер.

Сначала выполните:

  mdadm --assemble --scan 

и посмотрите в /proc/mdstat если массив активирован. Затем выполните:

 mdadm --examine --scan >> /etc/mdadm/mdadm.conf 

чтобы снова получить конфигурационную информацию в новом mdadm.conf.

Это чисто, это хорошо.

Это неактивно, это неплохо.

Посмотрите, например, здесь

  • "Событие DegradedArray"
  • Как настроить систему RAID с помощью USB-накопителей в качестве носителя
  • Что означает «запасное» число mdadm?
  • деградированная загрузка программного обеспечения
  • Как заставить логический том LVM2 RAID5 охватывать дополнительный физический том?
  • Расписание soft raid1 resync
  • Отсутствуют метаданные LVM, пытаясь воссоздать рейд 1 с LVM
  • mdadm; ранее работала; после «сбоя», не может присоединиться к массиву из-за размера диска
  • Как восстановить разбитый RAID-массив Linux md RAID5?
  • Могу ли я переместить существующую установку Debian на RAID5?
  • Программный рейд + отдельные разделы?
  • Linux и Unix - лучшая ОС в мире.