MDADM – как собрать RAID-5 (устройство отчетности или занятый ресурс)

Я довольно новичок в сценарии Linux и не имею достаточного опыта, чтобы фактически считать себя кем-то, кому можно доверять с помощью системы: P

Короче говоря, я решил использовать Linux RAID 5, поскольку считаю его более стабильным, чем его запуск в Windows.
Недавно RAID не удалось смонтировать, и я уверен, что он столкнулся с проблемой при попытке перестроить.

Попытка собрать массив теперь, mdadm продолжает сообщать устройство или ресурс занят – и тем не менее он не установлен или занят ничем, насколько мне известно. Google сообщил, что dmraid является потенциальным виновником, но попытка удалить его показывает, что она не установлена.

Система – это 12-ти диск RAID-5, но, похоже, 2 диска не имеют правильных данных суперблока.

Я включил вывод большинства общих команд ниже


 cat /proc/mdstat erwin@erwin-ubuntu:~$ cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : inactive sdd1[10](S) sde1[2](S) sdf1[11](S) sdg1[6](S) sdm1[4](S) sdl1[9](S) sdk1[5](S) sdj1[7](S) sdi1[13](S) sdc1[8](S) sdb1[0](S) sda1[3](S) 11721120064 blocks unused devices: <none> 

подробно mdadm


 erwin@erwin-ubuntu:~$ sudo mdadm --detail /dev/md0 mdadm: md device /dev/md0 does not appear to be active. erwin@erwin-ubuntu:~$ 

mdadm изучить

Странная часть отмечена – я не знаю, почему, но системный диск обычно был sda – теперь вдруг это sdh – и нет, я не двигал никакой физической проводкой?


 erwin@erwin-ubuntu:~$ sudo mdadm --examine /dev/sd*1 /dev/sda1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1bcd - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 3 8 97 3 active sync /dev/sdg1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sdb1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1bd7 - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 0 8 113 0 active sync /dev/sdh1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sdc1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1bf7 - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 8 8 129 8 active sync /dev/sdi1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sdd1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1c0b - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 10 8 145 10 active sync /dev/sdj1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sde1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 08:05:07 2011 State : clean Active Devices : 11 Working Devices : 12 Failed Devices : 1 Spare Devices : 1 Checksum : 3597cbb - correct Events : 74284 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 2 8 161 2 active sync /dev/sdk1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 8 161 2 active sync /dev/sdk1 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 17 12 spare /dev/sdb1 /dev/sdf1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1c2d - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 11 8 177 11 active sync /dev/sdl1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sdg1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1c33 - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 6 8 193 6 active sync /dev/sdm1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 mdadm: No md superblock detected on /dev/sdh1. /dev/sdi1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1b8b - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 13 8 17 13 spare /dev/sdb1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sdj1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1b95 - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 7 8 33 7 active sync /dev/sdc1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sdk1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1ba1 - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 5 8 49 5 active sync /dev/sdd1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sdl1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1bb9 - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 9 8 65 9 active sync /dev/sde1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 /dev/sdm1: Magic : a92b4efc Version : 0.90.00 UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu) Creation Time : Sun Oct 10 11:54:54 2010 Raid Level : raid5 Used Dev Size : 976759936 (931.51 GiB 1000.20 GB) Array Size : 10744359296 (10246.62 GiB 11002.22 GB) Raid Devices : 12 Total Devices : 12 Preferred Minor : 0 Update Time : Mon Dec 5 19:24:00 2011 State : clean Active Devices : 10 Working Devices : 11 Failed Devices : 2 Spare Devices : 1 Checksum : 35a1bbf - correct Events : 74295 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 4 8 81 4 active sync /dev/sdf1 0 0 8 113 0 active sync /dev/sdh1 1 1 0 0 1 faulty removed 2 2 0 0 2 faulty removed 3 3 8 97 3 active sync /dev/sdg1 4 4 8 81 4 active sync /dev/sdf1 5 5 8 49 5 active sync /dev/sdd1 6 6 8 193 6 active sync /dev/sdm1 7 7 8 33 7 active sync /dev/sdc1 8 8 8 129 8 active sync /dev/sdi1 9 9 8 65 9 active sync /dev/sde1 10 10 8 145 10 active sync /dev/sdj1 11 11 8 177 11 active sync /dev/sdl1 12 12 8 161 12 faulty /dev/sdk1 

mdadm –assemble –scan –verbose – acapture усечен для сохранения символов – как отмечено в edit – ресурс занят был решён путем остановки массива в первую очередь – да так просто, как это


 erwin@erwin-ubuntu:~$ sudo mdadm --assemble --scan --verbose mdadm: looking for devices for /dev/md0 mdadm: cannot open device /dev/sdm1: Device or resource busy mdadm: /dev/sdm1 has wrong uuid. 

Я чувствую, что мне нужно, вероятно, обнулить суперблок на двух поврежденных дисках (поскольку один диск показан как запасной, а другой номер диска – просто не соответствует?) – тогда его нужно собрать повторно, но Я не уверен, что делать с ресурсом.

Я не хочу принимать ненужные, возможные разрушающие данные шаги – так что любые советы будут очень благодарны.

1

derobert предложил остановить массив, а затем собрать его: D Yay занят ресурсом, но все же кажется, что два диска не работают. Я предполагаю, что ручная сборка / воссоздание в порядке?

Любые идеи приветствуются для следующего шага?

Последние результаты сборки mdadm, перечисленные ниже:

 erwin@erwin-ubuntu:~$ sudo mdadm --assemble --scan --verbose mdadm: looking for devices for /dev/md0 mdadm: no RAID superblock on /dev/sdm mdadm: /dev/sdm has wrong uuid. mdadm: no RAID superblock on /dev/sdl mdadm: /dev/sdl has wrong uuid. mdadm: no RAID superblock on /dev/sdk mdadm: /dev/sdk has wrong uuid. mdadm: no RAID superblock on /dev/sdj mdadm: /dev/sdj has wrong uuid. mdadm: no RAID superblock on /dev/sdi mdadm: /dev/sdi has wrong uuid. mdadm: cannot open device /dev/sdh6: Device or resource busy mdadm: /dev/sdh6 has wrong uuid. mdadm: no RAID superblock on /dev/sdh5 mdadm: /dev/sdh5 has wrong uuid. mdadm: no RAID superblock on /dev/sdh4 mdadm: /dev/sdh4 has wrong uuid. mdadm: no RAID superblock on /dev/sdh3 mdadm: /dev/sdh3 has wrong uuid. mdadm: no RAID superblock on /dev/sdh2 mdadm: /dev/sdh2 has wrong uuid. mdadm: no RAID superblock on /dev/sdh1 mdadm: /dev/sdh1 has wrong uuid. mdadm: cannot open device /dev/sdh: Device or resource busy mdadm: /dev/sdh has wrong uuid. mdadm: no RAID superblock on /dev/sdg mdadm: /dev/sdg has wrong uuid. mdadm: no RAID superblock on /dev/sdf mdadm: /dev/sdf has wrong uuid. mdadm: no RAID superblock on /dev/sde mdadm: /dev/sde has wrong uuid. mdadm: no RAID superblock on /dev/sdd mdadm: /dev/sdd has wrong uuid. mdadm: no RAID superblock on /dev/sdc mdadm: /dev/sdc has wrong uuid. mdadm: no RAID superblock on /dev/sdb mdadm: /dev/sdb has wrong uuid. mdadm: no RAID superblock on /dev/sda mdadm: /dev/sda has wrong uuid. mdadm: /dev/sdm1 is identified as a member of /dev/md0, slot 4. mdadm: /dev/sdl1 is identified as a member of /dev/md0, slot 9. mdadm: /dev/sdk1 is identified as a member of /dev/md0, slot 5. mdadm: /dev/sdj1 is identified as a member of /dev/md0, slot 7. mdadm: /dev/sdi1 is identified as a member of /dev/md0, slot 13. mdadm: /dev/sdg1 is identified as a member of /dev/md0, slot 6. mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 11. mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2. mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 10. mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 8. mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 0. mdadm: /dev/sda1 is identified as a member of /dev/md0, slot 3. mdadm: no uptodate device for slot 1 of /dev/md0 mdadm: added /dev/sde1 to /dev/md0 as 2 mdadm: added /dev/sda1 to /dev/md0 as 3 mdadm: added /dev/sdm1 to /dev/md0 as 4 mdadm: added /dev/sdk1 to /dev/md0 as 5 mdadm: added /dev/sdg1 to /dev/md0 as 6 mdadm: added /dev/sdj1 to /dev/md0 as 7 mdadm: added /dev/sdc1 to /dev/md0 as 8 mdadm: added /dev/sdl1 to /dev/md0 as 9 mdadm: added /dev/sdd1 to /dev/md0 as 10 mdadm: added /dev/sdf1 to /dev/md0 as 11 mdadm: added /dev/sdi1 to /dev/md0 as 13 mdadm: added /dev/sdb1 to /dev/md0 as 0 mdadm: /dev/md0 assembled from 10 drives and 1 spare - not enough to start the array. 

2 Solutions collect form web for “MDADM – как собрать RAID-5 (устройство отчетности или занятый ресурс)”

Во-первых, повторная наклейка дисков происходит иногда, в зависимости от того, как настроен ваш компьютер. Ожидается, что буквы букв не будут стабильными при перезагрузках, так как, ummm, некоторое время. Таким образом, это не вызывает большого беспокойства, что ваш диск двинулся на вас.

Предполагая, что dmraid и device-mapper не используют ваши устройства:

Ну, mdadm --stop /dev/md0 может позаботиться о ваших загруженных сообщениях, я думаю, именно поэтому его жалуются. Затем вы можете снова попробовать свою линию сборки. Если он не работает, –stop снова следует за сборкой с --run (без запуска, –assemble –scan не запускает деградированный массив). Затем вы можете удалить и повторно добавить неисправный диск, чтобы попытаться восстановить его.

/ dev / sde устарел (посмотрите на счетчик событий). Остальные выглядят нормально на первый взгляд, поэтому я думаю, что у вас действительно есть хорошие шансы на отсутствие трудностей.

Вы еще не должны обнулять суперблоки. Слишком высокий риск потери данных. Если -run не работает, я думаю, вам захочется найти кого-то локально (или кто может ssh in), кто знает, что он делает, чтобы попытаться исправить.

В ответ на обновление 1

То, что «недостаточно для запуска массива», никогда не является хорошим сообщением, чтобы получить от mdadm. Это означает, что mdadm обнаружил 10 дисков из вашего массива RAID5 на 12 дисков, и, как я надеюсь, вы знаете, что RAID5 может выдержать только один сбой, а не два.

Ну, давайте попробуем собрать все, что произошло. Во-первых, после перезагрузки произошла смена буквы диска, которая раздражает нас, пытаясь понять это, но mdraid не заботится об этом. Прочитав ваш вывод mdadm, вот что произошло, если это произошло (отсортировано по RAID-диску #):

 00 sdh1 -> sdb1 02 sdk1 -> sde1 [OUTDATED] 03 sdg1 -> sda1 04 sdf1 -> sdm1 05 sdd1 -> sdk1 06 sdm1 -> sdg1 07 sdc1 -> sdj1 08 sdi1 -> sdc1 09 sde1 -> sdl1 10 sdj1 -> sdd1 11 sdl1 -> sdf1 13 sdb1 -> sdi1 [SPARE] 

# 02 имеет более низкий счетчик событий, чем другие. Это означает, что он оставил массив в какой-то момент.

Было бы неплохо, если бы вы знали некоторые истории этого массива, например, «правильно ли 12-привод RAID5, 1« горячий запас »?

Я не совсем уверен, что последовательность неудач, которые приводят к этому, все же. Похоже, что в какой-то момент устройство №1 потерпело неудачу, и началась перестройка на устройстве №12.

Но я не могу точно определить, что произошло дальше. Возможно, у вас есть журналы или администратор. Вот что я не могу объяснить:

Каким-то образом, №12 стал # 13. Так или иначе, №2 стал # 12.

Итак, эта перестройка на # 12 должна завершиться, а затем # 12 будет # 1. Может быть, это не так, может быть, по какой-то причине это не удалось перестроить. Тогда, может быть, № 2 потерпела неудачу, или, может быть, № 2 не удалось, почему восстановление не закончилось, и кто-то попытался удалить и повторно добавить # 2? Это может сделать это №12. Затем, возможно, удалено и добавлено запасное, что делает его № 13.

Хорошо, но, конечно, на данный момент у вас был сбой на двух дисках. ОК. В этом есть смысл.

Если это то, что произошло, вы потерпели неудачу с двумя дисками. Это означает, что вы потеряли данные. То, что вы делаете дальше, зависит от того, насколько важны эти данные (учитывая также, насколько хороши ваши резервные копии).

Если данные очень ценны (и у вас нет хороших резервных копий), обратитесь к специалистам по восстановлению данных. В противном случае:

Если данные достаточно ценны, вы должны использовать dd для изображения всех задействованных дисков (вы можете использовать более крупные диски и файлы для каждого, чтобы сэкономить деньги. Например, 2 или 3 ТБ внешние). Затем сделайте копию изображений. Затем поработайте над восстановлением этой копии (для этого вы можете использовать устройства loop).

Получите больше запасных частей. Вероятно, у вас есть один мертвый диск. У вас есть хотя бы несколько сомнительных дисков – smartctl может рассказать вам больше.

Затем --assemble к вашей линии --assemble . Это заставит mdadm использовать устаревший диск в любом случае. Это означает, что некоторые сектора теперь будут иметь устаревшие данные, а некоторые – нет. Добавьте в один из этих новых дисков в качестве запасного, позвольте завершить восстановление. Надеюсь, вы не нажмете на какие-либо плохие блоки (что приведет к сбою перестройки, и я считаю, что единственный ответ – сделать их на диске). Далее, fsck -f на диске. Вероятно, будут ошибки. Как только они будут исправлены, установите диск и посмотрите, в какой форме находятся ваши данные.

рекомендации

В будущем не создавайте 12-дисковые RAID5. Вероятность срыва двух дисков слишком высока. Вместо этого используйте RAID6 или RAID10. Кроме того, убедитесь, что вы регулярно очищаете свои массивы для плохих блоков ( echo check > /sys/block/md0/md0/sync_action ).

Вы можете попробовать выполнить загрузку команд mdadm со следующим параметром ядра: init = / bin / bash

  • mdadm; ранее работала; после «сбоя», не может присоединиться к массиву из-за размера диска
  • Установите mdadm без postfix в ubuntu trusty
  • обнаружение и исправление бит-бит с помощью mdadm
  • Устройство Raid5 имеет меньше пространства, чем ожидалось
  • CentOS 7 создал mdadm-массив после перезагрузки
  • Grub-install: внедрение в Bios / GPT невозможно
  • Является ли mdadm окончательным статусом?
  • Пытался разрастить мой массив raid6 с новым диском, получил «Не удалось восстановить критический раздел»
  • Восстановление раздела из массива Linux RAID 1
  • Как правильно воссоздать RAID1
  • Поддерживает ли GRUB2 / загружается LVM на MD-рейде?
  • Interesting Posts

    Как я могу регистрировать, как часто файл изменяется в OS X?

    Рекурсивно в нижнем регистре, замените место и удалите недопустимые символы в linux FS

    Портирование ядра 4.6 на плату ARMv6 (Samsung S3C6410), которая работает 2.6.38

    Используйте специальную пару ключей SSH при подключении через ssh и временно игнорируйте все остальные клавиши?

    Почему yum-builddep не устанавливает все зависимости?

    Пользовательское название в файлах PDF при использовании ps2pdf

    Не удается выполнить файл с установленным битом разрешения на выполнение

    как отредактировать «установить параметры» в установке fedora?

    Гость виртуальной коробки в другой подсети, чем хост

    В чем разница между файлом пакета .deb и файлом пакета ddeb в Ubuntu 14.04

    Как объединить два раздела в один?

    Отобразить все даты на номерах недель в UNIX

    Как создать гостевой KVM с графикой SPICE, но TLS отключен с помощью virt-install?

    Переменная окружения XAUTHORITY устанавливается повторно при каждом входе в систему

    Примерное значение для nautilus (файловый менеджер) подключается к настраиваемому местоположению службы

    Linux и Unix - лучшая ОС в мире.