Существующий mdadm RAID5 не монтируется, либо проблемный диск, либо Superblock

У меня есть 4 x 3TB NAS setup как RAID5, который отлично работает почти год.

После недавнего внезапного отключения (пришлось нажать кнопку питания) RAID больше не будет монтироваться при загрузке.

Я запустил:

mdadm --examine /dev/sd[bcdefghijklmn]1 >> raid.status

Выходной сигнал ниже:

/ DEV / SDA:
Магия: a92b4efc
Версия: 1.2
Карта функций: 0x0
Массив UUID: 7d2a94ca: d9a42ca9: a4e6f976: 8b5ca26b
Имя: BruceLee: 0 (местный к хозяину BruceLee)
Время создания: Пн Фев 4 23:07:01 2013
Уровень рейда: рейд5
Raid Devices: 4

Свободный размер Dev: 5860271024 (2794,40 GiB 3000,46 ГБ)
Размер массива: 8790405888 (8383,18 GiB 9001,38 GB)
Используемый размер Dev: 5860270592 (2794.39 GiB 3000.46 GB)
Смещение данных: 262144 сектора
Супер смещение: 8 секторов
Состояние: активное
Устройство UUID: 2c1e0041: 21d926d6: 1c69aa87: f1340a12

Время обновления: сб 27 дек 20:54:55 2014
Контрольная сумма: d94ccaf5 – правильная
События: 17012

Макет: левосимметричный
Размер блока: 128K

Роль устройства: Активное устройство 0
Состояние массива: AAA. ('A' == active, '.' Отсутствует)
/ DEV / SDB:
Магия: a92b4efc
Версия: 1.2
Карта функций: 0x0
Массив UUID: 7d2a94ca: d9a42ca9: a4e6f976: 8b5ca26b
Имя: BruceLee: 0 (местный к хозяину BruceLee)
Время создания: Пн Фев 4 23:07:01 2013
Уровень рейда: рейд5
Raid Devices: 4

Свободный размер Dev: 5860271024 (2794,40 GiB 3000,46 ГБ)
Размер массива: 8790405888 (8383,18 GiB 9001,38 GB)
Используемый размер Dev: 5860270592 (2794.39 GiB 3000.46 GB)
Смещение данных: 262144 сектора
Супер смещение: 8 секторов
Состояние: активное
Устройство UUID: a0261c8f: 8a2fbb93: 4093753a: 74e7c5f5

Время обновления: сб 27 дек 20:54:55 2014
Контрольная сумма: 7b84067b – исправить
События: 17012

Макет: левосимметричный
Размер блока: 128K

Роль устройства: активное устройство 1
Состояние массива: AAA. ('A' == active, '.' Отсутствует)
/ DEV / SDC:
Магия: a92b4efc
Версия: 1.2
Карта функций: 0x0
Массив UUID: 7d2a94ca: d9a42ca9: a4e6f976: 8b5ca26b
Имя: BruceLee: 0 (местный к хозяину BruceLee)
Время создания: Пн Фев 4 23:07:01 2013
Уровень рейда: рейд5
Raid Devices: 4

Свободный размер Dev: 5860271024 (2794,40 GiB 3000,46 ГБ)
Размер массива: 8790405888 (8383,18 GiB 9001,38 GB)
Используемый размер Dev: 5860270592 (2794.39 GiB 3000.46 GB)
Смещение данных: 262144 сектора
Супер смещение: 8 секторов
Состояние: активное
Устройство UUID: 9dc56e9e: d6b00f7a: 71da67c7: 38b7436c

Время обновления: сб 27 дек 20:54:55 2014
Контрольная сумма: 749b3dba – правильная
События: 17012

Макет: левосимметричный
Размер блока: 128K

Роль устройства: Активное устройство 2
Состояние массива: AAA. ('A' == active, '.' Отсутствует)
/ DEV / SDD:
Магия: a92b4efc
Версия: 1.2
Карта функций: 0x0
Массив UUID: 7d2a94ca: d9a42ca9: a4e6f976: 8b5ca26b
Имя: BruceLee: 0 (местный к хозяину BruceLee)
Время создания: Пн Фев 4 23:07:01 2013
Уровень рейда: рейд5
Raid Devices: 4

Свободный размер Dev: 5860271024 (2794,40 GiB 3000,46 ГБ)
Размер массива: 8790405888 (8383,18 GiB 9001,38 GB)
Используемый размер Dev: 5860270592 (2794.39 GiB 3000.46 GB)
Смещение данных: 262144 сектора
Супер смещение: 8 секторов
Состояние: чистое
Устройство UUID: 81e5776f: 2a466bee: 399251a0: ab60e9a4

Время обновления: вс 2 ноября 09:07:02 2014
Контрольная сумма: cb4aebaf – correct
События: 159

Макет: левосимметричный
Размер блока: 128K

Роль устройства: активное устройство 3
Array State: AAAA ('A' == active, '.' == missing)

При проверке дисков в Диспетчере дисков Ubuntu sda / b / c отображаются как OK, а sdd показывает как OK с 64 плохими секторами

Если я запустил fsck /dev/md0

В нем говорится:

fsck.ext2: Недопустимый аргумент при попытке открыть / dev / md0

Суперблок не может быть прочитан или не описывает действительный ext2 / ext3 / ext4
файловая система. Если устройство действительно и оно действительно содержит ext2 / ext3 / ext4
файловую систему (а не swap или ufs или что-то еще), то суперблоки
поврежден, и вы можете попробовать запустить e2fsck с альтернативным суперблоком:
e2fsck -b 8193 <устройство>
или
e2fsck -b 32768 <устройство>

Наконец, если я забегу

mdadm --examine /dev/sd[ad] | egrep 'Event|/dev/sd'

Я получил:

/ DEV / SDA:
События: 17012
/ DEV / SDB:
События: 17012
/ DEV / SDC:
События: 17012
/ DEV / SDD:
События: 159

Если я запустил cat /proc/mdstat я получаю:

Личности: [linear] [многолучевое распространение] [raid0] [raid1] [raid6] [рейд5] [рейд4] [рейд10]
md0: неактивный sdb [1] (S) sdc [2] (S) sdd [3] (S) sda [0] (S)
1172054204Персональности: [linear] [многолучевое распространение] [рейд0] [рейд1] [рейд6] [рейд5] [рейд4] [рейд10]
md0: неактивный sdb [1] (S) sdc [2] (S) sdd [3] (S) sda [0] (S)
11720542048 блоков super 1.2

неиспользуемые устройства: <none>

8 блоков super 1.2

неиспользуемые устройства: <none>

И наконец, file -s /dev/md0

Я получил:

/ dev / md0: пусто

В принципе, мне кажется, мне нужно запустить – собрать на RAID, но я боюсь потерять свои данные, но также, что 4-й диск немного беспокоит меня.

Может ли кто-нибудь посоветовать лучшие логические шаги, чтобы снова и снова запускать это?

  • e2fsck: невозможно установить флаги суперблока в LogicalVolume
  • Восстановление от плохого суперблока на внешнем диске
  • Файловая система: как найти блок файла, представленный inode?
  • mdadm - Случайно вывел «mdadm --create» на существующий рейд-1. Суперблок теперь поврежден, и я не могу восстановить данные. Я развеял данные?
  • Связь между «Размер блока» и «Верхние пределы» в ext2
  • Как я могу сбросить содержимое суперблока файловой системы?
  • Создание дискового устройства в файле
  • Как определить тип файловой системы / раздела
  • One Solution collect form web for “Существующий mdadm RAID5 не монтируется, либо проблемный диск, либо Superblock”

    Я добился наибольшего успеха, выполнив следующую стратегию:

     # mdadm --stop /dev/md0 # mdadm --create /dev/md0 --metadata=1.2 --level=5 --raid-devices=4 --chunk=128 --layout=left-symmetric /dev/sda1 /dev/sdb1 /dev/sdc1 missing 

    Это создает устройство с теми же параметрами, которые были первоначально использованы. missing приводит к тому, что устройство будет создано в деградированном режиме, поэтому повторная синхронизация дисков не произойдет. Затем вы можете проверить, нет ли файловой системы (по модулю нечистого выключения); Если это так, вы можете продолжить, добавив /dev/sdd1 в массив:

     # mdadm --add /dev/md0 /dev/sdd1 

    mdadm теперь будет восстанавливать /dev/sdd1 из существующего массива /dev/sdd1 .

    Конечно, вы можете предпочесть сделать --stop за которым следует --assemble , но вышеописанная работала для меня в прошлом после того, как неправильный диск был заменен с горячей заменой после того, как другой диск потерпел неудачу.

    Обратите внимание, что вы / dev / sdd1, по-видимому, уже отключены в течение 4 недель. Я рекомендую использовать некоторый сценарий мониторинга, который уведомляет вас об ошибках md; в Debian, который автоматически предоставляется сценарием /etc/cron.daily/mdadm , что в основном делает:

     mdadm --monitor --scan --oneshot 

    Это также можно сделать с помощью mdadm запущенного как демон:

     mdadm --monitor --pid-file /run/mdadm/monitor.pid --daemonise --scan --syslog 

    Вы можете --mail mail@example.com адрес электронной почты для получения оповещений с помощью: --mail mail@example.com ; конечно, ваша система должна иметь возможность отправлять письма в этом случае …

    Linux и Unix - лучшая ОС в мире.