Сервер RAID-1 / LVM не загружается после отключения питания

Странный вопрос. После длительного перерыва в подаче электроэнергии (трансформатор взорвался!), Который пережил ИБП, произошел сбой на сервере Slackware 13. С декабря 2009 года эта машина спокойно обслуживает программное обеспечение учета и хранения файлов в многопользовательской среде без каких-либо проблем!

На этой машине установлены два жестких диска SATA емкостью 500 ГБ, которые устанавливаются с использованием LVM поверх программного RAID1 (все это делается с помощью установщика slackware). При подаче питания изображение initrd загружается правильно, но загрузка не выполняется, когда пришло время монтировать корневую файловую систему. «Не удалось установить / dev / Volume00 / RootVol on / mnt. Нет такого устройства или каталога».

RootVol – логический том в группе томов Volume00. В этой группе томов есть еще 3 файловые системы LV плюс своп. Я могу установить любой из них из приглашения boot # _, и они выглядят нормально. Однако RootVol, корневая файловая система, вообще не отображается … / dev / mapper / Volume00 перечисляет остальные 4, но отсутствует RootVol.

Итак, я загрузил компакт-диск linux rescue. Объединяется том RAID1 / dev / md0, и я вижу, и вижу, и монтирую / dev / Volume00 / RootVol.

Теперь / proc / mdstat показывает, что / dev / md0 работает с ошибкой, используя только device / dev / dm-1. Я не уверен, что это значит, что я с диска … Я привык видеть реальные жесткие диски в / proc / mdstat … / dev / sda1, / dev / sda2 и т. Д. На не LVM массивы. Как определить, какой диск завершился неудачей? Как устройства / dev / dm-x относятся к устройствам / dev / sdx? И как я могу заставить машину загрузиться с оставшегося диска, который (кажется,) работает нормально. Двумя жесткими дисками, используемыми в массиве, являются / dev / sda и / dev / sdb, целые диски.

Может ли кто-нибудь указать мне на учебник на устройствах / dev / dm-x? Я вижу, что они являются устройствами LVM из документации dmsetup, но не хотят начинать возиться с чем-либо без хорошего понимания того, что я делаю. Я думал, что RAID был построен на физических устройствах, а затем группы томов, построенные на устройствах raid … Я не могу понять, почему бы LVM-устройства отображались как элементы дискового массива, но я уверен, что есть чертовски веская причина … или фундаментальное недоразумение с моей стороны.

Вот некоторая информация:

Выход cat / dev / mdstat:

root@sysresccd /mnt/rootvol/etc % cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 dm-1[0] 488287488 blocks [2/1] [U_] unused devices: <none> 

Не то, что я ожидал. Мои два жестких диска: / dev / sda и / dev / sdb, никаких ошибок в / var / log / messages о них, хотя у меня нет возможности настраивать loglevels в версии Live CD, которую я запускаю. Почему / proc / mdstat не показывают реальные устройства? Что такое устройства / dev / dm- #?

Вывод mdadm -detail / dev / md0:

 root@sysresccd /mnt/rootvol/etc % dmadm -D /dev/md0 zsh: correct 'dmadm' to 'mdadm' [nyae]? y /dev/md0: Version : 0.90 Creation Time : Thu Dec 3 11:53:48 2009 Raid Level : raid1 Array Size : 488287488 (465.67 GiB 500.01 GB) Used Dev Size : 488287488 (465.67 GiB 500.01 GB) Raid Devices : 2 Total Devices : 1 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Sun Jul 10 12:00:57 2016 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 UUID : a89cbdf5:f83cf3f7:dcc86dce:213c81b2 Events : 0.38 Number Major Minor RaidDevice State 0 253 1 0 active sync /dev/dm-1 2 0 0 2 removed 

Я предполагаю, что либо a) у меня есть сбойный диск, либо b) массив / dev / md0 не синхронизирован, может быть, считается, что диск потерпел неудачу?

Во всяком случае, машина определенно не загрузится из этого состояния, и я не могу понять, какие из жестких дисков, если таковые имеются, являются проблемой, и как исправить этот беспорядок. Это производственный сервер с полными резервными копиями … Я мог бы его перестроить, но на самом деле скорее не так, как это довольно утомительный процесс … нет ничего плохого в данных и, я думаю, ни один из дисков.

Нет mdadm.conf.

fdisk -l показывает оба диска как Linux Raid Autodetect, все выглядит нормально.

Выход dmsetup (вставлен мной):

 root@sysresccd /mnt/rootvol/etc % dmsetup ls isw_bfdbfijegh_Volume01 (253:1) isw_bfdbfijegh_Volume0 (253:0) Volume00-MediaVol (253:9) Volume00-RootSnap-cow (253:4) <-- ??? --- "cow" --- ??? Volume00-XplrVol (253:7) Volume00-RootSnap (253:5) Volume00-SwapVol (253:8) Volume00-RootVol (253:3) Volume00-RootVol-real (253:2) <--- ??? --- "real" --- ??? Volume00-HomeVol (253:6) 

Я отправил информацию ниже в качестве ответа, но мне было предложено отредактировать этот оригинальный пост и добавить его сюда, вот он:

Вот таблица dmsetup:

 root@sysresccd /mnt/usbhdd1/server_backup/oldroot % dmsetup table isw_bfdbfijegh_Volume01: 0 976575222 linear 253:0 63 isw_bfdbfijegh_Volume0: 0 976767240 mirror core 2 131072 nosync 2 8:0 0 8:16 0 1 handle_errors Volume00-MediaVol: 0 209715200 linear 9:127 134218112 Volume00-RootSnap-cow: 0 2097152 linear 9:127 385876352 Volume00-XplrVol: 0 41943040 linear 9:127 83886464 Volume00-RootSnap: 0 20971520 snapshot 253:2 253:4 P 8 Volume00-SwapVol: 0 8388608 linear 9:127 125829504 Volume00-RootVol: 0 20971520 snapshot-origin 253:2 Volume00-RootVol-real: 0 20971520 linear 9:127 384 Volume00-HomeVol: 0 62914560 linear 9:127 20971904 Volume00-HomeVol: 62914560 41943040 linear 9:127 343933312 

И вот mdadm -E для каждого жесткого диска.

 root@sysresccd /mnt/usbhdd1/server_backup/oldroot % mdadm -E /dev/sda mdmon: /dev/sda is not attached to Intel(R) RAID controller. mdmon: /dev/sda is not attached to Intel(R) RAID controller. /dev/sda: Magic : Intel Raid ISM Cfg Sig. Version : 1.1.00 Orig Family : 5b4a335b Family : 5b4a335b Generation : 0000000a Attributes : All supported UUID : 15980595:45ac18ac:22467c90:56138fde Checksum : c51f833a correct MPB Sectors : 1 Disks : 2 RAID Devices : 1 Disk00 Serial : WD-WCASY8349657 State : active Id : 00000000 Usable Size : 976767240 (465.76 GiB 500.10 GB) [Volume0]: UUID : 4b19b799:c2a34a28:0bcca120:36d318a0 RAID Level : 1 Members : 2 Slots : [UU] Failed disk : none This Slot : 0 Array Size : 976766976 (465.76 GiB 500.10 GB) Per Dev Size : 976767240 (465.76 GiB 500.10 GB) Sector Offset : 0 Num Stripes : 3815496 Chunk Size : 64 KiB Reserved : 0 Migrate State : idle Map State : uninitialized Dirty State : clean Disk01 Serial : WD-WCASY8288673 State : active Id : 00010000 Usable Size : 976767240 (465.76 GiB 500.10 GB) root@sysresccd /mnt/usbhdd1/server_backup/oldroot % mdadm -E /dev/sdb mdmon: /dev/sdb is not attached to Intel(R) RAID controller. mdmon: /dev/sdb is not attached to Intel(R) RAID controller. /dev/sdb: Magic : Intel Raid ISM Cfg Sig. Version : 1.1.00 Orig Family : 5b4a335b Family : 5b4a335b Generation : 0000000a Attributes : All supported UUID : 15980595:45ac18ac:22467c90:56138fde Checksum : c51f833a correct MPB Sectors : 1 Disks : 2 RAID Devices : 1 Disk01 Serial : WD-WCASY8288673 State : active Id : 00010000 Usable Size : 976767240 (465.76 GiB 500.10 GB) [Volume0]: UUID : 4b19b799:c2a34a28:0bcca120:36d318a0 RAID Level : 1 Members : 2 Slots : [UU] Failed disk : none This Slot : 1 Array Size : 976766976 (465.76 GiB 500.10 GB) Per Dev Size : 976767240 (465.76 GiB 500.10 GB) Sector Offset : 0 Num Stripes : 3815496 Chunk Size : 64 KiB Reserved : 0 Migrate State : idle Map State : uninitialized Dirty State : clean Disk00 Serial : WD-WCASY8349657 State : active Id : 00000000 Usable Size : 976767240 (465.76 GiB 500.10 GB) 

Разве initrd уже не был бы в нем? Массив работает даже тогда, когда я не могу подключить корневой том … другие 3 тома, которые я смогу подключить, и они находятся в одном VG на одном массиве RAID1 … почему я могу установить / dev / Volume00 / RootVol при загрузке с аварийного компакт-диска по сравнению с загрузкой с диска?