raid 0 восстановление после случайного dd на диск

У меня есть 3 жестких диска: /dev/sda и /dev/sdb (2x1TB) как в режиме RAID 0 -> /dev/md127 , так и 4TB /dev/sdc , -> /dev/sdc .

Случайно я запускал dd скрипт из https://github.com/tdg5/blog/blob/master/_includes/scripts/dd_obs_test.sh в /dev/md127 (скрипт написал 134218752 байт (128 МБ) для рейда), где мой Linux ОПЕРАЦИОННЫЕ СИСТЕМЫ.

Есть ли возможность восстановить все, система еще не перезапущена и отображать ошибки, не может использовать 99% команд, вот журнал с консоли:

 [root@ns2 tmp]# df -h Filesystem Size Used Avail Use% Mounted on devtmpfs 7.8G 4.0K 7.8G 1% /dev tmpfs 7.8G 12K 7.8G 1% /dev/shm tmpfs 7.8G 624K 7.8G 1% /run tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup /dev/md127 64Z 64Z 677G 100% / tmpfs 7.8G 0 7.8G 0% /tmp tmpfs 1.6G 0 1.6G 0% /run/user/509 tmpfs 1.6G 0 1.6G 0% /run/user/0 [root@ns2 tmp]# df -a Filesystem 1K-blocks Used Available Use% Mounted on sysfs 0 0 0 - /sys proc 0 0 0 - /proc devtmpfs 8162264 4 8162260 1% /dev securityfs 0 0 0 - /sys/kernel/security tmpfs 8169748 12 8169736 1% /dev/shm devpts 0 0 0 - /dev/pts tmpfs 8169748 596 8169152 1% /run tmpfs 8169748 0 8169748 0% /sys/fs/cgroup cgroup 0 0 0 - /sys/fs/cgroup/systemd pstore 0 0 0 - /sys/fs/pstore cgroup 0 0 0 - /sys/fs/cgroup/cpuset cgroup 0 0 0 - /sys/fs/cgroup/cpu,cpuacct cgroup 0 0 0 - /sys/fs/cgroup/pids cgroup 0 0 0 - /sys/fs/cgroup/net_cls,net_prio cgroup 0 0 0 - /sys/fs/cgroup/blkio cgroup 0 0 0 - /sys/fs/cgroup/memory cgroup 0 0 0 - /sys/fs/cgroup/perf_event cgroup 0 0 0 - /sys/fs/cgroup/devices cgroup 0 0 0 - /sys/fs/cgroup/freezer cgroup 0 0 0 - /sys/fs/cgroup/hugetlb configfs 0 0 0 - /sys/kernel/config /dev/md127 73786976294807425856 73786976294098109944 709299528 100% / hugetlbfs 0 0 0 - /dev/hugepages tmpfs 8169748 0 8169748 0% /tmp systemd-1 - - - - /proc/sys/fs/binfmt_misc debugfs 0 0 0 - /sys/kernel/debug mqueue 0 0 0 - /dev/mqueue tmpfs 1633952 0 1633952 0% /run/user/509 tmpfs 1633952 0 1633952 0% /run/user/0 binfmt_misc 0 0 0 - /proc/sys/fs/binfmt_misc [root@ns2 tmp]# hdparm --help -bash: /usr/sbin/hdparm: Structure needs cleaning [root@ns2 tmp]# w -bash: /usr/bin/w: Structure needs cleaning [root@ns2 tmp]# ps -bash: /usr/bin/ps: Structure needs cleaning [root@ns2 tmp]# top -bash: top: command not found [root@ns2 tmp]# dnf --help Fatal Python error: Py_Initialize: Unable to get the locale encoding ImportError: No module named 'encodings' Aborted [root@ns2 tmp]# yum --help -bash: /usr/bin/yum: Input/output error [root@ns2 tmp]# kill --help -bash: kill: -help: invalid signal specification [root@ns2 tmp]# who -bash: who: command not found [root@ns2 tmp]# w -bash: /usr/bin/w: Structure needs cleaning [root@ns2 tmp]# xfs_copy -bash: xfs_copy: command not found [root@ns2 tmp]# ls -la /dev/sdc1 brw-rw---- 1 root disk 8, 33 Jun 4 17:53 /dev/sdc1 [root@ns2 tmp]# 

EDIT: SO я загрузил из live CD, DD'ed мой RAID 0 -> / dev / md127 в / dev / sdc1 как raid.img и запускал xfs_repair -n сейчас. Я довольно новичок в этом, есть ли какая-нибудь другая команда, чтобы исправить ее с минимальным уроном, насколько это возможно?

В raid0 нет избыточности, поэтому все, что вы перезаписали, пропало.