BTRFS – удаление диска путем деления вместо пути

Недавно я потерял 5-Тбайтный диск, используя btrfs. У меня была заморозка системы (неуверенность в том, почему), в то время как баланс был запущен. Мой накопитель SMR поврежден. Я смог настроить мой массив и сбалансировать мои данные. Тем не менее, теперь у меня есть два дрейфа для одного и того же диска:

Total devices 4 FS bytes used 1.43TiB devid 1 size 2.73TiB used 1.43TiB path /dev/sdd devid 4 size 4.55TiB used 1.31TiB path /dev/sde devid 5 size 931.51GiB used 0.00B path /dev/sdc devid 6 size 4.55TiB used 121.00GiB path /dev/sde 

Итак, два / dev / sde. Вы можете увидеть дренирование данных из devid 4 (который больше не существует) в devid 6. Проблема devid 4 не существует, это поврежденный диск. И devid 6 – новый.

Когда процесс закончен, как я могу удалить devid 4? Единственный способ, который я знаю, это

 btrfs device delete /dev/sde 

Но это устранит оба «устройства».

У кого-нибудь есть идеи? Честно говоря, я немного удивлен, что смог восстановить все свои данные, поэтому btrfs становится зрелым, вроде. Пожелайте документации.

  • Восстановить образ диска от установки без рейда до RAID1
  • Могу ли я спасти любые данные, если один из двух дисков в LVM не удалось?
  • Каковы потенциальные последствия перехода орехов с разреженными файловыми vdev для миграции LVM на ZFS?
  • Возможно ли создать RAID-массив mdadm с параметрами макета и ближайшего макета?
  • Должен ли я использовать `mdadm -create` для восстановления моего RAID?
  • Почему LVM и RAID не требуют кластерной файловой системы
  • Восстановление RAID: что не так?
  • Не удается загрузить в LUbuntu после настройки RAID
  • Пытался разрастить мой массив raid6 с новым диском, получил «Не удалось восстановить критический раздел»
  • Clone установлена ​​с использованием аппаратной синхронизации RAID 0 + 1
  • Не удалось заменить диск на RAID5
  • Linux и Unix - лучшая ОС в мире.