Intereting Posts
Fedora-25 HOST + CentOS-6 GUESTS Linux / LXC: Гости не могут подключаться друг к другу или к маршрутизатору по умолчанию SELinux Enforcing предотвращает вход в другую учетную запись пользователя? Как создать локальные репозитории в RHEL Команды настройки монитора не работают в скрипте Как заставить звук работать в chroot (Linux на Android) Как анализировать файл данных для извлечения определенных данных и формата для другого использования? Как изменить последовательность загрузки Android в порядке загрузки с SD-карты Убив процесс с помощью cron, как только он начнется лучший способ получить memfree из / proc и преобразовать в десятичный Извлеките (не размонтируйте) USB-устройства через терминал (SSH) и повторно установите USB-устройство после извлечения Ограничить GRUB на основной дисплей Текстовый редактор для печати кода на C ++ Повторное использование сеансов D-Bus во время сеансов входа в систему Freenas iscsi для VMware – Установите новый диск в Ubuntu Как удалить корзину из загрузочного раздела

тонко подготовленный корневой раздел в Centos 7

Похоже, что мой (без ведома) тонкий корневой раздел был слишком тонким. Система была абсолютно невосприимчивой, бесконечные сообщения на консоли:

kernel: Buffer I/O error on device dm-3, logical block 2449799 kernel: lost page write due to I/O error on dm-3 

Сначала я подозревал неисправные диски, но RAID-контроллер казался им доволен. После жесткого сброса выкопайте этот камень в / var / log / messages:

 Jan 22 02:31:31 server kernel: device-mapper: thin: 253:2: reached low water mark for data device: sending event. Jan 22 02:31:31 server kernel: device-mapper: thin: 253:2: switching pool to out-of-data-space mode Jan 22 02:32:31 server kernel: device-mapper: thin: 253:2: switching pool to read-only mode 

Похоже, что / root тонко подготовлен и имеет пробел (пинает себя за то, что он принял идею о создании разделов мастера установки Centos). Я не слишком хорошо разбираюсь в тонкой настройке, так что меня озадачивает:

 # lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert pool00 centos twi-aotz-- 41.66g 100.00 46.82 root centos Vwi-aotz-- 50.00g pool00 83.33 swap centos -wi-ao---- 16.00g 

Правильно ли я понимаю, что есть пул00 в 50GB vg «centos», который включает в себя логические тома «swap» и «root»? Если да, почему пул 50 ГБ исчерпал место, если root использует только 14 ГБ данных в соответствии с df, а своп – 16 ГБ?

edit: В попытке облегчить ограничения пространства я полностью разделил раздел и создал его в другом месте. А сейчас:

  #lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert pool00 centos twi-aotzM- 41.66g 100.00 46.82 root centos Vwi-aotz-- 50.00g pool00 83.33 #df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 50G 10G 41G 20% / devtmpfs 7.8G 0 7.8G 0% /dev tmpfs 7.8G 0 7.8G 0% /dev/shm tmpfs 7.8G 17M 7.8G 1% /run tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup /dev/sda2 497M 154M 343M 31% /boot 

Так или иначе, я все еще добираюсь до отметки о низком уровне воды в пуле 41G с одним разделом, на котором есть 10 ГБ данных.

Если кто-то другой наткнется на ту же проблему, я отвечу на себя:

 fstrim -v -a 

или

 fstrim -v / 

это то, что помогает. Файловая система не возвращает неиспользуемые блоки в пул, поэтому их можно повторно использовать (в этом случае одна и та же файловая система).