Реализация RAID-6 с четырьмя дисками и GPT

Моя нынешняя идея заключается в создании 1x программного RAID-6 с 4-х членами дисков с использованием mdadm .

В частности, они будут 1TB HDD на SATA на небольшом сервере.

Система: Linux Debian Jessie 8.6.

Это составляет 2 ТБ пространства с 2 ТБ для контроля четности.

Но я хотел бы выделить 1 ТБ пространства и еще 1 ТБ на каком-то уровне.

Я не думаю, что было бы разумнее создать 2 отдельных массива RAID-1 с двумя дисками, или не так ли?

Я бы предпочел создать две отдельные файловые системы ext4 на этом RAID-6 массиве.

Q # 1) Хорошо ли это или плохо? Любые проблемы, которые я должен учитывать?

Я также хотел бы иметь его с таблицей разделов GPT, так как это работает, я не уверен, как действовать, предположительно, предпочел бы делать это через терминал.

Q # 2) Не могли бы вы посоветовать мне, как я должен действовать в несколько шагов.

Спасибо за ваше время.

EDIT1: этот массив будет использоваться только для единственных данных. На нем нет загрузки или ОС.

EDIT2: RAID5 не может быть и речи; RAID1 будет тратить пространство; RAID10 отлично, но мне нужно выбрать RAID6 из-за цели этого массива, два диска не смогут выдержать массив. Поскольку я ограничена HW до 4 дисков, альтернативы RAID6, о которой я знаю, нет. Однако может показаться уродливым замедление RAID6, в этом массиве это не имеет значения.

2 Solutions collect form web for “Реализация RAID-6 с четырьмя дисками и GPT”

В этом ответе дайте понять, что все ваши данные будут уничтожены на всех элементах массива (диски), поэтому сначала создайте резервную копию!


Откройте терминал и станьте root ( su ); если у вас включен sudo , вы также можете сделать, например, sudo -i ; см. man sudo для всех опций):

 su 

Во-первых, мы должны стереть диски, если раньше были какие-то данные и файловые системы. Предположим, у нас есть 4 участника: sda , sdb , sdc , sdd :

 pv < /dev/zero > /dev/sda pv < /dev/zero > /dev/sdb pv < /dev/zero > /dev/sdc pv < /dev/zero > /dev/sdd 

Чтобы дважды проверить, нет ли позади, вы можете заглянуть в GParted на всех дисках, а если есть какая-либо файловая система, отличная от unknown , протрите ее:

 wipefs --all /dev/sda wipefs --all /dev/sdb wipefs --all /dev/sdc wipefs --all /dev/sdd 

Затем мы инициализируем все диски с таблицей разделов GUID (GPT):

 gdisk /dev/sda gdisk /dev/sdb gdisk /dev/sdc gdisk /dev/sdd 

Во всех случаях используйте следующее:

o Введите для новой пустой таблицы разделов GUID (GPT)
y Введите, чтобы подтвердить свое решение.
w Введите, чтобы записать изменения
y Введите, чтобы подтвердить свое решение.

Теперь нам нужно разбить все диски, но не делайте этого с GParted, потому что он создаст файловую систему в этом процессе, который нам не нужен, снова используйте gdisk :

 gdisk /dev/sda gdisk /dev/sdb gdisk /dev/sdc gdisk /dev/sdd 

Во всех случаях используйте следующее:
n Введите новый раздел
Введите для первого раздела
Введите для дефолта первый сектор
Введите для дефолта последний сектор
fd00 Введите для Linux тип RAID
w Введите, чтобы записать изменения
y Введите, чтобы подтвердить свое решение.

Чтобы проверить, не осталось ли чего-то, вы можете заглянуть в GParted на все вновь созданные разделы, и если они содержат какую-либо файловую систему, отличную от unknown , протрите ее:

 wipefs --all /dev/sda1 wipefs --all /dev/sdb1 wipefs --all /dev/sdc1 wipefs --all /dev/sdd1 

Теперь вы можете проверить диски:

 mdadm --examine /dev/sda /dev/sdb /dev/sdc /dev/sdd 

Он должен сказать:

 (type ee) 

Если это так, мы рассмотрим разделы:

 mdadm --examine /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 

Он должен сказать:

 No md superblock detected 

Если это так, мы можем создать массив RAID6:

 mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 

Мы подождем, пока массив будет полностью создан, этот процесс мы можем наблюдать с помощью:

 watch -n 1 cat /proc/mdstat 

После создания массива мы должны посмотреть на его детали:

 mdadm --detail /dev/md0 

Он должен сказать:

  State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 

Теперь мы создаем файловую систему на массиве, если вы используете ext4 , этого лучше избегать, поскольку ext4lazyinit займет заметное количество времени, отсюда и название «lazyinit», поэтому я рекомендую вам избежать этого:

 mkfs.ext4 /dev/md0 

Вместо этого вы должны принудительно выполнить полную мгновенную инициализацию с помощью:

 mkfs.ext4 -E lazy_itable_init=0,lazy_journal_init=0 /dev/md0 

Указав эти параметры, inodes и журнал будут инициализированы сразу во время создания, полезными для больших массивов.

Если вы решили сделать ярлык и создали файловую систему ext4 с помощью «лучшей избегаемой команды», обратите внимание, что ext4lazyinit займет заметное количество времени, чтобы инициализировать все иноды, вы можете наблюдать за ним до тех пор, пока это не будет выполнено, например:

 iotop 

В любом случае вы выбираете инициализацию файловой системы, вы должны установить ее после завершения ее инициализации:


Теперь мы создаем каталог для этого массива RAID6:

 mkdir -p /mnt/raid6 

И просто установите его:

 mount /dev/md0 /mnt/raid6 

Поскольку мы по существу сделаны, мы можем снова использовать GParted, чтобы быстро проверить, показывает ли он файловую систему linux-raid вместе с флагом raid на всех дисках.

Если это так, мы правильно создали массив RAID6 с GPT-разделами и теперь можем копировать на него файлы.

Посмотрите, что UUID имеет файловая система md :

 blkid /dev/md0 

Скопируйте UUID в буфер обмена.

Теперь нам нужно отредактировать fstab с вашим любимым текстовым редактором:

 nano /etc/fstab 

И добавьте в него запись:

 UUID=<the UUID you have in the clipboard> /mnt/raid6 ext4 defaults 0 0 

Вы можете проверить, правильно ли это, после сохранения изменений:

 mount -av | grep raid6 

Он должен сказать:

 already mounted 

Если это так, мы сохраняем конфигурацию массива; в случае, если вы еще не создали какое-либо устройство md , вы можете сделать это просто:

 mdadm --detail --scan >> /etc/mdadm/mdadm.conf 

Если существуют уже существующие массивы, просто запустите предыдущую команду без перенаправления в файл conf:

 mdadm --detail --scan 

и добавьте новый массив в файл conf вручную.

В конце концов, не забудьте обновить свои initramfs:

 update-initramfs -u 

Проверьте, все ли вы сделали в соответствии с планом, и если это так, вы можете перезапустить:

 reboot --reboot 

Если вы создаете массивы RAID по 4 необработанным блочным устройствам вместо 2 x 4 разделов, это означает, что все операции восстановления RAID могут обязательно работать на всех устройствах и наоборот.

Например, если вы ожидаете, что диски в конечном итоге начнут разрабатывать ошибки ввода-вывода во второй половине из них, массивы над разделами будут означать, что только один из массивов заметит, в то время как другой будет оставаться нетронутым, по крайней мере до тех пор, пока повреждение распространяется на его половину. Это может обеспечить вам некоторую временную гибкость или отсутствие замедления ввода-вывода.

С другой стороны, как только вы начинаете вмешиваться, вы должны вынуть весь физический диск для замены, поэтому в какой-то момент вам обязательно придется деградировать оба массива. Кроме того, с SSD, очевидно, становится все более распространенным, что весь диск выходит из строя, поэтому оба массива могут быть затронуты такими событиями в любом случае.

Нечего сказать о деталях процесса, которые не могут быть найдены в типичной документации разбиения и mdadm.

  • mdadm raid0 с дисками разного размера?
  • Как настроить RAID0 с помощью двух дополнительных дисков?
  • RAIDing с LVM против MDRAID - плюсы и минусы?
  • grub-install: дескриптор файла 3 просочился на вызов vgs
  • Перенос всей группы томов LVM2 на RAID5
  • деградированная загрузка программного обеспечения
  • Сделать программный рейд ядра использовать выделенное ядро ​​процессора
  • Grub2 RAID / boot
  • Восстановление (еще не созданного) RAID5 с URE (неисправимые ошибки чтения)
  • mdadm RAID10 - изменение сломанного диска
  • понимание программного обеспечения Linux-суперблока RAID
  • Один объем LVM для нескольких массивов mdadm
  • Linux и Unix - лучшая ОС в мире.