Почему пространство массива Raid 5 не равно сумме дисков?

Я пытаюсь создать рейд 5 из четырех дисков:

Disk /dev/sdc: 8001.6 GB, 8001563222016 bytes /dev/sdc1 2048 4294967294 2147482623+ fd Linux raid autodetect Disk /dev/sdb: 8001.6 GB, 8001563222016 bytes /dev/sdb1 2048 4294967294 2147482623+ fd Linux raid autodetect Disk /dev/sdd: 24003.1 GB, 24003062267904 bytes /dev/sdd1 2048 4294967294 2147482623+ fd Linux raid autodetect Disk /dev/sde: 8001.6 GB, 8001563222016 bytes /dev/sde1 2048 4294967294 2147482623+ fd Linux raid autodetect 

Но я только что получил 6T места (один из моих дисков) после создания:

 /dev/md0 ext4 6.0T 184M 5.7T 1% /mnt/raid5 

Вот другая информация о моем процессе создания:

Результаты mdadm -E /dev/sd[be]1 :

 /dev/sdb1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d Name : node7:0 (local to host node7) Creation Time : Fri Sep 7 09:16:42 2018 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB) Array Size : 6442053120 (6143.62 GiB 6596.66 GB) Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : 2fcb3346:9ed69eab:64c6f851:0bcc39c4 Update Time : Fri Sep 7 13:17:38 2018 Checksum : c701ff7e - correct Events : 18 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing) /dev/sdc1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d Name : node7:0 (local to host node7) Creation Time : Fri Sep 7 09:16:42 2018 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB) Array Size : 6442053120 (6143.62 GiB 6596.66 GB) Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : 6f13c9f0:de2d4c6f:cbac6b87:67bc483e Update Time : Fri Sep 7 13:17:38 2018 Checksum : e4c675c2 - correct Events : 18 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 1 Array State : AAAA ('A' == active, '.' == missing) /dev/sdd1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d Name : node7:0 (local to host node7) Creation Time : Fri Sep 7 09:16:42 2018 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB) Array Size : 6442053120 (6143.62 GiB 6596.66 GB) Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : 4dab38e6:94c5052b:06d6b6b0:34a41472 Update Time : Fri Sep 7 13:17:38 2018 Checksum : f306b65f - correct Events : 18 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 2 Array State : AAAA ('A' == active, '.' == missing) /dev/sde1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d Name : node7:0 (local to host node7) Creation Time : Fri Sep 7 09:16:42 2018 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB) Array Size : 6442053120 (6143.62 GiB 6596.66 GB) Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : b04d152e:0448fe56:3b22a2d6:b2504d26 Update Time : Fri Sep 7 13:17:38 2018 Checksum : 40ffd3e7 - correct Events : 18 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 3 Array State : AAAA ('A' == active, '.' == missing) 

Результаты mdadm --detail /dev/md0 :

 /dev/md0: Version : 1.2 Creation Time : Fri Sep 7 09:16:42 2018 Raid Level : raid5 Array Size : 6442053120 (6143.62 GiB 6596.66 GB) Used Dev Size : 2147351040 (2047.87 GiB 2198.89 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Fri Sep 7 13:17:38 2018 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : node7:0 (local to host node7) UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d Events : 18 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 4 8 65 3 active sync /dev/sde1 

Результаты mkfs.ext4 /dev/md0

 mke2fs 1.41.9 (22-Aug-2009) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 402628608 inodes, 1610513280 blocks 80525664 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=4294967296 49149 block groups 32768 blocks per group, 32768 fragments per group 8192 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000, 214990848, 512000000, 550731776, 644972544 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 37 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. 

Затем mkdir /mnt/raid5 и mount /dev/md0 /mnt/raid5/ .

2 Solutions collect form web for “Почему пространство массива Raid 5 не равно сумме дисков?”

6 ТБ будет (4 – 1) * 2 ТБ, где 4 – это количество ваших устройств, минус один – для четности, а 2 ТБ – это размер разделов, которые у вас, похоже, есть.

Предполагая, что первый вывод от утилиты fdisk , поля, вероятно,

 partition name start end length type /dev/sdc1 2048 4294967294 2147482623+ fd Linux raid autodetect 

В блоках из 512-байтовых секторов раздел занимает 2 ТБ от начала до конца. ( + в конце поля длины, кажется, указывает на то, что фактическая длина больше, чем, поэтому я проигнорировал это поле.) Моя утилита fdisk показывает размер раздела в человеческих единицах, но 2 ТБ – ограничение того, что может предоставить таблицу разделов MBR старого стиля , поэтому убедитесь, что вы не использовали ее вместо GPT.

Некоторые старые версии fdisk могут не знать о таблицах разделов GPT, поэтому вам может потребоваться использовать другие инструменты (или получить более новую версию). На самом деле вам даже не нужно использовать разделы, вы можете просто запустить mdadm в /dev/sd[bcde] . Но обратите внимание, что из-за структуры RAID-5 самый маленький диск (или раздел) устанавливает размер массива, поэтому один больший диск частично теряется.

RAID 5 является протоколом резервирования. Это массив дисков с избыточными протоколами данных для предотвращения потери данных, например, если один из дисков погибнет, у вас не будет потери данных.

Однако он работает за счет репликации данных на дополнительные диски и, следовательно, не суммирует емкость хранилища в сумме всех из них.

Если вы действительно хотите суммировать емкость дисков вместе без какой-либо избыточности, то есть RAID 0, а не RAID 5.

От geekstuff.com:

raid0 raid5

  • Не удается запустить RAID 10
  • Могу ли я создать массив RAID-1 емкостью 2 ТБ из одного диска 2 ТБ и двух дисков 1 ТБ при сохранении 1 ТБ данных?
  • Отсутствие массива RAID-массива mdadm reassembles как raid0 после отключения питания
  • Горячая замена зеркального диска на HP UX
  • Сделать программный рейд ядра использовать выделенное ядро ​​процессора
  • mdadm raid1 и какие chunksize (или блокировать) на 4k дисках?
  • Как получить подробную информацию о RAID-устройствах, как мягких, так и жестких?
  • grub-install: дескриптор файла 3 просочился на вызов vgs
  • понимание программного обеспечения Linux-суперблока RAID
  • В Linux какая настройка позволит чередовать данные на нескольких дисках?
  • Достаточно ли надежно собирать md из двух машин одновременно
  • Linux и Unix - лучшая ОС в мире.