Raid 5 어레이의 공간이 디스크의 합과 같지 않은 이유는 무엇입니까?

Raid 5 어레이의 공간이 디스크의 합과 같지 않은 이유는 무엇입니까?

4개의 디스크에서 RAID 5를 만들려고 합니다.

Disk /dev/sdc: 8001.6 GB, 8001563222016 bytes
/dev/sdc1            2048  4294967294  2147482623+  fd  Linux raid autodetect
Disk /dev/sdb: 8001.6 GB, 8001563222016 bytes
/dev/sdb1            2048  4294967294  2147482623+  fd  Linux raid autodetect
Disk /dev/sdd: 24003.1 GB, 24003062267904 bytes
/dev/sdd1            2048  4294967294  2147482623+  fd  Linux raid autodetect
Disk /dev/sde: 8001.6 GB, 8001563222016 bytes
/dev/sde1            2048  4294967294  2147482623+  fd  Linux raid autodetect

그러나 생성 후에는 6T의 공간만 확보했습니다(내 디스크 중 하나).

/dev/md0         ext4   6.0T  184M  5.7T   1% /mnt/raid5

내 생성 과정에 대한 추가 정보는 다음과 같습니다.

결과 mdadm -E /dev/sd[b-e]1:

/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d
           Name : node7:0  (local to host node7)
  Creation Time : Fri Sep  7 09:16:42 2018
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
     Array Size : 6442053120 (6143.62 GiB 6596.66 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 2fcb3346:9ed69eab:64c6f851:0bcc39c4

    Update Time : Fri Sep  7 13:17:38 2018
       Checksum : c701ff7e - correct
         Events : 18

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d
           Name : node7:0  (local to host node7)
  Creation Time : Fri Sep  7 09:16:42 2018
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
     Array Size : 6442053120 (6143.62 GiB 6596.66 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 6f13c9f0:de2d4c6f:cbac6b87:67bc483e

    Update Time : Fri Sep  7 13:17:38 2018
       Checksum : e4c675c2 - correct
         Events : 18

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d
           Name : node7:0  (local to host node7)
  Creation Time : Fri Sep  7 09:16:42 2018
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
     Array Size : 6442053120 (6143.62 GiB 6596.66 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 4dab38e6:94c5052b:06d6b6b0:34a41472

    Update Time : Fri Sep  7 13:17:38 2018
       Checksum : f306b65f - correct
         Events : 18

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing)
/dev/sde1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d
           Name : node7:0  (local to host node7)
  Creation Time : Fri Sep  7 09:16:42 2018
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
     Array Size : 6442053120 (6143.62 GiB 6596.66 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : b04d152e:0448fe56:3b22a2d6:b2504d26

    Update Time : Fri Sep  7 13:17:38 2018
       Checksum : 40ffd3e7 - correct
         Events : 18

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing)

결과 mdadm --detail /dev/md0:

/dev/md0:
        Version : 1.2
  Creation Time : Fri Sep  7 09:16:42 2018
     Raid Level : raid5
     Array Size : 6442053120 (6143.62 GiB 6596.66 GB)
  Used Dev Size : 2147351040 (2047.87 GiB 2198.89 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Fri Sep  7 13:17:38 2018
          State : clean 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : node7:0  (local to host node7)
           UUID : 8953b4f1:61212c46:b0a63144:25eb4a7d
         Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       4       8       65        3      active sync   /dev/sde1

결과mkfs.ext4 /dev/md0

mke2fs 1.41.9 (22-Aug-2009)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
402628608 inodes, 1610513280 blocks
80525664 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
49149 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
    4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
    102400000, 214990848, 512000000, 550731776, 644972544

Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: 
done

This filesystem will be automatically checked every 37 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

그리고 .mkdir /mnt/raid5mount /dev/md0 /mnt/raid5/

답변1

RAID 5는 중복 프로토콜입니다. 이는 데이터 손실을 방지하는 중복 데이터 프로토콜을 갖춘 디스크 어레이입니다. 예를 들어 디스크 중 하나가 손상되더라도 데이터가 손실되지 않습니다.

하지만 추가 디스크에 데이터를 복제하는 비용이 발생하기 때문에 모든 디스크의 저장 용량을 합산할 수는 없습니다.

중복 없이 디스크 용량을 함께 추가하려면 RAID 5가 아닌 RAID 0을 선택하세요.

geekstuff.com에서:

레이드 0 습격 5

답변2

6TB는 (4 - 1) * 2TB입니다. 여기서 4는 보유하고 있는 장치 수에서 패리티에 대해 1을 뺀 것이며, 2TB는 보유하고 있는 것으로 보이는 파티션의 크기입니다.

첫 번째 출력이 fdisk유틸리티에서 나온 것이라고 가정하면 이러한 필드는 다음과 같을 수 있습니다.

partition name       start        end       length  type
/dev/sdc1            2048  4294967294  2147482623+  fd  Linux raid autodetect

파티션은 512바이트 섹터에서 처음부터 끝까지 2TB입니다. ( +끝의 길이 필드가 실제 길이가 더 크다는 것을 암시하는 것 같아서 해당 필드를 무시했습니다.) 제 fdisk유틸리티에도 파티션 크기가 인간 단위로 표시되지만 최대 길이의 제한은 2TB입니다.이전 스타일 MBR 파티션 테이블제공될 수 있으므로 GPT 대신 사용하고 있지 않은지 확인하시기 바랍니다.

일부 이전 버전은 fdiskGPT 파티션 테이블을 인식하지 못할 수 있으므로 다른 도구를 사용해야 할 수도 있습니다(또는 최신 버전을 구해야 할 수도 있습니다). 실제로 파티션을 사용할 필요도 없고 파티션만 사용하면 됩니다 mdadm. /dev/sd[bcde]하지만 RAID-5 레이아웃으로 인해가장 작은드라이브(또는 파티션)가 어레이의 크기를 설정하므로 더 큰 단일 디스크가 부분적으로 낭비됩니다.

관련 정보