부팅 실패 - RAID 1(CentOS 7)을 통해 LVM("root", "/") 확장

부팅 실패 - RAID 1(CentOS 7)을 통해 LVM("root", "/") 확장

질문:

다른 RAID 1을 사용하여 RAID 1에서 볼륨 그룹(VG)을 확장한 후 CentOS 7이 부팅되지 않습니다. 우리가 사용하는 프로세스는절차: RAID 1("루트", "/")을 통해 LVM 확장. 우리 프레젠테이션에는 어떤 오류나 누락이 있나요?


문맥:

두 개의 추가 RAID 1(소프트웨어) 디스크를 사용하여 볼륨 그룹(VG)을 두 개의 RAID 1(소프트웨어) 디스크로 확장하려고 합니다.


질문:

VG(볼륨 그룹) 확장 후 CentOS 7이 부팅되지 않습니다.


절차: RAID 1("루트", "/")을 통해 LVM 확장

  • 하드 드라이브 포맷

추가된 두 개의 하드 디스크에 새 MBR 파티션 테이블을 생성하려면 다음 두 명령을 실행하십시오.

parted /dev/sdc mklabel msdos
parted /dev/sdd mklabel msdos

"fstab"을 다시 로드하세요...

mount -a

fdisk 명령을 사용하여 각 드라이브에 새 파티션을 생성하고 이를 Linux RAID 자동 감지 파일 시스템으로 포맷합니다. 먼저 /dev/sdc에서 이 작업을 수행하세요.

fdisk /dev/sdc

다음 지침을 따르십시오...

  • 새 파티션을 만들려면 "n"을 입력하세요.
  • 기본 파티션을 선택하려면 "p"를 입력합니다.
  • /dev/sdb1을 생성하려면 "1"을 입력합니다.
  • Enter를 눌러 기본 첫 번째 섹터를 선택하십시오.
  • Enter를 눌러 기본 마지막 섹터를 선택하십시오. 파티션은 전체 드라이브에 걸쳐 있습니다.
  • "t"를 입력하고 "fd"를 입력하여 파티션 유형을 Linux raid 자동 감지로 설정합니다.
  • 위의 변경 사항을 적용하려면 "w"를 입력하세요.

노트:동일한 지침에 따라 "/dev/sdd"에 Linux RAID 자동 감지 파티션을 만듭니다.

이제 두 개의 RAID 장치 "/dev/sdc1"과 "/dev/sdd1"이 있습니다.

  • RAID 1 논리 드라이브 생성

다음 명령을 실행하여 RAID 1을 생성합니다...

[root@localhost ~]# mdadm --create /dev/md125 --homehost=localhost --name=pv01 --level=mirror --bitmap=internal --consistency-policy=bitmap --raid-devices=2 /dev/sdc1 /dev/sdd1
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md125 started.

논리 볼륨 추가

[root@localhost ~]# pvcreate /dev/md125
  Physical volume "/dev/md125" successfully created.

이전에 "pvcreate" 명령을 사용하여 생성한 "/dev/md125"("RAID 1") 물리 볼륨을 추가하여 "centosvg" 볼륨 그룹을 확장합니다.

[root@localhost ~]# vgextend centosvg /dev/md125
  Volume group "centosvg" successfully extended

"lvextend" 명령을 사용하여 논리 볼륨 늘리기 - 원래 논리 볼륨을 가져와 새 디스크/파티션/물리("RAID 1") 볼륨 "/dev/md125"로 확장합니다...

[root@localhost ~]# lvextend /dev/centosvg/root /dev/md125
  Size of logical volume centosvg/root changed from 4.95 GiB (1268 extents) to <12.95 GiB (3314 extents).
  Logical volume centosvg/root successfully resized.

이 공간을 활용하려면 "xfs_growfs" 명령을 사용하여 파일 시스템 크기를 조정하세요.

[root@localhost ~]# xfs_growfs /dev/centosvg/root
meta-data=/dev/mapper/centosvg-root isize=512    agcount=4, agsize=324608 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0 spinodes=0
data     =                       bsize=4096   blocks=1298432, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 1298432 to 3393536
  • RAID1 구성 저장

이 명령은 시스템의 현재 상태와 일치하도록 부팅 커널 구성을 업데이트합니다.

mdadm --detail --scan > /tmp/mdadm.conf
\cp -v /tmp/mdadm.conf /etc/mdadm.conf

새 장치를 이해할 수 있도록 GRUB 구성을 업데이트하세요.

grub2-mkconfig -o "$(readlink -e /etc/grub2.cfg)"

위 명령을 실행한 후 다음 명령을 실행하여 새로운 "initramfs" 이미지를 생성해야 합니다.

dracut -fv

실수:

부팅 실패!


인프라/추가 정보:

LSBLK

[root@localhost ~]# lsblk
NAME                MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda                   8:0    0    8G  0 disk  
├─sda1                8:1    0    1G  0 part  
│ └─md127             9:127  0 1023M  0 raid1 /boot
└─sda2                8:2    0    7G  0 part  
  └─md126             9:126  0    7G  0 raid1 
    ├─centosvg-root 253:0    0    5G  0 lvm   /
    └─centosvg-swap 253:1    0    2G  0 lvm   [SWAP]
sdb                   8:16   0    8G  0 disk  
├─sdb1                8:17   0    1G  0 part  
│ └─md127             9:127  0 1023M  0 raid1 /boot
└─sdb2                8:18   0    7G  0 part  
  └─md126             9:126  0    7G  0 raid1 
    ├─centosvg-root 253:0    0    5G  0 lvm   /
    └─centosvg-swap 253:1    0    2G  0 lvm   [SWAP]
sdc                   8:32   0    8G  0 disk  
sdd                   8:48   0    8G  0 disk  
sr0                  11:0    1 1024M  0 rom

mdadm --/dev/sdc /dev/sdd 확인

[root@localhost ~]# mdadm --examine /dev/sdc /dev/sdd
/dev/sdc:
   MBR Magic : aa55
Partition[0] :     16775168 sectors at         2048 (type fd)
/dev/sdd:
   MBR Magic : aa55
Partition[0] :     16775168 sectors at         2048 (type fd)

mdadm --check /dev/sdc1 /dev/sdd1

[root@localhost ~]# mdadm --examine /dev/sdc1 /dev/sdd1
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 51a622a9:666c7936:1bf1db43:8029ab06
           Name : localhost:pv01
  Creation Time : Tue Jan  7 13:42:20 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 16764928 sectors (7.99 GiB 8.58 GB)
     Array Size : 8382464 KiB (7.99 GiB 8.58 GB)
    Data Offset : 10240 sectors
   Super Offset : 8 sectors
   Unused Space : before=10160 sectors, after=0 sectors
          State : clean
    Device UUID : f95b50e3:eed41b52:947ddbb4:b42a40d6

Internal Bitmap : 8 sectors from superblock
    Update Time : Tue Jan  7 13:43:15 2020
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 9d4c040c - correct
         Events : 25


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 51a622a9:666c7936:1bf1db43:8029ab06
           Name : localhost:pv01
  Creation Time : Tue Jan  7 13:42:20 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 16764928 sectors (7.99 GiB 8.58 GB)
     Array Size : 8382464 KiB (7.99 GiB 8.58 GB)
    Data Offset : 10240 sectors
   Super Offset : 8 sectors
   Unused Space : before=10160 sectors, after=0 sectors
          State : clean
    Device UUID : bcb18234:aab93a6c:80384b09:c547fdb9

Internal Bitmap : 8 sectors from superblock
    Update Time : Tue Jan  7 13:43:15 2020
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 40ca1688 - correct
         Events : 25


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

고양이 /proc/mdstat

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] 
md125 : active raid1 sdd1[1] sdc1[0]
      8382464 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid1 sda2[0] sdb2[1]
      7332864 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

mdadm --details/dev/md125

[root@localhost ~]# mdadm --detail /dev/md125
/dev/md125:
           Version : 1.2
     Creation Time : Tue Jan  7 13:42:20 2020
        Raid Level : raid1
        Array Size : 8382464 (7.99 GiB 8.58 GB)
     Used Dev Size : 8382464 (7.99 GiB 8.58 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Tue Jan  7 13:43:15 2020
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : localhost:pv01
              UUID : 51a622a9:666c7936:1bf1db43:8029ab06
            Events : 25

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       49        1      active sync   /dev/sdd1

fdisk -l

[root@localhost ~]# fdisk -l

Disk /dev/sda: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x000f2ab2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     2101247     1049600   fd  Linux raid autodetect
/dev/sda2         2101248    16777215     7337984   fd  Linux raid autodetect

Disk /dev/sdb: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0002519d

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *        2048     2101247     1049600   fd  Linux raid autodetect
/dev/sdb2         2101248    16777215     7337984   fd  Linux raid autodetect

Disk /dev/sdc: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0007bd31

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    16777215     8387584   fd  Linux raid autodetect

Disk /dev/sdd: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x00086fef

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1            2048    16777215     8387584   fd  Linux raid autodetect

Disk /dev/md127: 1072 MB, 1072693248 bytes, 2095104 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md126: 7508 MB, 7508852736 bytes, 14665728 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/centosvg-root: 5318 MB, 5318377472 bytes, 10387456 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/centosvg-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md125: 8583 MB, 8583643136 bytes, 16764928 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

df-h

[root@localhost ~]# df -h
Filesystem                 Size  Used Avail Use% Mounted on
devtmpfs                   484M     0  484M   0% /dev
tmpfs                      496M     0  496M   0% /dev/shm
tmpfs                      496M  6.8M  489M   2% /run
tmpfs                      496M     0  496M   0% /sys/fs/cgroup
/dev/mapper/centosvg-root  5.0G  1.4G  3.7G  27% /
/dev/md127                1020M  164M  857M  17% /boot
tmpfs                      100M     0  100M   0% /run/user/0

그래픽 디스플레이

[root@localhost ~]# vgdisplay
  --- Volume group ---
  VG Name               centosvg
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               6.99 GiB
  PE Size               4.00 MiB
  Total PE              1790
  Alloc PE / Size       1780 / 6.95 GiB
  Free  PE / Size       10 / 40.00 MiB
  VG UUID               6mKxWb-KOIe-fW1h-zukQ-f7aJ-vxD5-hKAaZG

광전지 스캐닝

[root@localhost ~]# pvscan
  PV /dev/md126   VG centosvg        lvm2 [6.99 GiB / 40.00 MiB free]
  PV /dev/md125   VG centosvg        lvm2 [7.99 GiB / 7.99 GiB free]
  Total: 2 [14.98 GiB] / in use: 2 [14.98 GiB] / in no VG: 0 [0   ]

LV 디스플레이

[root@localhost ~]# lvdisplay
  --- Logical volume ---
  LV Path                /dev/centosvg/swap
  LV Name                swap
  VG Name                centosvg
  LV UUID                o5G6gj-1duf-xIRL-JHoO-ux2f-6oQ8-LIhdtA
  LV Write Access        read/write
  LV Creation host, time localhost, 2020-01-06 13:22:08 -0500
  LV Status              available
  # open                 2
  LV Size                2.00 GiB
  Current LE             512
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:1

  --- Logical volume ---
  LV Path                /dev/centosvg/root
  LV Name                root
  VG Name                centosvg
  LV UUID                GTbGaF-Wh4J-1zL3-H7r8-p5YZ-kn9F-ayrX8U
  LV Write Access        read/write
  LV Creation host, time localhost, 2020-01-06 13:22:09 -0500
  LV Status              available
  # open                 1
  LV Size                4.95 GiB
  Current LE             1268
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:0

고양이/실행/initramfs/rdsosreport.txt

고양이/실행/initramfs/rdsosreport.txt

감사합니다!=디

[참조: https://4fasters.com.br/2017/11/12/lpic-2-o-que-ee-para-que-serve-o-dracut/, https://unix.stackexchange.com/a/152249/61742, https://www.howtoforge.com/set-up-raid1-on-a-running-lvm-system-debian-etch-p2, https://www.howtoforge.com/setting-up-lvm-on-top-of-software-raid1-rhel-fedora, https://www.linuxbabe.com/linux-server/linux-software-raid-1-setup, https://www.rootusers.com/how-to-increase-the-size-of-a-linux-lvm-by-adding-a-new-disk/ ]

답변1

이 문제의 원인은 다음과 같습니다.

dracut 문서에는 모든 md raid 어레이가 자동 조립되어야 하며 "rd.md.uuid" 매개변수는 부팅 중에 특정 어레이만 조립하려는 경우에만 사용해야 함을 암시합니다.

실제로 배열은 자동으로 조립되지 않는 것처럼 보입니다. 사실 "rd.md.uuid" 매개변수가 설정될 때만 조립됩니다(어셈블해야 하는 각 배열에 대해). 어쩌면 "rd.lvm.lv" 매개변수가 이미 설정되어 있어서 어떤 식으로든 "md"를 방해하기 때문일 수도 있지만 테스트할 시간이 없습니다.

즉, "/etc/default/grub"의 "GRUB_CMDLINE_LINUX" 변수에 rd.md.uuid 매개변수의 두 배열을 추가한 다음 grub 구성을 다시 생성하면 문제가 해결되었습니다.

즉, 작업을 시작하려면 새 어레이(새 "RAID 1")가 "루트"("/")의 일부가 되므로 "GRUB_CMDLINE_LINUX" 매개변수에 입력해야 합니다.

자세한 내용은 섹션을 참조하세요."RAID 1" 구성을 저장하고 CentOS 부팅을 조정합니다.아래 전체 과정이 있습니다.

[참조: https://4fasters.com.br/2017/11/12/lpic-2-o-que-ee-para-que-serve-o-dracut/, https://forums.centos.org/viewtopic.php?f=47&t=49541#p256406, https://forums.centos.org/viewtopic.php?f=47&t=51937&start=10#p220414, https://forums.centos.org/viewtopic.php?t=72667, https://unix.stackexchange.com/a/152249/61742, https://unix.stackexchange.com/a/267773/61742, https://www.howtoforge.com/set-up-raid1-on-a-running-lvm-system-debian-etch-p2, https://www.howtoforge.com/setting-up-lvm-on-top-of-software-raid1-rhel-fedora, https://www.linuxbabe.com/linux-server/linux-software-raid-1-setup, https://www.rootusers.com/how-to-increase-the-size-of-a-linux-lvm-by-adding-a-new-disk/ ]


RAID 1("루트", "/")을 통해 LVM 확장

  • 하드 드라이브 포맷

두 개의 새 디스크를 물리적으로 추가한 후 다음 명령을 실행하여 모든 디스크/장치(RAID 하위 시스템 포함)를 나열합니다.

lsblk

노트:이 예에서 장치는 "sdc" 및 "sdd"라고 하며 기본적으로 각각 "/dev/sdc" 및 "/dev/sdd" 경로에 위치합니다.

추가된 두 개의 하드 디스크에 새 MBR 파티션 테이블을 생성하려면 다음 두 명령을 실행하십시오.

parted /dev/sdc mklabel msdos
parted /dev/sdd mklabel msdos

중요한:두 디스크에 있는 모든 데이터는 삭제됩니다.

"fstab"을 다시 로드하세요...

mount -a

"fdisk" 명령을 사용하여 각 드라이브에 새 파티션을 생성하고 이를 "Linux raid 자동 감지" 파일 시스템으로 포맷합니다. 먼저 "/dev/sdc"에서 이 작업을 수행하십시오...

fdisk /dev/sdc

다음 지침을 따르십시오...

  • 새 파티션을 만들려면 "n"을 입력하세요.
  • 기본 파티션을 선택하려면 "p"를 입력합니다.
  • /dev/sdb1을 생성하려면 "1"을 입력합니다.
  • Enter를 눌러 기본 첫 번째 섹터를 선택하십시오.
  • Enter를 눌러 기본 마지막 섹터를 선택하십시오. 파티션은 전체 드라이브에 걸쳐 있습니다.
  • 파티션 유형을 변경해야 하므로 "t"를 입력합니다.
  • 파티션 유형을 "Linux raid 자동 감지"로 설정하려면 "fd"를 입력하십시오.
  • 위의 변경 사항을 적용하려면 "w"를 입력하세요.

노트:동일한 지침에 따라 "/dev/sdd"에 Linux RAID 자동 감지 파티션을 만듭니다.

  • RAID 1 논리 드라이브 생성

다음 명령을 실행하여 "RAID 1"을 생성합니다...

중요한:

  • "배열" 이름의 경우 "/dev/md/pv01"을 할당합니다. 이 경우 이러한 장치에 대해 인식되는 가장 높은 순서는 "pv00"이기 때문입니다( "mdadm --detail --scan" 명령의 출력 참고). ). 배열 이름 "/dev/md/pv01"은 "/dev/md12X" 장치에 대한 기호 경로이기도 합니다. 경로는 "mdadm"(아래 명령)에 의해 자동으로 생성됩니다. "/dev/md12X" 경로는 새 장치를 나타내며, 이는 "/dev/sdc1" 및 "/dev/sdd1"("RAID 1") 장치를 나타냅니다. 나중에 ls /dev/md*명령이나 명령을 사용하여 readlink -f /dev/md/pv01장치 이름이 실제로 무엇인지("/dev/md125", "/dev/md126", "/dev/md127" 등...) 확인할 수 있습니다.
  • "배열" 이름 "/dev/md/pv01"은 현재 CentOS에서 사용하는 이름 지정 "패턴"을 따릅니다. 사용하는 것이 좋습니다.
[root@localhost ~]# mdadm --create /dev/md/pv01 --name=pv01 --level=mirror --bitmap=internal --consistency-policy=bitmap --raid-devices=2 /dev/sdc1 /dev/sdd1
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/pv01 started.

LVM을 확장하기 위해 PV(물리적 볼륨)를 생성합니다...

[root@localhost ~]# pvcreate /dev/md/pv01
  Physical volume "/dev/md/pv01" successfully created.

위의 "pvcreate" 명령을 사용하여 생성한 "/dev/md/pv01"("RAID 1")의 PV(물리적 볼륨)를 추가하여 "centosvg" 볼륨 그룹을 확장합니다.

힌트:대상 VG(볼륨 그룹)의 이름을 찾으려면 "vgdisplay" 명령을 사용하여 "VG 이름" 속성 값(이 경우 "centosvg")을 확인합니다.

[root@localhost ~]# vgextend centosvg /dev/md/pv01
  Volume group "centosvg" successfully extended

"lvextend" 명령을 사용하여 "/dev/md/pv01"에 새 PV(물리적 볼륨) LV(논리적 볼륨)를 추가합니다...

힌트:대상 논리 볼륨(LV) 경로를 찾으려면 "lvdisplay" 명령을 사용하여 "LV Path" 속성 값(이 경우 "/dev/centosvg/root")을 확인하십시오.

[root@localhost ~]# lvextend /dev/centosvg/root /dev/md/pv01
  Size of logical volume centosvg/root changed from 4.95 GiB (1268 extents) to <12.95 GiB (3314 extents).
  Logical volume centosvg/root successfully resized.

"/dev/centosvg/root" LV(논리 볼륨) 내의 파일 시스템 크기를 조정하려면 "xfs_growfs" 명령을 사용하여 새 공간을 활용하세요...

힌트:위에서 사용한 LV(논리 볼륨)와 동일한 경로를 사용합니다(이 경우 "/dev/centosvg/root").

[root@localhost ~]# xfs_growfs /dev/centosvg/root
meta-data=/dev/mapper/centosvg-root isize=512    agcount=4, agsize=324608 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0 spinodes=0
data     =                       bsize=4096   blocks=1298432, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 1298432 to 3393536
  • "RAID 1" 구성을 저장하고 CentOS 부팅을 조정합니다.

시스템의 현재 상태와 일치하도록 부팅 커널 구성을 업데이트합니다.

명령 실행...

[root@localhost ~]# mdadm --detail --scan
ARRAY /dev/md/boot metadata=1.2 name=localhost:boot UUID=50ed66ef:6fb373da:5690ac4b:4fb82a45
ARRAY /dev/md/pv00 metadata=1.2 name=localhost:pv00 UUID=283a4a43:43c85816:55c6adf0:ddcbfb2b
ARRAY /dev/md/pv01 metadata=1.2 name=localhost.localdomain:pv01 UUID=e5feec81:20d5e154:9a1e2dce:75a03c71

...그리고 배열/장치 "/dev/md/pv01"(우리의 경우)이 포함된 줄을 살펴보세요.

"/etc/mdadm.conf" 파일을 엽니다...

vi /etc/mdadm.conf

...그리고 마지막에 이렇게 한 줄을 추가합니다...

모델

ARRAY [NEW_ARRAY_NAME] level=raid1 num-devices=2 UUID=[NEW_ARRAY_UUID]

ARRAY /dev/md/pv01 level=raid1 num-devices=2 UUID=e5feec81:20d5e154:9a1e2dce:75a03c71

"/etc/default/grub" 파일을 엽니다...

vi /etc/default/grub

...그리고 "GRUB_CMDLINE_LINUX" 매개변수를 찾으세요.

아래와 같이 "GRUB_CMDLINE_LINUX" 매개변수 값에서 "루트" 파티션을 나타내는 다른 매개변수 "rd.lvm.lv"를 찾습니다.

모델

rd.lvm.lv=[VG_NAME]/[LV_NAME]

rd.lvm.lv=centosvg/root

...이 "rd.lvm.lv"에 "rd.md.uuid"를 추가합니다. 이 경우에는 위에서 사용한 것과 동일한 "[NEW_ARRAY_UUID]"를 다음과 같이 추가합니다...

모델

GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=[LV_NAME] rd.md.uuid=283a4a43:43c85816:55c6adf0:ddcbfb2b rd.md.uuid=50ed66ef:6fb373da:5690ac4b:4fb82a45 rd.md.uuid=[NEW_ARRAY_UUID] rd.lvm.lv=centosvg/swap rhgb quiet"

GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centosvg/root rd.md.uuid=283a4a43:43c85816:55c6adf0:ddcbfb2b rd.md.uuid=50ed66ef:6fb373da:5690ac4b:4fb82a45 rd.md.uuid=e5feec81:20d5e154:9a1e2dce:75a03c71 rd.lvm.lv=centosvg/swap rhgb quiet"

새 장치를 이해할 수 있도록 GRUB 구성을 업데이트하세요.

grub2-mkconfig -o /boot/grub2/grub.cfg

위 명령을 실행한 후 다음 명령을 실행하여 새로운 "initramfs" 이미지를 생성해야 합니다.

dracut -fv

드디어 다시 시작...

reboot

중요한:프로세스가 제대로 작동하기 위해 다시 시작할 필요는 없지만 가능한 오류를 확인하려면 다시 시작하는 것이 좋습니다.

관련 정보