mdadm raid가 비활성 상태이고 재부팅 후 장치가 손실됨

mdadm raid가 비활성 상태이고 재부팅 후 장치가 손실됨

/dev/sdc2개의 8TB 디스크( 및 ) 로 구성된 mdadm RAID1 어레이가 있는 시스템이 있습니다 /dev/sdd. 이것은 잘 작동하고 위에 많은 데이터를 추가했습니다.

다른 컴퓨터에서 여러 번 테스트를 실행하여 2개의 디스크가 있는 RAID1을 (결국) 5개의 디스크가 있는 RAID5로 확장했는데 예상대로 작동했습니다.

의사도요

2개의 디스크가 있는 RAID1 어레이를 3개의 디스크가 있는 RAID5 어레이로 확장할 때 무엇을 놓치나요? 재부팅 후 어레이가 비활성 상태이고 장치가 누락되었습니다!

내가 뭘 한거지:

  • RAID 수준을 5로 변경합니다.mdadm --grow /dev/md0 -l 5
  • 예비 하드 드라이브 추가:mdadm /dev/md0 --add /dev/sdb
  • 새 디스크를 사용하려면 RAID를 추가하세요.mdadm --grow /dev/md0 -n 3
  • 이 이후에 동기화가 시작됩니다.

동기화 중 출력은 다음과 같습니다.

user@server:~$ sudo mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Tue Jul 19 17:56:28 2022
        Raid Level : raid5
        Array Size : 7813894464 (7.28 TiB 8.00 TB)
     Used Dev Size : 7813894464 (7.28 TiB 8.00 TB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Thu Aug 25 18:25:21 2022
             State : clean, reshaping
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : bitmap

    Reshape Status : 24% complete
     Delta Devices : 1, (2->3)

              Name : ubuntu-server:0
              UUID : 9d1e2e6e:14dc5960:011daf54:xxxxxxxx
            Events : 77556

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       2       8       16        2      active sync   /dev/sdb

그리고 디스크:

user@server:~$ lsblk
NAME                   MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
loop0                    7:0    0    62M  1 loop  /snap/core20/1593
loop1                    7:1    0    62M  1 loop  /snap/core20/1611
loop2                    7:2    0  79.9M  1 loop  /snap/lxd/22923
loop3                    7:3    0   103M  1 loop  /snap/lxd/23541
loop4                    7:4    0  44.7M  1 loop  /snap/snapd/15534
loop5                    7:5    0    47M  1 loop  /snap/snapd/16292
sda                      8:0    0 931.5G  0 disk
├─sda1                   8:1    0     1M  0 part
├─sda2                   8:2    0     2G  0 part  /boot
└─sda3                   8:3    0 929.5G  0 part
  └─dm_crypt-1         253:0    0 929.5G  0 crypt
    └─ubuntu--vg-lv--0 253:1    0 929.5G  0 lvm   /
sdb                      8:16   0   7.3T  0 disk
└─md0                    9:0    0   7.3T  0 raid5
sdc                      8:32   0   7.3T  0 disk
└─md0                    9:0    0   7.3T  0 raid5
sdd                      8:48   0   7.3T  0 disk
└─md0                    9:0    0   7.3T  0 raid5

동기화가 완료된 후 어레이 크기는 여전히 8TB였지만 어레이를 마운트하고 데이터에 액세스할 수 있었습니다(수동으로 늘려야 한다고 가정합니다).

24시간을 지금으로 빨리 감습니다(재부팅 후):

root@server:~# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
        Raid Level : raid5
     Total Devices : 2
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 2

              Name : ubuntu-server:0
              UUID : 9d1e2e6e:14dc5960:011daf54:xxxxxxxx
            Events : 85828

    Number   Major   Minor   RaidDevice

       -       8       32        -        /dev/sdc
       -       8       48        -        /dev/sdd

root@server:~# lsblk
NAME                   MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
loop0                    7:0    0    62M  1 loop  /snap/core20/1593
loop1                    7:1    0    62M  1 loop  /snap/core20/1611
loop2                    7:2    0  79.9M  1 loop  /snap/lxd/22923
loop3                    7:3    0   103M  1 loop  /snap/lxd/23541
loop4                    7:4    0  44.7M  1 loop  /snap/snapd/15534
loop5                    7:5    0    47M  1 loop  /snap/snapd/16292
sda                      8:0    0 931.5G  0 disk
├─sda1                   8:1    0     1M  0 part
├─sda2                   8:2    0     2G  0 part  /boot
└─sda3                   8:3    0 929.5G  0 part
  └─dm_crypt-1         253:0    0 929.5G  0 crypt
    └─ubuntu--vg-lv--0 253:1    0 929.5G  0 lvm   /
sdb                      8:16   0   7.3T  0 disk
sdc                      8:32   0   7.3T  0 disk
└─md0                    9:0    0     0B  0 md
sdd                      8:48   0   7.3T  0 disk
└─md0                    9:0    0     0B  0 md

/dev/sdb그래서 새로 추가한 HDD( )가 왠지 빠진 것 같아요 ! mdadm --detail --scan --verbose내 게시물에 의 출력을 추가 /etc/mdadm/mdadm.conf하고 실행해 update-initramfs -u보았지만 소용이 없었습니다.

자세한 내용은 여기를 참조하세요:

root@server:~# mdadm --examine /dev/sd[bcd]
/dev/sdb:
   MBR Magic : aa55
Partition[0] :   4294967295 sectors at            1 (type ee)
/dev/sdc:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 9d1e2e6e:14dc5960:011daf54:403c80a6
           Name : ubuntu-server:0
  Creation Time : Tue Jul 19 17:56:28 2022
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 15627789488 sectors (7.28 TiB 8.00 TB)
     Array Size : 15627788928 KiB (14.55 TiB 16.00 TB)
  Used Dev Size : 15627788928 sectors (7.28 TiB 8.00 TB)
    Data Offset : 263680 sectors
   Super Offset : 8 sectors
   Unused Space : before=263600 sectors, after=560 sectors
          State : clean
    Device UUID : cce44b44:6be581c6:ed09e3e8:5a2f5735

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Aug 26 19:56:25 2022
  Bad Block Log : 512 entries available at offset 40 sectors
       Checksum : 370fd1fa - correct
         Events : 85828

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 9d1e2e6e:14dc5960:011daf54:403c80a6
           Name : ubuntu-server:0
  Creation Time : Tue Jul 19 17:56:28 2022
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 15627789488 sectors (7.28 TiB 8.00 TB)
     Array Size : 15627788928 KiB (14.55 TiB 16.00 TB)
  Used Dev Size : 15627788928 sectors (7.28 TiB 8.00 TB)
    Data Offset : 263680 sectors
   Super Offset : 8 sectors
   Unused Space : before=263600 sectors, after=560 sectors
          State : clean
    Device UUID : 5744d817:29d6e7e7:30e536d7:16d43c13

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Aug 26 19:56:25 2022
  Bad Block Log : 512 entries available at offset 40 sectors
       Checksum : f83ba242 - correct
         Events : 85828

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

root@server:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 metadata=1.2 name=ubuntu-server:0 UUID=9d1e2e6e:14dc5960:011daf54:xxxxxx
   devices=/dev/sdb,/dev/sdc,/dev/sdd
root@server:~# lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description:    Ubuntu 22.04.1 LTS
Release:        22.04
Codename:       jammy

답변1

같은 문제가 있는 사람의 경우:

\dev\sdb파티션 테이블이 손상되거나 사라지는 등의 원인을 찾지 못했지만 내 문제는 실제로 파티션이 누락된 것 같습니다 .

데이터를 백업하지 않고 뭔가를 하는 것이 너무 마음에 들지 않아서 댓글에서 제안한 대로 했습니다.

  1. 다운그레이드 어레이
  2. 예비("장애") 디스크를 사용하여 /dev/sdb데이터 저장/백업 ( )
  3. 나머지 두 개의 드라이브를 분할 /dev/sdc하고 /dev/sdd어레이를 파괴하십시오!
  4. 드라이브 2개로 ​​어레이 다시 만들기
  5. 데이터를 다시 복사하세요.
  6. 세 번째(파티션) 디스크 추가

올바른 방향을 알려주셔서 다시 한번 감사드립니다!

관련 정보