재부팅 후 mdadm RAID에 추가된 단일 드라이브가 사라짐

재부팅 후 mdadm RAID에 추가된 단일 드라이브가 사라짐

동일한 문제가 있는 다른 사람들을 찾아보았지만 여기에 있는 모든 질문은 재부팅 후 전체 RAID가 사라지는 것에 관한 것으로 보이며 문제가 있는 멤버 드라이브는 하나만 있습니다.

이것은 비디오 제작 기계이며 지난 주(CentOS 7에서 Rocky 8로 업그레이드한 후) 비디오 재생으로 인해 비디오에 시각적 아티팩트가 생성되는 것을 발견했습니다. 모든 비디오는 연결된 RAID에 저장됩니다.

RAID 60이므로 각각 12개의 1.2TB 드라이브를 포함하는 두 개의 RAID6이 있고 이 두 개의 RAID6이 함께 결합되어 RAID0을 형성합니다. 이것은 내가 여기서 일하기 오래 전에 외부 회사에 의해 설정되었지만 내 경험상 항상 확고했습니다.

이러한 시각적 아티팩트를 조사한 결과 RAID6 중 하나의 드라이브 중 하나가 mdadm에 따라 "삭제됨"으로 표시되어 있음을 발견했습니다. RAID는 RAID6에서 기대할 수 있듯이 이 드라이브 없이도 작동하지만 우리가 본 인공물과 관련이 있는 것으로 의심됩니다. smartctl은 문제의 드라이브에 결함이 있음을 보여 주므로 새 드라이브를 주문했습니다.

오늘 아침에 도착했는데 거기서부터 추적했어요redhat.com의 지침지금까지. 새 드라이브로 RAID를 재구축하는 데 거의 3시간이 걸렸지만 제대로 작동하는 것 같았고 RAID가 다시 돌아왔으며 아무런 결함도 발견할 수 없었습니다.

그러나 나는 기계를 다시 시작했고 우리는 다시 원점으로 돌아갔습니다. 이는 시작했을 때와 정확히 동일하며 하나의 RAID6에서 드라이브가 제거된 것으로 표시됩니다. 또한 디스크를 보면 문제의 드라이브(/dev/sdc)의 파티션이 손실되었거나 최소한 "1.2TB Linux RAID 멤버" 대신 "1.2TB 여유 공간"이라고 표시되어 있는 것을 볼 수 있습니다. 나는 그것이 우연일지도 모른다고 생각했습니다. 그리고 오늘 밤에 모든 일을 다시 겪었고 똑같은 일이 일어났습니다. 두 번째로 다르게 한 유일한 일은 /etc/mdadm.confsu를 사용하여 파일을 만드는 것이 었지만 mdadm --examine --scan >> /etc/mdadm/mdadm.conf별 차이가 없는 것 같았습니다. 이제 다시 시작하기 위해 파일을 지웠습니다.

내 인생에서는 무슨 일이 일어나고 있는지 알 수 없습니다. 나는 Linux에 능숙하지만 이번 주 이전에는 mdadm이 존재하는지조차 몰랐기 때문에 즉석에서 배우려고 노력했습니다. 이 생산 기계는 화요일에 백업되어 실행되어야 하므로 반대합니다! 밤새 RAID를 다시 재구축하고 내일 다시 시작하겠습니다. 아래는 귀하에게 필요할 것으로 생각되는 모든 출력입니다. 제공할 수 있는 다른 항목이 있으면 알려 주시기 바랍니다.

출력 cat /proc/mdstat:

Personalities : [raid6] [raid5] [raid4] [raid0] 
md103 : active raid0 md101[0] md102[1]
      23439351808 blocks super 1.2 512k chunks
      
md102 : active raid6 sdu[6] sdz[11] sdx[9] sdw[8] sdy[10] sdq[2] sdt[5] sdr[3] sdv[7] sds[4] sdo[0] sdp[1]
      11719808000 blocks super 1.2 level 6, 512k chunk, algorithm 2 [12/12] [UUUUUUUUUUUU]
      bitmap: 0/9 pages [0KB], 65536KB chunk

md101 : active raid6 sdk[8] sdh[5] sdg[4] sdl[9] sdf[3] sdi[6] sdj[7] sde[2] sdd[1] sdm[10] sdn[11]
      11719808000 blocks super 1.2 level 6, 512k chunk, algorithm 2 [12/11] [_UUUUUUUUUUU]
      bitmap: 1/9 pages [4KB], 65536KB chunk

mdadm --detail문제의 RAID6 출력:

/dev/md101:
           Version : 1.2
     Creation Time : Tue Jun  8 17:37:23 2021
        Raid Level : raid6
        Array Size : 11719808000 (10.91 TiB 12.00 TB)
     Used Dev Size : 1171980800 (1117.69 GiB 1200.11 GB)
      Raid Devices : 12
     Total Devices : 11
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Fri Jan 12 19:20:16 2024
             State : clean, degraded 
    Active Devices : 11
   Working Devices : 11
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : grade1:101
              UUID : 56d9ee6d:3a9ef416:91d3b7ec:0da562b0
            Events : 1036527

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       48        1      active sync   /dev/sdd
       2       8       64        2      active sync   /dev/sde
       3       8       80        3      active sync   /dev/sdf
       4       8       96        4      active sync   /dev/sdg
       5       8      112        5      active sync   /dev/sdh
       6       8      128        6      active sync   /dev/sdi
       7       8      144        7      active sync   /dev/sdj
       8       8      160        8      active sync   /dev/sdk
       9       8      176        9      active sync   /dev/sdl
      10       8      192       10      active sync   /dev/sdm
      11       8      208       11      active sync   /dev/sdn

이는 과잉일 수 있지만 fdisk -l드라이버가 너무 많기 때문에 출력이 길어집니다. sda와 sdb는 OS 드라이브이고, 읽기 준비를 위해 redhat.com 지침에 따라 sgdisk를 실행했기 때문에 문제 드라이브 /dev/sdc가 다르게 보입니다.

Disk /dev/sda: 894.3 GiB, 960197124096 bytes, 1875385008 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 18255C5C-FE0C-4ADB-9D13-52560809D652

Device       Start        End    Sectors   Size Type
/dev/sda1     2048    1230847    1228800   600M EFI System
/dev/sda2  1230848    3327999    2097152     1G Linux filesystem
/dev/sda3  3328000 1875384319 1872056320 892.7G Linux LVM


Disk /dev/sdb: 894.3 GiB, 960197124096 bytes, 1875385008 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: D2D8699C-C29B-4C34-B126-3667FA7B794A

Device     Start        End    Sectors   Size Type
/dev/sdb1   2048 1875384319 1875382272 894.3G Linux LVM


Disk /dev/mapper/rl-root: 70 GiB, 75161927680 bytes, 146800640 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/mapper/rl-swap: 4 GiB, 4294967296 bytes, 8388608 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdd: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdc: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: B9AB730B-09DD-44FF-BD9E-79502FB2CF5E


Disk /dev/sdh: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdg: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sde: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdl: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdi: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdm: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdo: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdp: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdk: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdq: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdf: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdn: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdr: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdj: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sds: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdt: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdu: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdv: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdw: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdx: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdy: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdz: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/mapper/rl-home: 1.7 TiB, 1839227469824 bytes, 3592241152 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/md101: 10.9 TiB, 12001083392000 bytes, 23439616000 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 5242880 bytes


Disk /dev/md102: 10.9 TiB, 12001083392000 bytes, 23439616000 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 5242880 bytes


Disk /dev/md103: 21.8 TiB, 24001896251392 bytes, 46878703616 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 5242880 bytes

답변1

mdadm 메타데이터가 삭제되고 있습니다. 디스크 끝에 있는 GPT 백업 헤더를 확인하고 디스크 시작 부분에 이를 다시 작성하여 프로세스에서 mdadm 메타데이터를 삭제함으로써 이를 "수정"하는 데 도움이 될 수 있습니다.

이는 RAID, LUKS, 파일 시스템 등의 파티션이 아닌 전체 드라이브를 사용할 때 발생하는 일반적인 문제입니다. 많은 프로그램이 드라이브 분할을 돕기 위해 시도하기 때문에 문제가 발생하기 전까지는 잘 작동합니다. 이는 어레이에서 하나의 드라이브뿐만 아니라 모든 드라이브를 제거합니다.

다음 명령을 사용하여 파티션 테이블 GPT 헤더(디스크의 시작과 끝)를 지우 wipefs면 새 파티션 테이블을 다시 작성하지 않기를 바랍니다.

나는 전체 디스크 대신 파티션 테이블을 갖고 파티션을 사용하는 것을 선호합니다(링크한 튜토리얼에 설명된 설정과 유사). 대부분의 소프트웨어는 파티션을 그대로 두는 것을 알고 있기 때문에 이는 더 표준적이며 이러한 사고가 발생할 가능성이 적습니다. 이는 "파티션되지 않은" 드라이브에서는 불가능합니다.

그러나 귀하의 경우 전체 설정을 마이그레이션해야 하는데 이는 아마도 귀하가 원하는 것이 아닐 수도 있습니다.

백업, 특히 드라이브 일련 번호가 포함된 메타데이터/헤더 백업을 수행하면 나중에 할당하는 방법을 알 수 있습니다. 이는 나중에 유사한 파티션 테이블 사고가 발생할 경우 복구하는 데 도움이 될 수 있습니다.

관련 정보