Raid 1 하드웨어 오류 - 새 하드웨어 MDADM - 복구 방법

Raid 1 하드웨어 오류 - 새 하드웨어 MDADM - 복구 방법

NAS가 있는데 하드웨어에 오류가 발생했습니다. 나는 그것을 새로운 기계와 하드웨어에 넣었습니다. 그것은 MDADM을 사용하는 표준 SATA 포트에 대한 소프트웨어 공격이었습니다. 두 개의 디스크를 이동했습니다 - Raid1. 이와 관련된 게시물이 10억개 정도 있는데, 대부분이 오피니언 글인 것 같습니다.

더반OMV 6

상태는 다음과 같습니다.

mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
df
Filesystem     1K-blocks    Used Available Use% Mounted on
udev            16215324       0  16215324   0% /dev
tmpfs            3246744    2780   3243964   1% /run
/dev/nvme0n1p2 981876212 2164156 929761748   1% /
tmpfs           16233712       0  16233712   0% /dev/shm
tmpfs               5120       0      5120   0% /run/lock
/dev/nvme0n1p1    523248    3484    519764   1% /boot/efi
tmpfs           16233712       0  16233712   0% /tmp
tmpfs            3246740       0   3246740   0% /run/user/1000
lsblk
NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda           8:0    0   7.3T  0 disk
└─md127       9:127  0   7.3T  0 raid1
sdb           8:16   0   7.3T  0 disk
└─md127       9:127  0   7.3T  0 raid1
nvme0n1     259:0    0 953.9G  0 disk
├─nvme0n1p1 259:1    0   512M  0 part  /boot/efi
├─nvme0n1p2 259:2    0 952.4G  0 part  /
└─nvme0n1p3 259:3    0   977M  0 part  [SWAP]
mdadm --detail /dev/md127
/dev/md127:
           Version : 1.2
     Creation Time : Tue May 25 12:04:21 2021
        Raid Level : raid1
        Array Size : 7813894464 (7451.91 GiB 8001.43 GB)
     Used Dev Size : 7813894464 (7451.91 GiB 8001.43 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Thu Mar  3 07:04:07 2022
             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : helios64:H64
              UUID : 50a5d620:6b4f3ca9:624622fd:7b786dff
            Events : 35118

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       16        1      active sync   /dev/sdb
cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md127 : active (auto-read-only) raid1 sdb[1] sda[0]
      7813894464 blocks super 1.2 [2/2] [UU]
      bitmap: 0/59 pages [0KB], 65536KB chunk
blkid
/dev/nvme0n1p1: UUID="7DAA-51D0" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="589937f6-c05c-4b6b-b3a7-c4a069e7c752"
/dev/nvme0n1p2: UUID="603d2633-6e9f-48f0-b9ac-25f4e0009404" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="c93a0c02-c9cb-4d2c-a945-83b548da7176"
/dev/nvme0n1p3: UUID="096b416d-447c-475e-9f3a-feb38405ed52" TYPE="swap" PARTUUID="2d539d95-f0b9-4f57-86db-a98f7c081b85"
/dev/sda: UUID="50a5d620-6b4f-3ca9-6246-22fd7b786dff" UUID_SUB="fa9dbb6b-980d-c393-12b0-6ef6b0f9da17" LABEL="helios64:H64" TYPE="linux_raid_member"
/dev/sdb: UUID="50a5d620-6b4f-3ca9-6246-22fd7b786dff" UUID_SUB="23ccb86c-9517-2574-c8dd-78f588517fa6" LABEL="helios64:H64" TYPE="linux_raid_member"
/dev/md127: LABEL="H64" UUID="42a00ab6-37fb-4d90-bba4-5d1d2321d75a" BLOCK_SIZE="4096" TYPE="ext4"

OMV에서 여기에 이미지 설명을 입력하세요.

여기에 이미지 설명을 입력하세요.

좋습니다. 제가 해야 할 유일한 일은 드라이브를 설치하는 것뿐이라면 어떨까요? 나는 그것들을 가득 채우고 싶지 않습니다. 이것은 단지 삽입한 결과입니다.

건배

답변1

제가 보기에는 모든 것이 괜찮아 보입니다. 마운트 지점 디렉토리를 생성하고 여기에 RAID 볼륨을 마운트하는 것 외에는 할 일이 없습니다. 그것은 다음과 같습니다:

# mkdir /srv/data 
# mount /dev/md127 /srv/data

시스템을 네트워크 공유로 사용하려는 경우 일부 네트워크 파일 시스템을 구성하고 실행해야 합니다.

부팅 시 RAID를 영구적으로 설치하려면 새 레코드를 작성한 다음 /etc/mdadm/mdadm.conf(맨 페이지 읽기 mdadm) 다음을 실행 해야 합니다.

# update-initramfs -u

이렇게 하면 재부팅 후 즉시 RAID 어레이를 사용할 수 있으며 /etc/fstab다음과 같이 마운트 레코드를 추가할 수 있습니다.

LABEL=H64 /srv/data ext4 rw,realtime 0 0

문제가 발생하면 /var/log/syslog먼저 먼저 상담해 주세요. RAID1 일관성에 대해 질문이 있는 경우 다음 항목에 설명된 대로 몇 가지 검사를 수행할 수 있습니다.이것답변.

관련 정보