![Raid 1 하드웨어 오류 - 새 하드웨어 MDADM - 복구 방법](https://linux55.com/image/203530/Raid%201%20%ED%95%98%EB%93%9C%EC%9B%A8%EC%96%B4%20%EC%98%A4%EB%A5%98%20-%20%EC%83%88%20%ED%95%98%EB%93%9C%EC%9B%A8%EC%96%B4%20MDADM%20-%20%EB%B3%B5%EA%B5%AC%20%EB%B0%A9%EB%B2%95.png)
NAS가 있는데 하드웨어에 오류가 발생했습니다. 나는 그것을 새로운 기계와 하드웨어에 넣었습니다. 그것은 MDADM을 사용하는 표준 SATA 포트에 대한 소프트웨어 공격이었습니다. 두 개의 디스크를 이동했습니다 - Raid1. 이와 관련된 게시물이 10억개 정도 있는데, 대부분이 오피니언 글인 것 같습니다.
더반OMV 6
상태는 다음과 같습니다.
mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
df
Filesystem 1K-blocks Used Available Use% Mounted on
udev 16215324 0 16215324 0% /dev
tmpfs 3246744 2780 3243964 1% /run
/dev/nvme0n1p2 981876212 2164156 929761748 1% /
tmpfs 16233712 0 16233712 0% /dev/shm
tmpfs 5120 0 5120 0% /run/lock
/dev/nvme0n1p1 523248 3484 519764 1% /boot/efi
tmpfs 16233712 0 16233712 0% /tmp
tmpfs 3246740 0 3246740 0% /run/user/1000
lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 7.3T 0 disk
└─md127 9:127 0 7.3T 0 raid1
sdb 8:16 0 7.3T 0 disk
└─md127 9:127 0 7.3T 0 raid1
nvme0n1 259:0 0 953.9G 0 disk
├─nvme0n1p1 259:1 0 512M 0 part /boot/efi
├─nvme0n1p2 259:2 0 952.4G 0 part /
└─nvme0n1p3 259:3 0 977M 0 part [SWAP]
mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Tue May 25 12:04:21 2021
Raid Level : raid1
Array Size : 7813894464 (7451.91 GiB 8001.43 GB)
Used Dev Size : 7813894464 (7451.91 GiB 8001.43 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Mar 3 07:04:07 2022
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : helios64:H64
UUID : 50a5d620:6b4f3ca9:624622fd:7b786dff
Events : 35118
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 16 1 active sync /dev/sdb
cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md127 : active (auto-read-only) raid1 sdb[1] sda[0]
7813894464 blocks super 1.2 [2/2] [UU]
bitmap: 0/59 pages [0KB], 65536KB chunk
blkid
/dev/nvme0n1p1: UUID="7DAA-51D0" BLOCK_SIZE="512" TYPE="vfat" PARTUUID="589937f6-c05c-4b6b-b3a7-c4a069e7c752"
/dev/nvme0n1p2: UUID="603d2633-6e9f-48f0-b9ac-25f4e0009404" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="c93a0c02-c9cb-4d2c-a945-83b548da7176"
/dev/nvme0n1p3: UUID="096b416d-447c-475e-9f3a-feb38405ed52" TYPE="swap" PARTUUID="2d539d95-f0b9-4f57-86db-a98f7c081b85"
/dev/sda: UUID="50a5d620-6b4f-3ca9-6246-22fd7b786dff" UUID_SUB="fa9dbb6b-980d-c393-12b0-6ef6b0f9da17" LABEL="helios64:H64" TYPE="linux_raid_member"
/dev/sdb: UUID="50a5d620-6b4f-3ca9-6246-22fd7b786dff" UUID_SUB="23ccb86c-9517-2574-c8dd-78f588517fa6" LABEL="helios64:H64" TYPE="linux_raid_member"
/dev/md127: LABEL="H64" UUID="42a00ab6-37fb-4d90-bba4-5d1d2321d75a" BLOCK_SIZE="4096" TYPE="ext4"
좋습니다. 제가 해야 할 유일한 일은 드라이브를 설치하는 것뿐이라면 어떨까요? 나는 그것들을 가득 채우고 싶지 않습니다. 이것은 단지 삽입한 결과입니다.
건배
답변1
제가 보기에는 모든 것이 괜찮아 보입니다. 마운트 지점 디렉토리를 생성하고 여기에 RAID 볼륨을 마운트하는 것 외에는 할 일이 없습니다. 그것은 다음과 같습니다:
# mkdir /srv/data
# mount /dev/md127 /srv/data
시스템을 네트워크 공유로 사용하려는 경우 일부 네트워크 파일 시스템을 구성하고 실행해야 합니다.
부팅 시 RAID를 영구적으로 설치하려면 새 레코드를 작성한 다음 /etc/mdadm/mdadm.conf
(맨 페이지 읽기 mdadm
) 다음을 실행 해야 합니다.
# update-initramfs -u
이렇게 하면 재부팅 후 즉시 RAID 어레이를 사용할 수 있으며 /etc/fstab
다음과 같이 마운트 레코드를 추가할 수 있습니다.
LABEL=H64 /srv/data ext4 rw,realtime 0 0
문제가 발생하면 /var/log/syslog
먼저 먼저 상담해 주세요. RAID1 일관성에 대해 질문이 있는 경우 다음 항목에 설명된 대로 몇 가지 검사를 수행할 수 있습니다.이것답변.