CentOS는 존재하지 않는 RAID 어레이를 마운트하려고 시도합니다 -> 복구 모드

CentOS는 존재하지 않는 RAID 어레이를 마운트하려고 시도합니다 -> 복구 모드

처음으로 RAID1을 사용하려고 시도했을 때 CentOS가 부팅을 중단하여 복구 모드에 들어갔습니다. 다행스럽게도 테스트 시스템이 있습니다.

처음에는 raid1을 설정했는데 꽤 잘 작동했습니다. 나중에 내 파티션이 3TB 중 2.2TB에 불과하다는 사실을 발견했습니다(그러나 fdisk의 기본 시작/끝 섹터를 사용했습니다. 전체 하드 드라이브를 사용하지 않았습니다. 정상입니까? 편집: 예/지금 parted 사용).

깨달았을 때는 "그래 그냥 RAID를 삭제하고 다시 시작하자"라고 생각했는데, RAID를 만드는 것보다 RAID를 삭제하는 것이 훨씬 어려운 것 같습니다. 이것은 내가 삭제하는 데 사용한 명령입니다.

mdadm --stop /dev/md0
mdadm --zero-superblock /dev/sdb (which didn't work)
mdadm --zero-superblock /dev/sdc (also wasn't working)
mdadm --remove /dev/md0
umount /dev/md0

그런 다음 /etc/fstab에서 내 항목을 삭제합니다. (물론 재부팅 후) 구조에 던져진 순간입니다. 그래서 sdb 및 sdc에 대한 파티션도 삭제했지만 변경되지 않았습니다.

"journalctl -xb"의 오류는 다음과 같습니다.

Received SIGRTMIN+20 from PID 1694 (plymouthd)
Timed out waiting for device dev-md0.device.

Dependency failed for /data
Dependency failed for Local File Systems
Dependency failed for Mark the need to relabel after reboot.

Job rhel-autorelabel-mark.services/start failed with result 'dependency'.
Dependency failed for Migrate local SELinux policy changes from the old store structure to the new structure.

Job [email protected]/start failed with result 'dependency'.
Dependency failed for Relabel all filesystems, if necessary.

fstab 항목을 삭제하고 /dev/md0 장치를 더 이상 사용할 수 없으므로 /dev/md0을 /data에 마운트하려고 하는 이유를 이해할 수 없습니다.

감사해요!

답변1

사실, parted를 사용한 후에는 이를 사용하여 새 파일 시스템을 만드는 것을 잊어버렸습니다 mkfs.extX /dev/sdcX. 그게 다야.

mdadm 및 parted를 사용하는 추가 단계(다시 필요한 경우):
블록 장치 나열
lsblk

정렬 오류를 확인하기 위해 최적 모드(2TB만 처리할 수 있는 fdisk 대신)에서 parted를 시작합니다. parted -a optimal /dev/sdX

GPT 파티션 생성(역시 2TB보다 큼) mklabel gpt

파티션 mkpart
1
ext2
2048s
-1 //전체 공간을 사용하지 않습니다..
set 1 raid on

배열을 만듭니다.
mdadm --create /dev/md/0 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
yes

RAID 제거/설치:
mount /dev/md0 /data/
umount /data/

아니면 다음에 추가하세요 /etc/fstab
/dev/md0 /data ext4 defaults 0 0
:
mount -a

관련 정보