![다시 시작한 후 lsblk는 존재하지 않는 md 파티션을 표시합니다.](https://linux55.com/image/81234/%EB%8B%A4%EC%8B%9C%20%EC%8B%9C%EC%9E%91%ED%95%9C%20%ED%9B%84%20lsblk%EB%8A%94%20%EC%A1%B4%EC%9E%AC%ED%95%98%EC%A7%80%20%EC%95%8A%EB%8A%94%20md%20%ED%8C%8C%ED%8B%B0%EC%85%98%EC%9D%84%20%ED%91%9C%EC%8B%9C%ED%95%A9%EB%8B%88%EB%8B%A4..png)
mdadm
Debian 8.2에서 RAID1 어레이를 설정할 때 이상한 동작이 발생합니다.
어레이를 설정하면 lsblk
다음이 표시됩니다.
simon@debian-server:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 931.5G 0 disk
`-sda1 8:1 0 931.5G 0 part
`-md0 9:0 0 931.4G 0 raid1
sdb 8:16 0 931.5G 0 disk
`-sdb1 8:17 0 931.5G 0 part
`-md0 9:0 0 931.4G 0 raid1
sdc 8:32 0 232.9G 0 disk
|-sdc1 8:33 0 512M 0 part /boot/efi
|-sdc2 8:34 0 244M 0 part /boot
`-sdc3 8:35 0 232.2G 0 part
|-debian--server--vg-root 254:0 0 228.3G 0 lvm /
`-debian--server--vg-swap_1 254:1 0 3.9G 0 lvm [SWAP]
다시 시작하면 lsblk
다음이 표시됩니다.
simon@debian-server:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 931.5G 0 disk
`-sda1 8:1 0 931.5G 0 part
`-md0 9:0 0 931.4G 0 raid1
|-md0p1 259:0 0 811.6G 0 md
`-md0p2 259:1 0 346.1G 0 md
sdb 8:16 0 931.5G 0 disk
`-sdb1 8:17 0 931.5G 0 part
`-md0 9:0 0 931.4G 0 raid1
|-md0p1 259:0 0 811.6G 0 md
`-md0p2 259:1 0 346.1G 0 md
sdc 8:32 0 232.9G 0 disk
|-sdc1 8:33 0 512M 0 part /boot/efi
|-sdc2 8:34 0 244M 0 part /boot
`-sdc3 8:35 0 232.2G 0 part
|-debian--server--vg-root 254:0 0 228.3G 0 lvm /
`-debian--server--vg-swap_1 254:1 0 3.9G 0 lvm [SWAP]
md0p1 및 md0p2 파티션이 어디서 왔는지 모르겠습니다. 이에 대해 나도 그들 /etc/fstab
도 /etc/mdadm/mdadm.conf
할 말이 없다.
parted
다음에 파티션 표시 md0
:
simon@debian-server:~$ sudo parted /dev/md0 print
Model: Linux Software RAID Array (md)
Disk /dev/md0: 1000GB
Sector size (logical/physical): 512B/4096B
Partition Table: loop
Disk Flags:
Number Start End Size File system Flags
1 0.00B 1000GB 1000GB ntfs
md0p1 및 md0p2 파티션의 출처를 알고 계십니까?
다음을 수행하여 배열을 설정했습니다.
기존 장치를 제거합니다(이 작업을 몇 번 수행했습니다).
sudo mdadm --stop /dev/md0 sudo mdadm --remove /dev/md0
제로 드라이브:
sudo dd if=/dev/zero of=/dev/sda bs=1M count=1024 sudo dd if=/dev/zero of=/dev/sdb bs=1M count=1024
파티션 테이블을 생성합니다:
sudo parted /dev/sda mklabel gpt sudo parted /dev/sdb mklabel gpt
전체 디스크 파티션을 생성합니다:
sudo parted -a optimal /dev/sda mkpart primary '0%' '100%' sudo parted -a optimal /dev/sdb mkpart primary '0%' '100%'
파티션에 raid 플래그를 설정합니다.
sudo parted /dev/sda set 1 raid on sudo parted /dev/sdb set 1 raid on
RAID 어레이를 생성합니다:
sudo mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sd[ab]1
파일 시스템 추가(NTFS를 사용하고 있는데 ext4에서도 문제가 발생합니다)
sudo mkfs.ntfs -f /dev/md0
답변1
md0p1 및 md0p2 파티션의 출처를 알고 계십니까?
나는 그것들이 kpartx
또는 동등하게 해석되고 있다고 생각합니다. (맨 페이지에는 kpartx
"핫 플러그에서 호출됨"이라고 나와 있는데, 이는 일반적으로 요즘을 의미합니다 udev
.)
kpartx /dev/md0
인수 없이(또는 -v
) 실행하면 동일한 파티션이 표시될 수 있다고 생각합니다 .
parted는 md0에 파티션을 표시합니다.
잘. parted는 파일 시스템이나 MD 파티션 등의 다른 사항을 감지하여 이를 더 중요하게 처리할 수 있습니다. 또는 parted는 kpartx와 동일한 파티션 테이블 형식 세트를 지원하지 않습니다. 아니면 다른 차이점이 있습니다. 나를 놀라게하지 않을 것입니다.
제로 드라이브...
잘. 시도해 보셨나요 wipefs
? 파일 시스템을 포함한 여러 파티션 형식을 지원합니다. 일부 형식에는 첫 번째 메가바이트 이상의 매직 넘버가 있을 수 있습니다. 예를 들어, GPT 파티션 테이블에는 시작 부분의 "헤더"에 대한 백업 역할을 하는 드라이브 끝에 "꼬리"가 포함되어 있습니다. wipefs
이 상황을 구체적으로 처리하십시오.http://karelzak.blogspot.co.uk/2011/11/wipefs8-improvements.html
생성한 후에는 반드시 md0
삭제하는 것도 필요하다고 생각합니다. (나는 새 LV의 모든 포맷을 확인하고 이를 수행하라는 메시지를 표시할 것이라고 생각하지만 lvcreate
새 MD 어레이의 경우에는 해당되지 않습니다.)mdadm --create
귀하가 찾고 있는 것과 동일한 콘텐츠를 wipefs
찾을 것이라고 100% 보장할 수는 없습니다 . lvm/DM 프로젝트용으로 생성되었으며 자체 파티셔닝 코드를 사용합니다.kpartx
kpartx