MD raid5 어레이가 갑자기 작동을 멈춘 것 같습니다. 증상이 좀 비슷하네요이 문제어레이를 시작하기에 충분한 장치가 없다는 오류가 발생하기 때문에 제 경우에는 세 드라이브 모두에서 이벤트 수가 동일합니다. 이것은 RAID 5 어레이이며 2개의 활성 드라이브와 하나의 패리티가 있어야 하지만 각 드라이브의 mdadm --examine은 예비 드라이브로 나열된 두 개의 드라이브와 활성 드라이브로 나열된 하나만의 역할을 보여줍니다.
나는 노력했다mdadm --stop /dev/md1이어서mdadm --어셈블리 /dev/md1(--force 및 --run 플래그 시도 포함)
SMART 데이터는 드라이브 관련 문제를 나타내지 않습니다(현재 보류 중 및 재할당된 섹터 수가 0임).raid.wiki.kernel.org 가이드매핑 재정의 장치 설정과 관련된 단계는 아래 Frostschutz에 링크되어 있습니다.
그런 다음 다음 명령을 실행하면 읽기 전용 마운트를 시도할 수 있는 RAID 어레이가 생성되고 그 결과 읽기 가능한 파일 시스템이 되는지 또는 횡설수설이 발생하는지 확인할 수 있다고 가정합니다(즉, sdf1에 대한 내 추측이 패리티 확인인지 확인). 맞습니까? 아니면 sde1을 사용하여 다시 시도해야 합니까? 그러나 아래에 표시된 오류가 발생합니다(또한 관련 루프 장치를 따라 시도했습니다)손실된 설정--목록, 결과는 동일합니다).
mdadm --create /dev/md2 --assume-clean --level=5 --chunk=64K --metadata=1.2 --data-offset=261888s --raid-devices=3 누락 /dev/mapper/sdh1 / 개발/매퍼/sdf1
mdadm: super1.x cannot open /dev/mapper/sdh1: Device or resource busy
mdadm: /dev/mapper/sdh1 is not suitable for this array.
mdadm: super1.x cannot open /dev/mapper/sdf1: Device or resource busy
mdadm: /dev/mapper/sdf1 is not suitable for this array.
mdadm: create aborted
게다가 동시에mdadm --세부사항/dev/md1이전에는 다음과 같은 출력을 제공했지만(추가) 이제는 다음을 제공합니다.
/dev/md1:
Version : 1.2
Raid Level : raid0
Total Devices : 3
Persistence : Superblock is persistent
State : inactive
Working Devices : 3
Name : bob:1 (local to host bob)
UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Events : 373364
Number Major Minor RaidDevice
- 253 11 - /dev/dm-11
- 253 10 - /dev/dm-10
- 253 9 - /dev/dm-9
게다가 나도 눈치챘다.DM 설치 상태세 가지 오버레이 모두에 대해 동일한 정보가 제공되며 개별 드라이브(8TB)가 아닌 원래 RAID 어레이(16TB)의 크기를 나타낼 수 있는 의심스러운 숫자가 있습니다. 이것이 사실인지 확실하지 않습니다. ?
sde1: 0 15627528888 snapshot 16/16777216000 16
sdh1: 0 15627528888 snapshot 16/16777216000 16
sdf1: 0 15627528888 snapshot 16/16777216000 16
이 시점에서 장치를 생성하고 마운트한 다음 파일 시스템을 확인하여 올바른 패리티 장치를 추측했는지 확인하는 방법을 잘 모르겠습니다. 오버레이를 사용하여 실제 드라이브에 아무것도 기록되지 않도록 하십시오.
고쳐 쓰다: 아래 Frost Schutz의 제안에 따르면 어레이는 기본 드라이브에서 작업을 수행하기 전에 --stop을 실행해야 하는 상태에 있습니다. 예전에는 이 가능성을 과소평가했었어고양이 /proc/mdstat어레이가 비활성으로 표시됩니다. 이는 번들 드라이브의 원인이 될 수 없다는 의미라고 생각했지만 그렇지 않습니다. (이전에 --stop도 실행했지만 나중에 무언가가 수행되어 반환을 촉발한 것 같습니다. 중단 없는 상태로). 올바른 드라이브 순서를 얻은 후(첫 번째 시도에서는 아니었지만 재정의를 사용해서 다행입니다) 어레이는 보고된 오류 없이 fsck 검사를 통과했습니다.이제 아무 일도 없었던 것처럼 작동하고 있어요.
다른 진단 명령을 실행한 결과:
고양이 /proc/mdstat:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md1 : inactive sdh1[1](S) sde1[3](S) sdf1[0](S)
23440900500 blocks super 1.2
mdadm --세부사항/dev/md1:
/dev/md1:
Version : 1.2
Raid Level : raid0
Total Devices : 3
Persistence : Superblock is persistent
State : inactive
Working Devices : 3
Name : bob:1 (local to host bob)
UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Events : 373364
Number Major Minor RaidDevice
- 8 113 - /dev/sdh1
- 8 81 - /dev/sdf1
- 8 65 - /dev/sde1
시도할 때 dmesg에 나타나는 줄mdadm --어셈블리 /dev/md1:
md/raid:md1: device sdh1 operational as raid disk 1
md/raid:md1: not enough operational devices (2/3 failed)
md/raid:md1: failed to run raid set.
md: pers->run() failed ..
그리고mdadm - 확인에스
/dev/sde1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Name : bob:1 (local to host bob)
Creation Time : Mon Mar 4 22:10:29 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
Data Offset : 261888 sectors
Super Offset : 8 sectors
Unused Space : before=261808 sectors, after=312 sectors
State : clean
Device UUID : e856f539:6a1b5822:b3b8bfb7:4d0f4741
Internal Bitmap : 8 sectors from superblock
Update Time : Sun May 30 00:22:45 2021
Bad Block Log : 512 entries available at offset 40 sectors
Checksum : 9b5703bc - correct
Events : 373364
Layout : left-symmetric
Chunk Size : 64K
Device Role : spare
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdf1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Name : bob:1 (local to host bob)
Creation Time : Mon Mar 4 22:10:29 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
Data Offset : 261888 sectors
Super Offset : 8 sectors
Unused Space : before=261800 sectors, after=312 sectors
State : clean
Device UUID : 7919e56f:2e08430e:95a4c4a6:1e64606a
Internal Bitmap : 8 sectors from superblock
Update Time : Sun May 30 00:22:45 2021
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : d54ff3e1 - correct
Events : 373364
Layout : left-symmetric
Chunk Size : 64K
Device Role : spare
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdh1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Name : bob:1 (local to host bob)
Creation Time : Mon Mar 4 22:10:29 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
Data Offset : 261888 sectors
Super Offset : 8 sectors
Unused Space : before=261800 sectors, after=312 sectors
State : clean
Device UUID : 0c9a8237:7e79a439:d4e35b31:659f3c86
Internal Bitmap : 8 sectors from superblock
Update Time : Sun May 30 00:22:45 2021
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : 6ec2604b - correct
Events : 373364
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
답변1
이상해 보이네요. 당신은해야 할 수도 있습니다mdadm --오버레이를 사용하여 생성이를 위해(올바른 데이터 오프셋, 블록 크기 및 드라이브 순서 사용) 아마도 첫 번째 드라이브가 먼저 고장난 것 같아서 누락되었을 수도 있습니다.
드라이브가 더 이상 해당 장치 역할을 기억하지 못하게 되면 기존 방법을 사용한 복구는 기본적으로 불가능합니다. 둘 다 "예비"라고 말하므로 드라이브가 역할 0인지 역할 2인지 또는 전혀 알 수 없습니다(일부 raid5 설정은 실제로 어떤 이유로 예비 드라이브를 사용합니다). 따라서 유용한 데이터가 있는지, 그렇다면 어떤 순서로 되어 있는지가 불분명합니다. 스스로 결정해야합니다.
이 작업을 수행할 때 SMART 데이터도 확인하고 ddrescue
먼저 이러한 드라이브를 사용하여 실제로 RAID 실패를 유발할 수 있는 재할당 또는 보류 중인 섹터가 있는지 확인하십시오.