![강력한 RAID 6을 구축하는 방법은 무엇입니까?](https://linux55.com/image/63665/%EA%B0%95%EB%A0%A5%ED%95%9C%20RAID%206%EC%9D%84%20%EA%B5%AC%EC%B6%95%ED%95%98%EB%8A%94%20%EB%B0%A9%EB%B2%95%EC%9D%80%20%EB%AC%B4%EC%97%87%EC%9E%85%EB%8B%88%EA%B9%8C%3F.png)
아마도 제가 잘못 생각하고 있을 수도 있지만 CENTOS7에서 RAID6 소프트웨어 어레이를 관리하는 데 장기적인 문제가 있었습니다.
시스템에는 RAID1에 한 쌍의 내부 드라이브(2x500GB)가 있는데 지금까지 완벽했습니다. eSATA PCIe 확장 카드를 통해 eSATA 인클로저에 외부 드라이브(5x1TB)가 5개 더 있습니다. 이들은 모두 처음부터 일관되게 RAID0에 있습니다. 두 번째 eSATA PCI 확장 카드(동일한 제조사/모델)에 또 다른 5개의 디스크 인클로저(5x1TB, 동일한 제조사/모델/연식)가 있고 해당 디스크를 RAID6(활성 4개, 예비 1개)으로 설정해 보았습니다.
첫 번째 오류는 전원이 차단되고 드라이브 중 하나가 어레이로 돌아가지 못했을 때 발생했습니다. 결국 드라이브와 해당 파티션을 지우고 어레이에 다시 추가했습니다. 재구축 후 어레이가 최대 성능으로 복원되었으며 모든 일관성을 유지하기 위해 전체 스캔/새로 고침/다시 쓰기를 수행했습니다. 어젯밤 약 30GB의 쓰기 후에 어레이에 오류가 발생했고 4개의 활성 드라이브 중 3개가 사라진 것으로 나타났습니다. 재조립을 시도하면 어레이가 하나의 드라이브만으로 부팅할 수 없음을 나타냅니다. 참여하는 모든 드라이브를 볼 수 mdadm --examine
있으며 모두 올바른 어레이 GUID, RAID 장치 수, 어레이 이름, 양호한 체크섬, RAID 레벨을 성공적으로 표시하고 활성 상태인 것으로 보입니다. 그러나 각각 다른 배열 상태를 표시합니다.
/dev/sdg/ ...A
/dev/sdh/ AAAA
/dev/sdi/ AA.A
/dev/sdj/ .A.A
mdadm --assemble --scan --guid=<guid>
CENTOS의 디스크 GUI와 동일한 응답을 생성합니다. "1개 드라이브에서 조립 - 어레이를 시작하기에 충분하지 않습니다."
이 어레이를 관리할 때 내가 무엇을 잘못했으며 어떻게 복구합니까?
편집하다: /dev/md126 장치에 대한 기록이 표시되지 않으므로 해당 "이름"과 상호 작용하는 기능을 사용할 수 없습니다.
고쳐 쓰다:
사용할 수 있는 다른 정보가 없기 때문에(읽을 로그가 없음) --force
댓글의 제안을 따라해 보았습니다. 처음에 디스크가 없는 "저하" 상태로 부팅하고 "재구축" 상태로 들어간 후 --examine
모든 드라이브에 대해 작업했는데 그 중 하나는 /dev/sdh가 "AA.A"에 참여하지 않았습니다. 어레이에 드라이브를 추가하려고 시도했지만 mdadm --add
잘못된 어레이가 추가되었습니다. 새 어레이가 /dev/md126 및 /dev/md126p1로 모두 나타납니다. 차이점이 무엇인지 잘 모르겠지만 활성 상태인 것 같은 것은 p1입니다. . 재구축 작업을 취소하고 --force
md를 포함한 동일한 명령을 사용하여 다시 시작했는데 데이터가 나타나지 않았습니다. 작업을 취소하고 다시 시도했습니다. 이제 데이터가 드라이브에 다시 표시되고 /dev/sdh가 참여합니다("AAAA"). 드라이브가 복구 모드에 있고 4개의 드라이브가 모두 사용 중인 것으로 나타납니다.
다행히 어레이에 있는 데이터가 백업되어 있어서 뭔가를 배우려고 노력하는 즐거움이 있었어요...!
답변1
드라이브가 RAID 어레이에서 제외되면 해당 메타데이터가 더 이상 업데이트되지 않습니다. 따라서 여전히 모든 드라이브를 볼 수 있는 드라이브가 AAAA
일반적으로 가장 먼저 제거됩니다. 이는 update time
또한 이를 반영할 수도 있다.
따라서 RAID 계층이 먼저 시작되고 sdh
(4개의 드라이브가 활성화된 경우), 그 다음 sdi
(3개의 드라이브가 활성화된 경우), 그 다음에는 sdj
(2개의 드라이브가 있는 경우) 마지막으로 sdg
1개의 드라이브만 남게 된다고 가정합니다.
디스크에 실제로 결함이 있는 것이 아니라면 운을 시험해 볼 수 있습니다 --assemble --force
. 업데이트 시간을 확인하고 최신 드라이브 2개를 사용한 다음, 먼저 쫓겨난 드라이브를 다시 추가하고 RAID가 다시 동기화되기를 바랍니다.
/system 로그를 확인하여 dmesg
처음에 드라이브가 쫓겨난 이유를 파악한 다음 이러한 일이 다시 발생하지 않는지 확인해야 합니다. 소프트웨어 RAID는 일반적으로 잘 작동하지만 디스크를 가득 채우고 정기적으로 디스크 오류를 테스트하며 케이블/컨트롤러/전원 공급 장치 문제를 해결하는 것이 중요합니다.