저는 RAID5에 4개의 3TB NAS를 설치했고 거의 1년 동안 실행해 왔습니다.
최근 갑작스러운 종료(전원 버튼을 눌러야 함) 후에는 시작 시 RAID가 더 이상 설치되지 않습니다.
나는 다음을 실행했다:
mdadm --examine /dev/sd[bcdefghijklmn]1 >> raid.status
출력은 다음과 같습니다.
/dev/sda:
Magic: a92b4efc
버전: 1.2
함수 매핑: 0x0
배열 UUID: 7d2a94ca:d9a42ca9:a4e6f976:8b5ca26b
이름: BruceLee:0(호스트 BruceLee 로컬)
생성 시간: Mon Feb 4 23:07:01 2013
Raid Level: raid5
레이드 장치: 4사용 가능한 개발 크기: 5860271024(2794.40 GiB 3000.46 GB)
어레이 크기: 8790405888(8383.18 GiB 9001.38 GB)
사용된 개발 크기: 5860270592(2794.39 GiB 3000.46 GB)
데이터 오프셋: 262144 섹터
오프셋: 8 섹터
상태 :활성
장치 UUID: 2c1e0041: 21d926d6 :1c69aa87:f1340a12업데이트됨: 2014년 12월 27일 토요일 20:54:55
체크섬: d94ccaf5 - 올바른
이벤트: 17012레이아웃: 왼쪽 대칭
블록 크기: 128K장치 역할: 활성 장치 0
어레이 상태: AAA. ('A' == 활성, '.' == 누락)
/dev/sdb:
Magic: a92b4efc
버전: 1.2
Feature Map: 0x0
Array UUID: 7d2a94ca:d9a42ca9:a4e6f976:8b5ca26b
이름: BruceLee:0(호스트 BruceLee 로컬) )
생성 시간 : 2013년 2월 4일 월요일 23:07:01
레이드 레벨 : raid5
레이드 장치 : 4사용 가능한 개발 크기: 5860271024(2794.40 GiB 3000.46 GB)
어레이 크기: 8790405888(8383.18 GiB 9001.38 GB)
사용된 개발 크기: 5860270592(2794.39 GiB 3000.46 GB)
데이터 오프셋: 262144 섹터
오프셋: 8 섹터
상태 :활성
장치 UUID: a0261c8f: 8a2fbb93 :4093753a:74e7c5f5업데이트됨: 2014년 12월 27일 토요일 20:54:55
체크섬: 7b84067b - 올바른
이벤트: 17012레이아웃: 왼쪽 대칭
블록 크기: 128K장치 역할: 활성 장치 1
어레이 상태: AAA. ('A' == 활성, '.' == 누락)
/dev/sdc:
Magic: a92b4efc
버전: 1.2
기능 맵: 0x0
Array UUID: 7d2a94ca:d9a42ca9:a4e6f976:8b5ca26b
이름: BruceLee:0(호스트 BruceLee 로컬)
생성: 2013년 2월 4일 월요일 23:07:01
레이드 레벨: raid5
레이드 장치: 4사용 가능한 개발 크기: 5860271024(2794.40 GiB 3000.46 GB)
어레이 크기: 8790405888(8383.18 GiB 9001.38 GB)
사용된 개발 크기: 5860270592(2794.39 GiB 3000.46 GB)
데이터 오프셋: 262144 섹터
오프셋: 8 섹터
상태 :활성
장치 UUID: 9dc56e9e: d6b00f7a :71da67c7:38b7436c업데이트됨: 2014년 12월 27일 토요일 20:54:55
체크섬: 749b3dba - 올바른
이벤트: 17012레이아웃: 왼쪽 대칭
블록 크기: 128K장치 역할: 활성 장치 2
어레이 상태: AAA. ('A' == 활성, '.' == 누락)
/dev/sdd:
Magic: a92b4efc
버전: 1.2
Feature Map: 0x0
Array UUID: 7d2a94ca:d9a42ca9:a4e6f976:8b5ca26b
이름: BruceLee:0(호스트 BruceLee 로컬)
생성: 2013년 2월 4일 월요일 23:07:01
레이드 레벨: raid5
레이드 장치: 4사용 가능한 개발 크기: 5860271024(2794.40 GiB 3000.46 GB)
어레이 크기: 8790405888(8383.18 GiB 9001.38 GB)
사용된 개발 크기: 5860270592(2794.39 GiB 3000.46 GB)
데이터 오프셋: 262144 섹터
오프셋: 8 섹터
상태 :청소
장치 UUID: 81e5776f: 2a466bee :399251a0:ab60e9a4업데이트됨: 2014년 11월 2일 일요일 09:07:02
체크섬: cb4aebaf - 올바른
이벤트: 159레이아웃: 왼쪽 대칭
블록 크기: 128K장치 역할: 활성 장치 3
어레이 상태: AAAA('A' == 활성, '.' == 누락)
Ubuntu 디스크 관리자에서 디스크를 확인할 때 sda/b/c는 정상적으로 표시되고 sdd는 정상적으로 표시되지만 64개의 불량 섹터가 있습니다.
내가 달리면fsck /dev/md0
그것은 말한다:
fsck.ext2: /dev/md0을 열려고 할 때 인수가 잘못되었습니다.
슈퍼블록을 읽을 수 없거나 유효한 ext2/ext3/ext4
파일 시스템이 설명되지 않았습니다. 장치가 유효하고 ext2/ext3/ext4
파일 시스템(스왑, ufs 또는 기타 파일 시스템과 반대)을 포함하는 경우 슈퍼 블록이
손상된 것이므로 대체 슈퍼 블록으로 e2fsck를 실행할 수 있습니다:
e2fsck -b 8193 <device>
또는
e2fsck -b 32768 <장치>
마지막으로 내가 달리면
mdadm --examine /dev/sd[a-d] | egrep 'Event|/dev/sd'
나는 얻다:
/dev/sda:
이벤트: 17012
/dev/sdb:
이벤트: 17012
/dev/sdc:
이벤트: 17012
/dev/sdd:
이벤트: 159
내가 실행하면 cat /proc/mdstat
다음을 얻습니다.
특성: [선형] [다중 경로] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : 비활성 sdb[1](S) sdc[2](S) sdd[3]( S) sda[0](S)
1172054204 성격: [선형] [다중 경로] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0: 비활성 sdb[1](S) sdc[ 2](S ) sdd[3](S) sda[0](S)
11720542048 블록 슈퍼 1.2사용하지 않는 장치: <없음>
1.2 이상 8위안
사용하지 않는 장치: <없음>
마지막 실행file -s /dev/md0
나는 얻다:
/dev/md0: 비어 있음
기본적으로 RAID에서 --assemble을 실행해야 할 것 같은데 데이터 손실이 걱정되고 네 번째 드라이브도 약간 걱정됩니다.
다시 시작하고 실행하기 위한 다음으로 가장 좋은 논리적 단계를 제안할 수 있는 사람이 있습니까?
답변1
저는 다음 전략을 구현하여 가장 큰 성공을 거두었습니다.
# mdadm --stop /dev/md0
# mdadm --create /dev/md0 --metadata=1.2 --level=5 --raid-devices=4 --chunk=128 --layout=left-symmetric /dev/sda1 /dev/sdb1 /dev/sdc1 missing
이렇게 하면 원래 사용된 것과 동일한 매개변수를 사용하여 장치가 생성됩니다. 이로 missing
인해 장치가 성능 저하 모드로 생성되어 디스크 재동기화가 발생하지 않습니다. 그런 다음 파일 시스템이 손상되지 않았는지 확인할 수 있습니다(불순한 종료 모듈로). 그렇다면 /dev/sdd1
어레이에 계속 추가할 수 있습니다.
# mdadm --add /dev/md0 /dev/sdd1
mdadm
/dev/sdd1
이제 기존 공격대 어레이에서 재구성됩니다.
물론, --stop
뒤에 a 를 수행하는 것을 선호할 수도 있지만 --assemble
과거에는 다른 디스크에 오류가 발생한 후 잘못된 디스크를 핫 플러그한 후 위의 방법이 저에게 효과적이었습니다.
/dev/sdd1이 4주 동안 오프라인 상태였던 것으로 보입니다. md 실패를 알리기 위해 일부 모니터링 스크립트를 사용하는 것이 좋습니다. 데비안에서는 /etc/cron.daily/mdadm
기본적으로 스크립트에 의해 자동으로 제공됩니다.
mdadm --monitor --scan --oneshot
mdadm
이 작업은 데몬으로 실행하여 수행 할 수도 있습니다 .
mdadm --monitor --pid-file /run/mdadm/monitor.pid --daemonise --scan --syslog
물론 알림을 받을 이메일 주소를 제공할 수 있습니다. 이 경우 시스템에서 이메일을 보낼 수 있어야 합니다.--mail [email protected]