14개의 HD(각각 16Tb)가 있는 Raid 6 구성이 있으며 다음과 같이 구성되어 있습니다.
/dev/md0 /swap
/dev/md1 /boot
/dev/md2 /
/dev/md3 /home
드라이브는 다음과 같습니다.
sda,sdb,sdc...sdn
각 유니티는 다음과 같이 구성됩니다.
/dev/md0 -> sda1,sdb1,sdc1...sdn1)
/dev/md1 -> sda2,sdb2,sdc2...sdn2)
/dev/md2 -> sda3,sdb3,sdc3...sdn3)
/dev/md3 -> sda4,sdb4,sdc4...sdn4)
오늘 저는 2개의 드라이브(sda 및 sdj)에 장애가 발생하여 서버가 다운되었다는 사실을 알게 되었습니다. 나는 RAID 소프트웨어가 이 문제를 자동으로 해결하고, 어레이에서 고장난 드라이브를 제거하고, 이메일을 통해 나에게 알릴 것이라고 생각했습니다. 대신, 나는 내 서버가 다운되었고 RAID 소프트웨어가 /dev/md2(파일 시스템의 루트를 가리키는)를 추방했기 때문에 서버를 다시 시작할 수도 없다는 것을 발견했습니다.
호스팅 서비스 문서에서는 이 상황을 관리하는 방법을 설명하지 않고 드라이브 교체, 추가 및 제거 명령만 제공하므로 내 질문은 다음과 같습니다. 추가할 때 "핫"을 선택하지 않았다는 사실에 따라 이 동작이 달라질 수 있습니까? 레이드 기간 스왑" 유형 드라이브?
새 드라이브를 2개의 핫 스페어로 사용하려면 이를 사용해야 합니까?
SDA Drive
mdadm /dev/md0 -a --spare /dev/sda1
mdadm /dev/md1 -a --spare /dev/sda2
mdadm /dev/md2 -a --spare /dev/sda3
mdadm /dev/md3 -a --spare /dev/sda4
SDJ Drive
mdadm /dev/md0 -a --spare /dev/sdj1
mdadm /dev/md1 -a --spare /dev/sdj2
mdadm /dev/md2 -a --spare /dev/sdj3
mdadm /dev/md3 -a --spare /dev/sdj4
이것 대신?
mdadm /dev/md0 -a /dev/sda1
mdadm /dev/md1 -a /dev/sda2
mdadm /dev/md2 -a /dev/sda3
mdadm /dev/md3 -a /dev/sda4
mdadm /dev/md0 -a /dev/sdj1
mdadm /dev/md1 -a /dev/sdj2
mdadm /dev/md2 -a /dev/sdj3
mdadm /dev/md3 -a /dev/sdj4
당신의 도움에 감사드립니다