Solaris svm 및 raid5: 동적으로 확장하는 방법?

Solaris svm 및 raid5: 동적으로 확장하는 방법?

UFS를 사용하여 Solaris svm에서 raid5를 확장하는 두 가지 방법을 알고 있습니다. 하나는 다음과 같습니다.이것 다른 하나는 디스크를 하나씩 교체하는 것인데, 이 프로세스를 사용하여 오래된 작은 디스크를 제거하고 더 큰 디스크로 교체하고 싶다고 가정해 보겠습니다.

devfsadm
cfgadm -c configure sata2/0
format -d c0t5d0
metadb -a -f c0t5d0s2
metareplace -e myraid c0t4d0s2 c0t5d0s2
metadb -d c0t4d0s2
cfgadm -c unconfigure c0t4d0s2

위의 방법을 사용하여 모든 디스크를 교체했으며 내 raid5는 온라인 상태이며 Metastat에서 말한 대로 문제가 없습니다.

metadevadm -vr

그리고

growfs -M /raid /dev/md/rdsk/d44

크기는 기존 디스크의 RAID와 동일하며, 디스크를 더 큰 것으로 교체했기 때문에 잘못된 것입니다. Linux에서 raid5 디스크를 동적으로 교체하고 raid5를 동적으로 늘리는 것은 정말 쉽습니다(mdadm 실패, 추가, 성장, pvresize..). Solaris svm에서 뭔가 빠졌나요? 첫 번째 방법(연결 + 확장)도 좋지만 오래된(소형) 디스크를 새(대형) 디스크로 교체하고 싶습니다. zfs에 대답하지 마십시오. "학습" 이유로 저는 ufs+svm을 사용합니다.

답변1

SVM을 다루게 된지는 꽤 되었지만 원하는 대로 하는 것은 불가능하다는 BitsOfNix의 의견에 동의하는 경향이 있습니다. 메모리는 SVM의 RAID 1을 사용하여 원하는 작업만 수행할 수 있다는 것입니다.

metastat더 큰 디스크와 "RAID 장치"에 대해 블록 크기가 변경되었음을 확인하셨습니까 ?

내 생각엔 당신도 성장하기 전에 한 단계가 부족한 것 같아요. 메모리는 성장하기 전에 "RAID 장치"를 확장하는 데 필요한 슬라이스입니다. SVM에서 RAID1을 사용한 다음 Metasync를 사용하여 미러링하시겠습니까? SVM의 RAID5에 대해 유사한 작업을 수행해야 할 수도 있습니다.

"연구"를 위해 이 작업을 수행한다고 언급하셨지만 SVM은 다양한 요구 사항에 대해 서로 다른 시간에 생성되고 사용되었기 때문에 SVM을 mdadm과 비교하는 것이 공정한지 잘 모르겠습니다.

관련 정보