장치를 제거하기 위해 LVM 축소

장치를 제거하기 위해 LVM 축소

센토스 7이 있어요

mdadm을 사용하여 생성된 7개 드라이브 RAID6 어레이가 있습니다. (WD 4TB Red 드라이브에 쓴 글입니다.)

저는 RAID 어레이를 LVM PV로 설정했습니다. 모두 수년간 잘 작동해 왔습니다.

LVM의 드라이브 공간이 거의 부족합니다. 아래 표시된 대로 추가 공간을 추가하고 싶습니다.

1) 2개의 WD RED 6TB 드라이브를 구입하고 mdadm에서 RAID1 세트를 생성합니다. 2) PV를 생성하여 LVM에 RAID 세트를 제공합니다. 3) 추가 6TB 디스크 공간을 사용하여 LV를 확장합니다.

그러나 LV 6TB를 더 크게 만들고 싶지는 않습니다. 제가 달성하고 싶은 최종 결과는 RAID6 어레이에서 4TB 드라이브 중 하나를 제거하여 총 디스크 공간을 효과적으로 2TB 늘리는 것입니다.

내가 취해야 할 높은 수준의 단계는 다음과 같습니다.

1) 2개의 6TB 드라이브로 구성된 RAID1 어레이 생성(예: /dev/md1) 2) 6TB를 LVM 파티션으로 분할 3) 6TB 공간이 있는 PV 생성 4) 기존 VG에 PV 추가 5) 추가 RAID6 VG에서 4TB 익스텐트를 확보하기 위해 적절한 수의 익스텐트를 6TB PV로 이동했습니다.

이제 좀 흐릿해지기 시작했어요. 그럴 것 같아요.

6) RAID6 VG를 축소하여 4TB의 여유 디스크 공간을 확보합니다. 7) RAID6 어레이의 디스크 수를 줄입니다. 8) 케이스를 종료하고 죽은 드라이브를 제거하시겠습니까?

6), 7), 8)을 구체화해야 합니다. 제가 올바른 방향으로 가고 있는지 알려주세요.

RAID6 어레이의 상태는 양호합니다. 폐기된 드라이브를 백업 기능을 수행하는 보조 장치로 이동할 예정입니다.

답변1

귀하의 설명은 다소 정확합니다.

그러나 이는 상당히 복잡한 프로세스입니다. pvmove현재 PV의 마지막 4TB에서 범위를 확장한 다음 전체 RAID6 어레이의 크기를 다시 조정해야 합니다(5.1.5 이전 커널 5.1.x에는 RAID6 손상 버그가 있었습니다). , 그리고 손가락을 교차시키세요 그리고 아무 일도 일어나지 않기를 바랍니다.

제가 달성하고 싶은 최종 결과는 RAID6 어레이에서 4TB 드라이브 중 하나를 제거하여 총 디스크 공간을 효과적으로 2TB 늘리는 것입니다.

4TB 드라이브를 모두 버릴 계획이 아니라면 다르게 할 것입니다. 즉, 6TB 드라이브를 분할하여 4TB RAID6 어레이에 참여시키는 것입니다.

4TB 드라이브를 제거하려고 하므로 mdadm --replace6TB 드라이브(4TB 파티션이 있는)로 교체하세요. 그런 다음 4TB 드라이브를 마음대로 다른 상자로 이동할 수 있으며 RAID6 어레이의 크기는 동일하게 유지됩니다.

mdadm --grow --raid-devices=8 --add그런 다음 또 다른 6TB 드라이브(위의 4TB 파티션) 가 있습니다 . 이 단계에서는 RAID6 PV가 4TB 증가했습니다.

이 시점에서는 6TB 드라이브 중 4TB만 사용됩니다. 나머지 2TB 파티션을 사용하여 RAID1 어레이를 구축하고 2TB의 사용 가능한 저장 공간을 추가할 수 있습니다.

이렇게 하면 총 디스크 공간이 6TB까지 효과적으로 늘어나며, 이중 4TB는 양방향 중복으로 처리됩니다.

내 모든 RAID 어레이는 이런 방식으로 구축되었습니다. 모든 드라이브를 동일한 크기의 세그먼트로 분할하여 중복성을 희생하지 않고 드라이브 크기를 혼합하고 저장 효율성을 최대화할 수 있습니다. 또한 모든 위험을 감수하는 대신 데이터 우선 가소성 작업의 작은 부분에서 위험한 중복성을 실행할 수 있습니다. 한 위치에서 드라이브에 오류가 발생하면 영향을 받은 세그먼트만 성능이 저하되고 --replace문제가 있는 드라이브가 발견될 때까지 다른 세그먼트는 완전히 중복된 상태로 유지됩니다.

관련 정보