1개의 큰 드라이브를 사용하는 RAID 2개의 작은 드라이브

1개의 큰 드라이브를 사용하는 RAID 2개의 작은 드라이브

RAID 어레이를 재설정해야 했고 크기가 다른 일부 디스크에 직면했습니다. 2x 5TB 드라이브와 1개의 8TB 드라이브를 사용하여 RAID 1 미러를 만들고 싶습니다. 이 작업을 수행하는 가장 좋은 방법이 확실하지 않습니다.

지금까지 생각나는 두 가지 옵션...

1. LVM 2x 5TB 및 다른 8TB 디스크를 사용하여 mdadm raid 1에 추가

둘째, 8TB에 2개의 파티션을 생성하고 2개의 raid1 파티션을 생성하여 LVM에 병합합니다.

결국에는 하나의 파티션만 마운트하고 싶습니다. 상황을 더 복잡하게 만들기 위해 RAID가 아닌 RSYNC를 통한 수동 백업일 수 있는 다른 디스크를 추가하려고 합니다. 이 디스크를 RAID1을 사용하여 단일 설치로 프로비저닝하고 싶으므로 LVM을 사용하여 최종 RAID를 프로비저닝할 수도 있습니다.

옵션 1에 대한 나의 관심사는 LVM을 RAID1 /dev/md0에 추가한 다음 /dev/md0 + 다른 디스크를 다른 LVM에 추가하는 것입니다.

데이터를 크게 수정하고 입력 내용을 찾는 것이 약간 걱정됩니다. 문제를 분석하기 위해 나는 raid1에 3개의 디스크를 사용하는 것에 대한 이 질문에 주로 초점을 맞추고 있는데 그 중 두 개는 작고 하나는 큽니다. 그러면 다음 부분에 집중할 수 있어요.

감사합니다. 추가 정보가 필요하면 알려주시기 바랍니다.

고쳐 쓰다:

새로운 도구를 배우기 위해 이제 mdadm과 함께 ZFS를 사용하는 것을 고려하고 있습니다. 예를 들어 LVM을 사용하여 2x 5TB 풀을 생성한 다음 lvm + 8tb HDD의 ZFS 풀을 생성합니다. 괜찮나요? > ZFS가 디스크에 대한 직접 원시 액세스를 기대한다는 내용을 읽었으며 이 경우 LVM이 작동할 수 있는지 궁금합니다.

답변1

이와 같이 ZFS를 사용하는 것은 "권장"되지는 않지만 정상적으로 작동합니다. mdadm을 사용하여 두 개의 5Tb 드라이브를 함께 연결한 다음 장치를 ZFS로 전달하는 것은 전적으로 가능합니다.

대규모 프로덕션 시스템에 ZFS를 적용하는 방법에 대한 많은 조언이 있지만 이러한 제안은 데이터 무결성 보호를 위해 ZFS를 사용하려는 소규모 사용자에게는 적합하지 않습니다.

나는 당신이 최신 Linux disto를 사용하고 있다고 가정합니다. 이 경우:

mdadm --create /dev/md/twosmall /dev/disk/by-id/small1 /dev/disk/by-id/small2 --level=0 --raid-devices=2

/dev/md/twosmall에 10Tb 장치가 생성됩니다. 그런 다음:

zpool create -f eight mirror /dev/md/twosmall /dev/disk/by-id/large

zfs 풀은 조합에서 생성됩니다.

-f여기서 주의하십시오 . 그렇지 않으면 zpool create장치 크기가 다르기 때문에 명령이 실패합니다. -f다른 오류 메시지가 없는지 확인하려면 먼저 사용하지 않고 실행하는 것이 좋습니다 .

twosmalleightmdadm raid 및 zfs 풀에 대해 무작위로 선택한 이름이므로 적절한 /dev/disk/by-id이름으로 바꿔야 합니다. 나는 이 명령을 사용하여 ls -l /dev/disk/by-id | grep -v part | grep -v wwn | sort -k 11/dev/sd?로 정렬된 내 시스템의 드라이브 목록을 가져옵니다. 바로가기.

답변2

결국 제가 한 일은 Linux에서 고양이 스킨을 만드는 방법은 여러 가지였습니다. 같은 크기의 드라이브 2개가 필요하다고 말한 사람은 창의적이지 않았습니다!

참고: ZFS는 전체 디스크를 갖고 싶어하므로 파티션에서 디스크를 사용하면 일부 기능이 손실되므로 조사해 보세요. 하지만 홈 서버/데이터 저장소 풀의 경우에는 이것이 괜찮다고 확신합니다.

ZFS를 사용하여 다음과 같이 파티션을 만들었습니다.

1x4TB /dev/sda1
1x1TB /dev/sda2

1x4TB /dev/sdb1
1x1TB /dev/sdb2

1x4TB /dev/sdc1
1x4TB /dev/sdc2

그런 다음 ZFS를 사용하여 다음과 같이 이미지를 만듭니다.

/dev/sda1 /dev/sdc1 # 8TB
/dev/sdb1 /dev/sdc2 # 8TB
/dev/sda2 /dev/sdb2 # That leftover 1TB, might as well not waste it!

결국 저는 MergeFS를 사용하여 모든 것을 "OS/최종 사용자"에 대한 단일 마운트 지점으로 제시했습니다.

참고: mhddfs저는 mergefs.

관련 정보