배경 저는 최근 RAID 1 중복성을 갖춘 Synology NAS의 Linux RAID에 3.0TB 칩을 가지고 있었습니다. 최근에 8.0TB 드라이브 2개를 구입했고 3.0TB 드라이브를 백업하고 싶지만 Synology가 계속 무작위로 종료되고 고급 순간이 발생합니다. 이 문제를 해결하기 위해 모든 드라이브를 Linux Mint 18.x Live를 실행하는 컴퓨터에 넣었습니다. 3.0TB RAID를 8.0TB RAID로 재동기화할 수 있도록 두 개의 RAID를 설치하려고 합니다.
질문
어떤 공격대도 재구축할 수 없으므로 어떤 드라이브에도 액세스할 수 없습니다. 내 fidsk -l
결과는 다음과 같습니다.
mint ~ # fdisk -l
Disk /dev/loop0: 1.5 GiB, 1618886656 bytes, 3161888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/nvme0n1: 477 GiB, 512110190592 bytes, 1000215216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: DB2D71AC-EF2C-4540-A8E5-03C5D8F72D01
Device Start End Sectors Size Type
/dev/nvme0n1p1 40 409639 409600 200M EFI System
/dev/nvme0n1p2 409640 552935535 552525896 263.5G Apple HFS/HFS+
/dev/nvme0n1p3 552935536 554205071 1269536 619.9M Apple boot
/dev/nvme0n1p4 554205184 554237951 32768 16M Microsoft reserved
/dev/nvme0n1p5 554237952 1000214527 445976576 212.7G Microsoft basic data
Disk /dev/sda: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 0A352E59-20D3-4471-AE03-F44E1C73E3EE
Device Start End Sectors Size Type
/dev/sda1 2048 4982527 4980480 2.4G Linux RAID
/dev/sda2 4982528 9176831 4194304 2G Linux RAID
/dev/sda5 9453280 15627846239 15618392960 7.3T Linux RAID
Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: FDB68AFA-6AA2-4AFF-B950-A65803C3E831
Device Start End Sectors Size Type
/dev/sdb1 256 4980735 4980480 2.4G Linux RAID
/dev/sdb2 4980736 9175039 4194304 2G Linux RAID
/dev/sdb3 9437184 5860328351 5850891168 2.7T Linux RAID
Disk /dev/sdc: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 655B6D2C-8FDB-40B2-8A57-4A4C6CEA81FA
Device Start End Sectors Size Type
/dev/sdc1 2048 4982527 4980480 2.4G Linux RAID
/dev/sdc2 4982528 9176831 4194304 2G Linux RAID
/dev/sdc5 9453280 15627846239 15618392960 7.3T Linux RAID
Disk /dev/sdd: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: AB7A0C0E-F0F0-4169-A6CC-AFD36D13706B
Device Start End Sectors Size Type
/dev/sdd1 40 409639 409600 200M EFI System
/dev/sdd2 409640 976510983 976101344 465.5G Apple HFS/HFS+
Disk /dev/sde: 14.9 GiB, 16008609792 bytes, 31266816 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 112D01E3-9B10-4E53-831E-6122DE30212F
Device Start End Sectors Size Type
/dev/sde1 40 409639 409600 200M EFI System
/dev/sde2 409640 31004631 30594992 14.6G Apple HFS/HFS+
Disk /dev/sdf: 3.8 GiB, 4026531840 bytes, 7864320 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: C0FCDDB9-DB52-4F40-8615-EB3CE0E2D4F4
Device Start End Sectors Size Type
/dev/sdf1 2048 7864286 7862239 3.8G Microsoft basic data
중요한 유일한 드라이브는/dev/sda, /dev/sdb, /dev/sdc
내가 시도한 것들
mdadm -Asf && vgchange -ay
Synology 웹사이트를 기반으로 반환된 권장 사항
mdadm: Devices UUID-f2e5c234:6e894003:d490d253:6ab62f4d and UUID-f8782d0e:605a2e0e:4c50beb7:39f5970b have the same name: /dev/md/2
mdadm: Duplicate MD device names in conf file were found.
좋은 mdadm --assemble --scan
수익도 마찬가지입니다.
mdadm --stop /dev/sdb
나도 읽으면서 시도해봤어여기. 정리하자면, mdadm이 드라이브를 소유하고 있어서 정상적으로 마운트할 수 없다고 하는데, 드라이브이기 때문에 mdadm raid 메타데이터를 파기하고 정상적으로 마운트하면 됩니다. 이 코드는 다음을 반환합니다.
mdadm --stop /dev/sdb
mdadm: /dev/sdb does not appear to be an md device
단일 드라이브를 독립적으로 마운트하려고 시도한 후 mdadm -A /dev/sdb
반환되었습니다.
mdadm: /dev/sdb does not appear to be an md device
내가 일이 망가지지 않았다고 생각하는 이유 나는 과거에 죽은 형제도 연결되어 있던 3.0TB /dev/sdb 드라이브를 성공적으로 마운트했습니다. 이러한 경우 mdadm은 단순히 하나의 드라이브로 어레이를 구축했다고 말합니다. 이 8.0TB 드라이브는 RAID 1 구성이 아니라 Synology Hybrid RAID에 있지만 방금 Synology 서버에서 꺼냈기 때문에 작동한다는 것을 알고 있으며 이것이 어떤 차이가 있는지 모르겠습니다.
내가 생각하는 문제는 무엇인가
나는 솔직히 (내 극도로 제한된 경험에 비추어) 동일한 시스템에 두 개의 RAID 어레이가 동시에 있어서 mdadm을 혼란스럽게 하는 데서 문제가 발생한다고 믿습니다. 내 생각에 해결책은 /etc/mdadm.conf
어떤 RAID가 어떤 RAID에 속하는지 지정하고 어셈블리를 다시 시도하는 편집과 관련이 있을 수 있다고 생각합니다 . 그러나 어레이를 재구축하려는 독립적인 시도는 드라이브가 md 장치로 나타나지 않는 것으로 나타났습니다. 그래서 지금은 무엇을 해야할지 모르겠습니다.