mdadm

/dev/md0이 /dev/md127로 변경되었습니다.
mdadm

/dev/md0이 /dev/md127로 변경되었습니다.

나는더반서버(최신 버전 및 모든 보안 업데이트 완료), 3년 전에 3개 이상의 디스크가 포함된 RAID-5를 만들었습니다 mdadm. 여전히 작동하지만 이제 도구에서 오류가 발생합니다 logwatch. 오늘에서야 알게 됐는데, 얼마나 오랫동안 거기 있었는지 모르겠어요. 또한 모든 로그 파일에 오류가 없습니다. 전체 RAID-5를 사용하므로 lvm다음에 제공된 솔루션을 사용하는 방법을 모르겠습니다.내 RAID 1은 재부팅 후 항상 이름이 /dev/md127로 변경됩니다. |". 나는 또한 달렸 upda...

Admin

파티션을 파괴하지 않고 RAID 1 어레이를 다시 생성할 수 있습니까?
mdadm

파티션을 파괴하지 않고 RAID 1 어레이를 다시 생성할 수 있습니까?

이전에 mdadm을 사용하여 RAID 1 어레이를 만들었습니다. 드라이브 중 하나가 고장나서 제거했습니다. 교체를 기다리는 동안 남은 디스크를 계속 사용하고 싶습니다. 원래 배열을 만드는 데 사용한 명령이 없습니다. 나머지 작업 디스크는 다음과 같습니다. # fdisk -l /dev/sda Disk /dev/sda: 7.28 TiB, 8001563222016 bytes, 15628053168 sectors Disk model: ST8000VN004-3CP1 Units: sectors of 1 * 51...

Admin

Ubuntu에서 Synology 외부에서 Synology 시스템을 재구축하는 데 도움이 필요합니다.
mdadm

Ubuntu에서 Synology 외부에서 Synology 시스템을 재구축하는 데 도움이 필요합니다.

저는 Synology 12베이 시스템(6TB 드라이브 8개 및 핫 스왑 가능 9개)이 고장 났고 새 Synology를 구입할 가치가 없다고 느꼈기 때문에 드라이브 중 하나를 제외한 모든 드라이브로 큰 타워를 만들었습니다. 틀렸습니다. 그래서 재생성 불가능한 항목을 복사할 수 있도록 우분투에 나머지 항목을 설치하는 방법을 찾으려고 노력하고 있으며 그런 다음 unraid 시스템으로 이동하겠습니다. mdadm과 gparted를 사용하면 문제를 해결할 수 없습니다. 8개 드라이브 중 7개는 GParted에서...

Admin

제휴되지 않은 Ubuntu 환경에서 기존 Iomega NAS 드라이브를 설치할 때 문제가 발생함
mdadm

제휴되지 않은 Ubuntu 환경에서 기존 Iomega NAS 드라이브를 설치할 때 문제가 발생함

저는 StackExchange Unix & Linux 커뮤니티 보드에 먼저 글을 올렸습니다. 제가 찾고 있던 유형의 답변이 가장 적합한 곳인 것 같았기 때문입니다. 누군가가 나를 올바른 방향으로 가리킬 수 있기를 바랍니다. 지난 이틀 동안 Iomega HMNHD CE의 기존 드라이브에 액세스하려고 했습니다(여기 참조:http://iomega.nas-central.org/wiki/Category:Home_Media_CE), 내가 아는 한 드라이브는 MD를 사용하여 "raid" 구성을 생성합니다(...

Admin

SSH를 통해 로그인할 때 RAID 드라이브의 마운트 지점을 사용할 수 없습니다.
mdadm

SSH를 통해 로그인할 때 RAID 드라이브의 마운트 지점을 사용할 수 없습니다.

내 컴퓨터에 mdadm RAID 어레이를 설치했습니다 sudo mount /dev/md0 /mnt/raid. 설치가 성공적으로 완료되어 드라이브에 액세스할 수 있었습니다. RAID 어셈블리도 성공하여 깨끗한 상태입니다. 예전에는 내 컴퓨터에 SSH를 통해 접속할 수 있었고 여전히 액세스할 수 있었지만 /mnt/raid업데이트 후 SSH를 통해 로그인할 때 마운트 지점이 표시되지 않습니다. /mnt/raid내 컴퓨터에 SSH로 접속할 때 이 문제를 해결하고 액세스를 복원하려면 어떻게 해야 합니까? 이것...

Admin

재부팅 후 mdadm RAID에 추가된 단일 드라이브가 사라짐
mdadm

재부팅 후 mdadm RAID에 추가된 단일 드라이브가 사라짐

동일한 문제가 있는 다른 사람들을 찾아보았지만 여기에 있는 모든 질문은 재부팅 후 전체 RAID가 사라지는 것에 관한 것으로 보이며 문제가 있는 멤버 드라이브는 하나만 있습니다. 이것은 비디오 제작 기계이며 지난 주(CentOS 7에서 Rocky 8로 업그레이드한 후) 비디오 재생으로 인해 비디오에 시각적 아티팩트가 생성되는 것을 발견했습니다. 모든 비디오는 연결된 RAID에 저장됩니다. RAID 60이므로 각각 12개의 1.2TB 드라이브를 포함하는 두 개의 RAID6이 있고 이 두 개의 RAID6...

Admin

디스크 크기 업그레이드 시 RAID 크기 늘리기/조정
mdadm

디스크 크기 업그레이드 시 RAID 크기 늘리기/조정

부팅 파티션이 RAID1이고 루트와 VM 이미지가 있는 파티션이 RAID10인 Linux RAID 설정에 8개의 디스크가 있는 서버가 있습니다. 더 큰 디스크로 변경하고 RAID 크기를 늘려 VM 이미지가 있는 파티션에 추가 공간을 모두 넣어야 합니다. 각 디스크의 파티션 설정은 다음과 같습니다. Disk /dev/sda: 480.1 GB, 480103981056 bytes, 937703088 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (...

Admin

기존 RAID1 볼륨을 Proxmox의 LVM으로 마이그레이션
mdadm

기존 RAID1 볼륨을 Proxmox의 LVM으로 마이그레이션

참고: 읽었습니다.SW MD RAID1 어레이를 LVM 미러로 변환하는 방법은 무엇입니까?그런데 꽤 오래된 글이라 이런 질문을 드리고 싶었습니다. 이것은 나의 첫 번째 기사입니다. 보존하려는 데이터가 포함된 sw RAID1(2개의 8TB HDD, Windows 디스크 관리에 정상 이미지로 제공) 어레이가 있습니다. 처음에는 Intel Rapid Storage Technology로 구성되었습니다. 현재는 다른 백업을 만들 수 있는 추가 공간이 없습니다. 이러한 드라이브는 ext4 LVM 파일 시스템(P...

Admin

데비안, livecd 대신 initramfs 스크립트를 사용하여 md 이름을 변경하는 방법은 무엇입니까?
mdadm

데비안, livecd 대신 initramfs 스크립트를 사용하여 md 이름을 변경하는 방법은 무엇입니까?

MD가 활성화된 상태에서 MD 이름을 변경할 수 있나요? 내가 아는 한 그것은 불가능하다. mdadm -A --update=name --name=ibmlinux-root /dev/md126 ls /dev/md/126_0 /dev/md/126_0 ls /dev/md/ibmlinux-root error: no such file or directory 그냥 중지하고 이름을 업데이트하고 다시 조립하세요. mdadm --stop /dev/md126 mdadm -A --update=name --name=i...

Admin

소프트웨어 RAID를 유지하면서 NAS 배포판을 Debian 9에서 12로 업데이트합니다.
mdadm

소프트웨어 RAID를 유지하면서 NAS 배포판을 Debian 9에서 12로 업데이트합니다.

NAS로 사용하는 컴퓨터를 데비안 9에서 12로 업그레이드해야 하는데 업그레이드 대신 새로 설치를 하고 싶습니다. 내 컴퓨터에는 다음이 있습니다. 1 부팅용 SSD(sda) 2 HD raid 1(sdb + sdc) 2 HD raid 1(sdd + sde) 사용자 구성은 신경 쓰지 않습니다. /etc구성을 백업하고 수동으로 다시 생성할 수 있으며, 이전 구성을 읽고 데비안 12에서 제공하는 최신 기본 등 구성에서 nano를 사용하여 수동으로 업데이트할 수 있습니다. 시간이 많이 지났고 일부 구문이 ...

Admin

Raid0+1 - dmraid의 예상치 못한 결과
mdadm

Raid0+1 - dmraid의 예상치 못한 결과

기존 Raid0 어레이에 4개의 1.8TB HDD(2TB)가 있습니다. /dev/md127 /dev/md127: Version : 1.2 Creation Time : Fri Mar 31 21:34:58 2017 Raid Level : raid0 Array Size : 7813533696 (7.28 TiB 8.00 TB) Raid Devices : 4 Total Devices : 4 Persistence : Sup...

Admin

이전에 작동하는 RAID 1 디스크에서 데이터 복구
mdadm

이전에 작동하는 RAID 1 디스크에서 데이터 복구

저는 데비안 12 시스템을 실행하고 있습니다. 시스템은 미러링된 SSD 2개가 /root/있는 RAID1 어레이에 있습니다 mdadm(디스크 A와 B라고 부르겠습니다). 모든 디스크가 정상적으로 작동하고 있습니다. 두 개의 SSD A와 B(X와 Y라고 부르겠습니다)를 더 큰 SSD로 교체하고 싶습니다. 간단히 A를 분리하고 X를 연결한 다음 X를 다시 RAID 어레이에 추가하여 A를 X로 교체합니다. 동기화되었으며 모든 것이 잘 작동합니다. 그런 다음 RAID 배열을 확장하려고 시도했지만 mdadm오...

Admin

Linux 소프트웨어 RAID6 어레이에서 두 개의 드라이브를 교체하는 가장 좋은 방법
mdadm

Linux 소프트웨어 RAID6 어레이에서 두 개의 드라이브를 교체하는 가장 좋은 방법

저는 몇 년 동안 데비안에서 8x2TB RAID 6 mdadm 어레이를 실행해 왔습니다. 마지막 어레이 검사에서는 오류가 발견되지 않았지만 여러 드라이브의 SMART 데이터에 일부 불량 섹터가 표시되었습니다. 파일이 손실되기 전에 드라이브를 좋은 드라이브로 교체하고 싶습니다. 모든 드라이브 슬롯이 꽉 찼지만 기존 드라이브를 연결하고 새 드라이브에 데이터를 복사할 수 있도록 USB3-SATA 어댑터 두 개를 주문했습니다. 두 개의 드라이브를 교체하는 가장 좋은 방법은 무엇입니까? 작업 중에 어레이를 오...

Admin

재부팅 후 어레이가 사라졌거나 파티션이 올바르게 마운트되지 않았습니까?
mdadm

재부팅 후 어레이가 사라졌거나 파티션이 올바르게 마운트되지 않았습니까?

일반 mdadm 프로세스를 사용하여 두 드라이브(sde 및 sdf)에 대한 raid-1 어레이를 생성하고 이를 md1 아래에 생성한 후 /mnt/storage에 마운트했습니다. 재부팅 후에는 md1이 더 이상 존재하지 않습니다. 내 /mnt/plex는 잘 작동합니다. 내 어레이가 사라졌습니까? 아니면 파티션이 올바른 마운트 지점을 가리키기만 하면 됩니까? 달리기가 lsblk나에게 준 NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS loop0 7...

Admin