ZFS 사용 시 손상된 디스크를 새 디스크로 교체하는 방법뿌리?
zroot를 사용하는 4개의 디스크 RAIDZ2 풀이 있습니다. 이는 ZFS가 별도의 시스템에서 실행됨을 의미합니다.전체 디스크를 사용하는 대신 파티션을 나누세요. 이 상황에서 디스크를 교체하는 방법에 대한 문서를 찾지 못했거나 해당 정보가 더 이상 사용되지 않습니다. 풀은 설치 시 자동으로 생성됩니다.
Camcontrol 장치 목록:
% doas camcontrol devlist -v
scbus0 on mpt0 bus 0:
<> at scbus0 target -1 lun ffffffff ()
scbus1 on ahcich0 bus 0:
<> at scbus1 target -1 lun ffffffff ()
scbus2 on ahcich1 bus 0:
<> at scbus2 target -1 lun ffffffff ()
scbus3 on ahcich2 bus 0:
<ST2000DM001-1CH164 CC43> at scbus3 target 0 lun 0 (pass0,ada0)
<> at scbus3 target -1 lun ffffffff ()
scbus4 on ahcich3 bus 0:
<ST2000DM001-1CH164 CC43> at scbus4 target 0 lun 0 (pass1,ada1)
<> at scbus4 target -1 lun ffffffff ()
scbus5 on ahcich4 bus 0:
<ST2000DM001-1CH164 CC43> at scbus5 target 0 lun 0 (pass2,ada2)
<> at scbus5 target -1 lun ffffffff ()
scbus6 on ahcich5 bus 0:
<SAMSUNG HD204UI 1AQ10001> at scbus6 target 0 lun 0 (pass3,ada3)
<> at scbus6 target -1 lun ffffffff ()
scbus7 on ahciem0 bus 0:
<AHCI SGPIO Enclosure 1.00 0001> at scbus7 target 0 lun 0 (pass4,ses0)
<> at scbus7 target -1 lun ffffffff ()
scbus-1 on xpt0 bus 0:
<> at scbus-1 target -1 lun ffffffff (xpt0)
기존 디스크의 gpart:
% gpart show ada0
=> 40 3907029088 ada0 GPT (1.8T)
40 1024 1 freebsd-boot (512K)
1064 984 - free - (492K)
2048 4194304 2 freebsd-swap (2.0G)
4196352 3902832640 3 freebsd-zfs (1.8T)
3907028992 136 - free - (68K)
zpool 상태:
% zpool status zroot
pool: zroot
state: DEGRADED
status: One or more devices has been removed by the administrator.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Online the device using 'zpool online' or replace the device with
'zpool replace'.
scan: scrub repaired 28K in 0h41m with 0 errors on Thu Sep 27 17:58:02 2018
config:
NAME STATE READ WRITE CKSUM
zroot DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
ada0p3 ONLINE 0 0 0
ada1p3 ONLINE 0 0 0
ada2p3 ONLINE 0 0 0
15120424524672854601 REMOVED 0 0 0 was /dev/ada3p3
errors: No known data errors
오프라인:
% doas zpool offline zroot 15120424524672854601
ada0에서 ada3으로 처음 몇 GiB를 복사하려고 시도했지만 dd
둘 다 오류가 zpool attach
발생했습니다 zpool replace
. /dev/ada3p3 is part of active pool 'zroot'
강제 플래그도 도움이 되지 않았습니다. 디스크 UUID 충돌이 있는 것 같습니다.
ada0-2p1-3
파티션을 새 디스크(ada3)에 복사/복사하고 고장난 드라이브를 교체하는 단계는 무엇입니까? 이러한 파티션을 생성하기 위해 자동 설치 프로그램은 어떤 명령을 먼저 실행합니까?
답변1
첫째: 새 드라이브를 오프라인으로 전환하고 어떤 방식으로든 마운트되거나 사용되지 않는지 확인하십시오.
이전 디스크의 파티션 테이블을 ada0
새 디스크에 복사합니다 ada3
.
% doas gpart backup ada0 | doas gpart restore -F ada3
이제 ada3
다음과 동일한 세 개의 파티션이 있습니다 ada0
.
% doas gpart show ada3
=> 40 3907029088 ada3 GPT (1.8T)
40 1024 1 freebsd-boot (512K)
1064 984 - free - (492K)
2048 4194304 2 freebsd-swap (2.0G)
4196352 3902832640 3 freebsd-zfs (1.8T)
3907028992 136 - free - (68K)
이전 ZFS 메타데이터 삭제(파티션 참고)p3):
% doas dd if=/dev/zero of=/dev/ada3p3
드라이브 교체(파티션 참고)p3):
% doas zpool replace -f zroot 15120424524672854601 /dev/ada3p3
Make sure to wait until resilver is done before rebooting.
If you boot from pool 'zroot', you may need to update
boot code on newly attached disk '/dev/ada3p3'.
Assuming you use GPT partitioning and 'da0' is your new boot disk
you may use the following command:
gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 da0
위 명령을 실행하여 새 디스크의 부팅 정보를 업데이트합니다.
% doas gpart bootcode -b /boot/pmbr -p /boot/gptzfsboot -i 1 ada3
partcode written to ada3p1
bootcode written to ada3
이제 UUID가 달라졌습니다.
% gpart list ada0 | grep uuid | sort
rawuuid: 7f842536-bcd0-11e8-b271-00259014958c
rawuuid: 7fbe27a9-bcd0-11e8-b271-00259014958c
rawuuid: 7fe24f3e-bcd0-11e8-b271-00259014958c
% gpart list ada3 | grep uuid | sort
rawuuid: 9c629875-c369-11e8-a2b0-00259014958c
rawuuid: 9c63d063-c369-11e8-a2b0-00259014958c
rawuuid: 9c66f76e-c369-11e8-a2b0-00259014958c
% gpart list ada0 | grep efimedia | sort
efimedia: HD(1,GPT,7f842536-bcd0-11e8-b271-00259014958c,0x28,0x400)
efimedia: HD(2,GPT,7fbe27a9-bcd0-11e8-b271-00259014958c,0x800,0x400000)
efimedia: HD(3,GPT,7fe24f3e-bcd0-11e8-b271-00259014958c,0x400800,0xe8a08000)
% gpart list ada3 | grep efimedia | sort
efimedia: HD(1,GPT,9c629875-c369-11e8-a2b0-00259014958c,0x28,0x400)
efimedia: HD(2,GPT,9c63d063-c369-11e8-a2b0-00259014958c,0x800,0x400000)
efimedia: HD(3,GPT,9c66f76e-c369-11e8-a2b0-00259014958c,0x400800,0xe8a08000)
이제 드라이브가 다시 동기화 중입니다.
% zpool status zroot
pool: zroot
state: DEGRADED
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Sat Sep 29 01:01:24 2018
64.7G scanned out of 76.8G at 162M/s, 0h1m to go
15.7G resilvered, 84.22% done
config:
NAME STATE READ WRITE CKSUM
zroot DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
ada0p3 ONLINE 0 0 0
ada1p3 ONLINE 0 0 0
ada2p3 ONLINE 0 0 0
replacing-3 OFFLINE 0 0 0
15120424524672854601 OFFLINE 0 0 0 was /dev/ada3p3/old
ada3p3 ONLINE 0 0 0
다시 실버링한 후:
% zpool status zroot
pool: zroot
state: ONLINE
scan: resilvered 18.6G in 0h7m with 0 errors on Sat Sep 29 01:09:22 2018
config:
NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
ada0p3 ONLINE 0 0 0
ada1p3 ONLINE 0 0 0
ada2p3 ONLINE 0 0 0
ada3p3 ONLINE 0 0 0
errors: No known data errors