BTRFS는 내 하드 드라이브가 불량하다는 것을 의미합니까?

BTRFS는 내 하드 드라이브가 불량하다는 것을 의미합니까?

내 HP N54L이 실행 중임을 확인하고 dmesg다음을 보고했습니다.

[   81.945530] btrfs read error corrected: ino 1 off 16685977600 (dev /dev/sdb sector 2636776)
[   82.010023] btrfs read error corrected: ino 1 off 16637734912 (dev /dev/sdb sector 2589656)

[   85.927604] verify_parent_transid: 43 callbacks suppressed
[   85.927615] parent transid verify failed on 16956989440 wanted 13182 found 12799
[   85.974600] parent transid verify failed on 16585043968 wanted 13145 found 12357

[   89.903548] repair_io_failure: 26 callbacks suppressed
[   89.903560] btrfs read error corrected: ino 1 off 16875483136 (dev /dev/sdb sector 2821816)
[  115.951579] parent transid verify failed on 16963846144 wanted 13184 found 12802
[  115.976830] btrfs read error corrected: ino 1 off 16963846144 (dev /dev/sdb sector 2908128)
[  115.988907] parent transid verify failed on 16978874368 wanted 13187 found 12815

[  543.848294] btrfs: device fsid e8f8fc09-3aae-4fce-85ca-fcf7665b9f02 devid 2 transid 13199 /dev/sdb
[ 1120.854825] verify_parent_transid: 5 callbacks suppressed
[ 1120.854838] parent transid verify failed on 16956600320 wanted 13184 found 12799

[ 1120.891229] repair_io_failure: 6 callbacks suppressed
[ 1120.891243] btrfs read error corrected: ino 1 off 16956600320 (dev /dev/sdb sector 2901016)
[ 1124.851937] parent transid verify failed on 16977842176 wanted 13187 found 12814
[ 1124.885429] btrfs read error corrected: ino 1 off 16977842176 (dev /dev/sdb sector 2921768)

이것이 내 BTRFS 설정입니다. 4x3TB HDD 전체의 RAID10:

$ sudo btrfs filesystem df /mnt/btrfs
Data, RAID10: total=136.00GiB, used=134.70GiB
System, RAID10: total=64.00MiB, used=20.00KiB
System, single: total=4.00MiB, used=0.00
Metadata, RAID10: total=1.00GiB, used=363.21MiB

$ sudo btrfs filesystem show /mnt/btrfs
Label: none  uuid: <UUID>
    Total devices 4 FS bytes used 135.05GiB
    devid    1 size 2.73TiB used 68.54GiB path /dev/sda
    devid    2 size 2.73TiB used 68.53GiB path /dev/sdb
    devid    3 size 2.73TiB used 68.53GiB path /dev/sdc
    devid    4 size 2.73TiB used 68.53GiB path /dev/sdd

BTRFS...이상한...에 대한 장치 통계를 확인했습니다.

$ sudo btrfs device stats /mnt/btrfs
[/dev/sda].write_io_errs   0
[/dev/sda].read_io_errs    0
[/dev/sda].flush_io_errs   0
[/dev/sda].corruption_errs 0
[/dev/sda].generation_errs 0
[/dev/sdb].write_io_errs   207275
[/dev/sdb].read_io_errs    127287
[/dev/sdb].flush_io_errs   0
[/dev/sdb].corruption_errs 0
[/dev/sdb].generation_errs 0
[/dev/sdc].write_io_errs   0
[/dev/sdc].read_io_errs    0
[/dev/sdc].flush_io_errs   0
[/dev/sdc].corruption_errs 0
[/dev/sdc].generation_errs 0
[/dev/sdd].write_io_errs   0
[/dev/sdd].read_io_errs    0
[/dev/sdd].flush_io_errs   0
[/dev/sdd].corruption_errs 0
[/dev/sdd].generation_errs 0

만일을 대비해 여분의 3TB HDD를 주문했는데, HDD가 /dev/sdb손상되었다고 해도 무방할까요? 나는 BTRFS 적용 범위가 조금 이상하다고 생각합니다 [/dev/sdb].corruption_errs 0.

BTRFS RAID 어레이의 HDD가 손상되었음을 증명하는 일반적으로 허용되는 방법이 있습니까?

답변1

집에 있는 내 서버(Btrfs가 포함된 RAID-6 실행)에서도 유사한 성능 저하를 목격했습니다. 세 번이나 드라이브 중 하나임이 입증되었습니다.

내가 가장 먼저 한 일은 smartctl각 드라이브에 대해 실행하는 것이었습니다. 그런 다음 실패한 드라이브에 대해 원시 오류 수를 확인했습니다.

smartctl -x /dev/sdf | fgrep Raw

그것들을 계속 추적하세요. 예전에는 일부 오류가 표시되던 드라이브가 있지만 케이블을 재설정한 후 지난 9개월 동안 안정적이었습니다. 왜인지는 모르겠지만, 그 사람은 '아직 죽지 않았다'고 생각합니다.

오류 수가 다시 증가하면 드라이브를 제거하고 교체하겠습니다(RAID-6의 추가 드라이브 2개 중 하나가 반나절 동안 오프라인 상태가 될 위험은 감당할 수 있습니다).

관련 정보