zfs 데이터 세트는 잠시 후에도 계속 자동으로 언로드되지만 다른 데이터 세트는 계속 사용할 수 있습니다.

zfs 데이터 세트는 잠시 후에도 계속 자동으로 언로드되지만 다른 데이터 세트는 계속 사용할 수 있습니다.

나는 내가 넣은 리눅스 박스를 가지고 있는데 그것은 나의 백업 시스템이다. 3개의 2TB 드라이브가 포함된 zfs 선형 스팬 어레이가 있습니다. 매일 밤 나는 freefilesync(훌륭한 프로그램)를 사용하여 네트워크 드라이브로 매핑된 이 마운트 지점에 파일을 동기화합니다.

$ zfs list
NAME                                USED  AVAIL  REFER  MOUNTPOINT
san                                3.31T  2.04T  2.87M  /san
san/vault                          3.31T  2.04T   136K  /san/vault
san/vault/falcon                    171G  2.04T   100K  /san/vault/falcon
san/vault/falcon/snapshots          171G  2.04T   171G  /san/vault/falcon/snapshots
san/vault/falcon/version            160K  2.04T    96K  /san/vault/falcon/version
san/vault/gyrfalcon                 564K  2.04T   132K  /san/vault/gyrfalcon
san/vault/gyrfalcon/snapshots       184K  2.04T   120K  /san/vault/gyrfalcon/snapshots
san/vault/gyrfalcon/version         184K  2.04T   120K  /san/vault/gyrfalcon/version
san/vault/osprey                    170G  2.04T   170G  /san/vault/osprey
san/vault/osprey/snapshots         24.2M  2.04T  24.2M  /san/vault/osprey/snapshots
san/vault/osprey/version            120K  2.04T   120K  /san/vault/osprey/version
san/vault/redtail                  2.98T  2.04T  17.2M  /san/vault/redtail
san/vault/redtail/c                 777M  2.04T  72.9M  /san/vault/redtail/c
san/vault/redtail/c/AMD            4.44M  2.04T  4.24M  /san/vault/redtail/c/AMD
san/vault/redtail/c/Users           699M  2.04T   694M  /san/vault/redtail/c/Users
san/vault/redtail/d                1.59T  2.04T   124K  /san/vault/redtail/d
san/vault/redtail/d/UserFiles      1.59T  2.04T  1.59T  /san/vault/redtail/d/UserFiles
san/vault/redtail/d/archive         283M  2.04T   283M  /san/vault/redtail/d/archive
san/vault/redtail/e                1.34T  2.04T   124K  /san/vault/redtail/e
san/vault/redtail/e/PublicArchive  1.34T  2.04T  1.34T  /san/vault/redtail/e/PublicArchive
san/vault/redtail/e/archive         283M  2.04T   283M  /san/vault/redtail/e/archive
san/vault/redtail/snapshots         184K  2.04T   120K  /san/vault/redtail/snapshots
san/vault/redtail/version          44.3G  2.04T  43.9G  /san /vault/redtail/version

퍼티를 통해 Linux를 보면 마운트가 1분 동안 존재했다가 몇 분 후에 사라집니다. (zfs 목록에는 항상 해당 마운트가 표시되며 마운트 해제되었는지 확인하려면 마운트를 반복해야 합니다. 비어 있을 것입니다. 또는 상위 디렉토리에 전혀 없음). 이러한 데이터 세트의 마운트가 손실되고 있습니다.

다음 날 아침이나 몇 시간 후에 돌아올 때마다 거의 freefilesync가 동기화를 시작한 직후이지만 파일 이동을 시작하기 전에 san/vault/redtail은 비어 있습니다.

내보내기와 가져오기를 모두 시도했지만 동일한 문제가 계속 발생합니다. 내 데이터는 아직 그대로인데...

이 명령은 이러한 모든 문제를 일시적으로 다시 해결합니다(기간은 알 수 없음).zfs mount -a

이 모든 것은 내가 parnt san에 상당히 많은 하위 데이터 세트를 생성한 후(아마 몇 주 전) 시작되었으며, 그것이 단지 san 데이터 세트 상위 항목이 되기 전에(나는 그것에 대해 어떤 문제도 없었습니다) 모든 데이터가 거기에 배치될 때, 하위 데이터세트가 존재합니다. 그 이후로 데이터를 밖으로 옮기고, 데이터를 생성하고, 데이터를 다시 옮겼습니다.

내 컴퓨터는 동기화를 위해 네트워크를 계속 이동하고 설치가 해당 기간 동안 손실되며 백업이 거의 한 달 동안 완료되지 않았습니다. 파일 수를 계산하기 전에(15분에서 1시간 정도) 빌어먹을 설치가 다시 사라지고 중단되었습니다. 백업이 불명예에 빠졌습니다.

데이터세트를 패키징할 때 뭔가를 엉망으로 만들었을 수도 있습니다. 나중에 마음에 들지 않아서 일부를 삭제해야 했습니다. 데이터는 표시되지도 않고 아무 것도 표시되지 않지만 모든 것이 완료되었다고 말하고 몇 번 재부팅하고 다시 확인한 후에 모든 것이 완벽해 보였습니다!

그 후 상황은 좋아 보였지만 하위 데이터 세트 중 하나인 san/vault/redtail/c를 살펴보았는데 그 프리커도 비어 있었기 때문에 제거된 것 같습니다.

내가 똥을 망치기 전에. 무슨 일이 일어나고 있는지 알아야 해요. 데이터는 현재 정상 시스템의 중복 백업이지만 백업은 고유하므로 소스 드라이브 상태의 영향을 받습니다. 그래서 나는 그것을 오프라인으로 가질 여유가 없습니다.

스냅샷에 대한 추가 참고사항. 깨진 것처럼 보이기 직전에 처음으로 스냅샷을 찍었습니다. 이것이 원인이 아닐까요? 이 스냅샷을 사용하여 문제를 해결할 수 있나요? 이것은 우연인가, 아니면 신호인가?

이 포스팅을 보니, 재귀적으로 순회하지 않고 ZFS에서 대규모 디렉토리를 일괄 삭제합니다.제가 아이들과 함께 수많은 데이터세트를 만든 이유가 궁금하시다면...

편집하다:이 게시물에 관심이 부족해서 질문을 다시 작성했습니다. 다시 읽어보시기 바랍니다.

관련 정보