나는 내가 넣은 리눅스 박스를 가지고 있는데 그것은 나의 백업 시스템이다. 3개의 2TB 드라이브가 포함된 zfs 선형 스팬 어레이가 있습니다. 매일 밤 나는 freefilesync(훌륭한 프로그램)를 사용하여 네트워크 드라이브로 매핑된 이 마운트 지점에 파일을 동기화합니다.
$ zfs list
NAME USED AVAIL REFER MOUNTPOINT
san 3.31T 2.04T 2.87M /san
san/vault 3.31T 2.04T 136K /san/vault
san/vault/falcon 171G 2.04T 100K /san/vault/falcon
san/vault/falcon/snapshots 171G 2.04T 171G /san/vault/falcon/snapshots
san/vault/falcon/version 160K 2.04T 96K /san/vault/falcon/version
san/vault/gyrfalcon 564K 2.04T 132K /san/vault/gyrfalcon
san/vault/gyrfalcon/snapshots 184K 2.04T 120K /san/vault/gyrfalcon/snapshots
san/vault/gyrfalcon/version 184K 2.04T 120K /san/vault/gyrfalcon/version
san/vault/osprey 170G 2.04T 170G /san/vault/osprey
san/vault/osprey/snapshots 24.2M 2.04T 24.2M /san/vault/osprey/snapshots
san/vault/osprey/version 120K 2.04T 120K /san/vault/osprey/version
san/vault/redtail 2.98T 2.04T 17.2M /san/vault/redtail
san/vault/redtail/c 777M 2.04T 72.9M /san/vault/redtail/c
san/vault/redtail/c/AMD 4.44M 2.04T 4.24M /san/vault/redtail/c/AMD
san/vault/redtail/c/Users 699M 2.04T 694M /san/vault/redtail/c/Users
san/vault/redtail/d 1.59T 2.04T 124K /san/vault/redtail/d
san/vault/redtail/d/UserFiles 1.59T 2.04T 1.59T /san/vault/redtail/d/UserFiles
san/vault/redtail/d/archive 283M 2.04T 283M /san/vault/redtail/d/archive
san/vault/redtail/e 1.34T 2.04T 124K /san/vault/redtail/e
san/vault/redtail/e/PublicArchive 1.34T 2.04T 1.34T /san/vault/redtail/e/PublicArchive
san/vault/redtail/e/archive 283M 2.04T 283M /san/vault/redtail/e/archive
san/vault/redtail/snapshots 184K 2.04T 120K /san/vault/redtail/snapshots
san/vault/redtail/version 44.3G 2.04T 43.9G /san /vault/redtail/version
퍼티를 통해 Linux를 보면 마운트가 1분 동안 존재했다가 몇 분 후에 사라집니다. (zfs 목록에는 항상 해당 마운트가 표시되며 마운트 해제되었는지 확인하려면 마운트를 반복해야 합니다. 비어 있을 것입니다. 또는 상위 디렉토리에 전혀 없음). 이러한 데이터 세트의 마운트가 손실되고 있습니다.
다음 날 아침이나 몇 시간 후에 돌아올 때마다 거의 freefilesync가 동기화를 시작한 직후이지만 파일 이동을 시작하기 전에 san/vault/redtail은 비어 있습니다.
내보내기와 가져오기를 모두 시도했지만 동일한 문제가 계속 발생합니다. 내 데이터는 아직 그대로인데...
이 명령은 이러한 모든 문제를 일시적으로 다시 해결합니다(기간은 알 수 없음).zfs mount -a
이 모든 것은 내가 parnt san에 상당히 많은 하위 데이터 세트를 생성한 후(아마 몇 주 전) 시작되었으며, 그것이 단지 san 데이터 세트 상위 항목이 되기 전에(나는 그것에 대해 어떤 문제도 없었습니다) 모든 데이터가 거기에 배치될 때, 하위 데이터세트가 존재합니다. 그 이후로 데이터를 밖으로 옮기고, 데이터를 생성하고, 데이터를 다시 옮겼습니다.
내 컴퓨터는 동기화를 위해 네트워크를 계속 이동하고 설치가 해당 기간 동안 손실되며 백업이 거의 한 달 동안 완료되지 않았습니다. 파일 수를 계산하기 전에(15분에서 1시간 정도) 빌어먹을 설치가 다시 사라지고 중단되었습니다. 백업이 불명예에 빠졌습니다.
데이터세트를 패키징할 때 뭔가를 엉망으로 만들었을 수도 있습니다. 나중에 마음에 들지 않아서 일부를 삭제해야 했습니다. 데이터는 표시되지도 않고 아무 것도 표시되지 않지만 모든 것이 완료되었다고 말하고 몇 번 재부팅하고 다시 확인한 후에 모든 것이 완벽해 보였습니다!
그 후 상황은 좋아 보였지만 하위 데이터 세트 중 하나인 san/vault/redtail/c를 살펴보았는데 그 프리커도 비어 있었기 때문에 제거된 것 같습니다.
내가 똥을 망치기 전에. 무슨 일이 일어나고 있는지 알아야 해요. 데이터는 현재 정상 시스템의 중복 백업이지만 백업은 고유하므로 소스 드라이브 상태의 영향을 받습니다. 그래서 나는 그것을 오프라인으로 가질 여유가 없습니다.
스냅샷에 대한 추가 참고사항. 깨진 것처럼 보이기 직전에 처음으로 스냅샷을 찍었습니다. 이것이 원인이 아닐까요? 이 스냅샷을 사용하여 문제를 해결할 수 있나요? 이것은 우연인가, 아니면 신호인가?
이 포스팅을 보니, 재귀적으로 순회하지 않고 ZFS에서 대규모 디렉토리를 일괄 삭제합니다.제가 아이들과 함께 수많은 데이터세트를 만든 이유가 궁금하시다면...
편집하다:이 게시물에 관심이 부족해서 질문을 다시 작성했습니다. 다시 읽어보시기 바랍니다.