![디렉터리 및 모든 후속 하위 디렉터리에 있는 1TB의 데이터에서 중복 행을 제거하는 방법은 무엇입니까?](https://linux55.com/image/166647/%EB%94%94%EB%A0%89%ED%84%B0%EB%A6%AC%20%EB%B0%8F%20%EB%AA%A8%EB%93%A0%20%ED%9B%84%EC%86%8D%20%ED%95%98%EC%9C%84%20%EB%94%94%EB%A0%89%ED%84%B0%EB%A6%AC%EC%97%90%20%EC%9E%88%EB%8A%94%201TB%EC%9D%98%20%EB%8D%B0%EC%9D%B4%ED%84%B0%EC%97%90%EC%84%9C%20%EC%A4%91%EB%B3%B5%20%ED%96%89%EC%9D%84%20%EC%A0%9C%EA%B1%B0%ED%95%98%EB%8A%94%20%EB%B0%A9%EB%B2%95%EC%9D%80%20%EB%AC%B4%EC%97%87%EC%9E%85%EB%8B%88%EA%B9%8C%3F.png)
디렉터리와 다양한 하위 디렉터리에 포함된 테라바이트 정도의 텍스트 파일에서 중복된 줄을 제거해야 합니다.
나는 sort -u *.txt > newfile.txt를 사용하고 다음에서 간단한 Python 스크립트를 만들어 보았습니다.
폴더의 여러 파일에서 중복된 줄 제거: 범위 내의 파일만 확인
둘 다 작동하지 않는 것 같습니다. sort -u 이고 거의 100GB에 달하는 텍스트 파일 폴더를 처리하는 동안 내 노트북에 메모리가 부족합니다(32GB).