![Firefox를 사용하여 15분마다 페이지 다운로드(비밀번호로 보호된 웹사이트)](https://linux55.com/image/138196/Firefox%EB%A5%BC%20%EC%82%AC%EC%9A%A9%ED%95%98%EC%97%AC%2015%EB%B6%84%EB%A7%88%EB%8B%A4%20%ED%8E%98%EC%9D%B4%EC%A7%80%20%EB%8B%A4%EC%9A%B4%EB%A1%9C%EB%93%9C(%EB%B9%84%EB%B0%80%EB%B2%88%ED%98%B8%EB%A1%9C%20%EB%B3%B4%ED%98%B8%EB%90%9C%20%EC%9B%B9%EC%82%AC%EC%9D%B4%ED%8A%B8).png)
저는 Firefox를 사용하여 웹사이트에 로그인합니다(비밀번호는 비밀번호 관리자에 저장되어 있습니다). 일부 변경 정보를 추적하기 위해 15분마다 페이지를 다운로드할 수 있기를 원합니다(로그인하지 않으면 액세스할 수 없음). 해당 사이트에서는 API를 제공하지 않으며 비밀번호를 다른 곳에 저장하고 싶지 않습니다.
wget <web-page> >> myfile
but 과 같은 명령줄 매개변수가 있나요 firefox web-page >> myfile
?
답변1
페이지의 아무 곳이나 마우스 오른쪽 버튼으로 클릭하고 검사를 선택합니다. 개발자 도구의 네트워크 탭을 열고 페이지를 마우스 오른쪽 버튼으로 클릭한 후 cURL 복사를 선택합니다.
cURL에 대한 POST 데이터를 복사하려면 Chromium을 사용하세요.
스크립트를 넣고 cron에 추가하세요. 쿠키가 만료되면 scipt는 CSRF 토큰을 추출하거나 로그인을 컬링해야 할 수도 있습니다.
또는 정말로 브라우저를 사용하고 싶다면 다음을 사용할 수 있습니다.https://www.seleniumhq.org/등
답변2
웹페이지에서 HTTP 인증을 사용하는 경우 wget을 사용하여 인증할 수 있습니다. 그러나 현재 웹사이트에서는 HTTP 인증이 거의 사용되지 않습니다.
이제 로그인 페이지가 표시되고 결국 로그인이 완료된 후 쿠키가 설정됩니다.
특정 사이트에서 로그인 프로세스가 어떻게 작동하는지 이해하고 시뮬레이션할 수 있습니다.
브라우저로 한 번 로그인하고 올바른 쿠키를 찾은 다음 wget과 함께 사용하여 콘텐츠를 다운로드할 수 있습니다. 일반적으로 이는 세션 만료를 방지하기 위한 활동으로 간주되어야 합니다.