cURL을 사용하여 여러 웹사이트에 로그인하고 있습니다.
내 경우에는 사용자 이름과 비밀번호 필드를 얻기 위해 DOM을 수동으로 보는 것이 지루했습니다.
curl -d
그런 다음 이 필드를 구문 분석하고 명령을 사용하여 로그인 하겠습니다 .
내가 로그인해야 하는 유일한 이유는 쿠키를 얻기 위해서입니다. 일부 웹사이트의 Python에서도 마찬가지입니다.
cURL을 사용하면 넷스케이프 형식으로 쿠키를 얻을 수 있습니다. Python을 사용하면 넷스케이프 형식으로 변환하려면 더 많은 작업을 수행해야 합니다.
답변1
이 경우 Curl은 HTML 구문 분석을 수행하지 않습니다.
이 작업은 직접 수행해야 합니다. 이는 쉘 스크립트에서 모든 작업을 수행하는 것이 가장 쉬운 방법이 아닐 수 있음을 보여줍니다.
requests
이 라이브러리를 사용하여 http 부분을 수행하고 BeautifulSoup 라이브러리를 사용하여 DOM에서 필드를 가져오는 짧은 Python 프로그램을 작성할 수 있습니다 .
답변2
아니요. 컬은 데이터만 검색합니다. 응답 본문을 전혀 구문 분석하도록 설계되지 않았습니다.
웹사이트 로그인을 자동화하는 모든 종류의 스크립트에는 Python을 사용하는 것이 좋습니다.필요하다모듈도 그렇고lxml용 HTML 파서.