Squid는 일부 Bugzilla HTTPs URL을 필터링합니다.

Squid는 일부 Bugzilla HTTPs URL을 필터링합니다.

네트워크 필터링을 미세 조정하기 위해 오징어를 사용하려고 하는데 이해할 수 없는 동작이 발생합니다.

예를 들어 다음 주소를 열면:

https://bugzilla.mozilla.org/

모두 제일 좋다. 하지만 열려고 하면

https://bugzilla.mozilla.org/data/assets/6fb171799a3557e3bc6f917d8ad18e8a.css?1461277655

오징어 금지 페이지가 표시됩니다. 내 명시적 목록에는 버그질라 사이트가 없습니다.

고쳐 쓰다

또 다른 발견.

URL을 열면

https://abs.twimg.com/c/swift/ru/init.faad1a금지된 페이지를 더 길게 표시합니다. 열어서 https://abs.twimg.com/c/swift/ru/init.faad1줄여보면 오징어를 지나고 있는 트위터 404 페이지가 나옵니다.

이러한 차이점과 일치하는 항목을 찾을 수 없습니다. 어쩌면 모를 수도 있는데 어떻게 확인할 수 있나요?

금지 규칙은 다음과 같습니다

acl adslist url_regex -i "/etc/squid/adslist.txt"
http_access deny adslist

다음과 같이 보이지만 adslist.txt:

.101com.com
.101order.com
.103092804.com
.103bees.com
.1100i.com
.123banners.com
.123found.com
.123pagerank.com
.180hits.de

이와 같은 줄이 규칙과 부분적으로 일치하고 403을 트리거할 수 있습니까?

관련 정보