Добрый день, ребята,
У меня проблема с кальмаром.В настоящее время я пересылаю все запросы в прокси-сервис, который оплачивает наша компания.Мы используем сервис, чтобы сделать веб-очистку.Проблема в том, что каждый день требуется 100 ГБ полосы пропускания данных, и я хочу кэшировать содержимое веб-страниц, чтобы снизить потребление пропускной способности.Прямо сейчас я использую squid в качестве посредника: он аутентифицируется в другом прокси-сервисе, за который мы платим, поскольку мы не можем аутентифицироваться напрямую в аргументах chrome с --proxy-server.Squid работает в Docker-контейнере, и я использую docker-compose, вот файл docker-compose и squid.conf:
docker-compose.yml
squid:
image: sameersbn/squid:3.5.27
container_name: squid
ports:
- "3128:3128"
volumes:
- ~/work/docker/squid/cache:/var/spool/squid
- ~/work/docker/squid/squid.conf:/etc/squid/squid.conf
restart: always
squid.conf
http_port 3128
cache_peer proxy.server.example parent 31280 0 no-digest login=admin:admin
acl all src 0.0.0.0/0.0.0.0
http_access allow all
never_direct allow all
Когда я заглядываю в каталог / var / spool / squid внутри контейнера докера, он всегда пуст.
ДелатьУ вас есть идеи, что мешает squid кэшировать веб-страницы?