Scrapy - размер очереди запросов увеличен до гигабайт - PullRequest
1 голос
/ 18 февраля 2020

Я написал несколько больших скребков с миллионами URL. Они забирают память более 15 ГБ и их убивают.

Проблема связана с очередью запросов. Его размер увеличился до тысяч.

Я также использовал -s job_directory = dir_name для хранения очереди запросов на жестком диске, но, поскольку я сталкиваюсь с этой проблемой в нескольких скребках, это будет стоить мне много места.

Есть ли способ ограничить размер очереди запросов? Пожалуйста, предложите мне решение этой проблемы.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...