В настоящее время я получаю и анализирую страницы с веб-сайта, используя urllib2
.Однако их много (более 1000), и их последовательная обработка мучительно медленная.
Я надеялся, что есть способ извлекать и анализировать страницы параллельно.Если это хорошая идея, возможно ли это и как мне это сделать?
Кроме того, каковы "разумные" значения для количества страниц, обрабатываемых параллельно (я не хотел бы слишком загружать сервер или получать бан, потому что я использую слишком много подключений)?
Спасибо!