У меня есть простой веб-сканер, который запрашивает все страницы из карты сайта, которые мне нужно кэшировать и индексировать. После нескольких запросов сайт начинает обслуживать пустые страницы.
В их robots.txt
нет ничего, кроме ссылки на их карту сайта, поэтому я предполагаю, что не нарушаю их "правил". У меня есть описательный заголовок, который точно соответствует моим намерениям, и единственные страницы, которые я сканирую, - это их карта сайта.
Коды состояния http все еще в порядке, поэтому я могу только представить, что они предотвращают большое количество запросов http за короткий промежуток времени. Что считается разумной задержкой между запросами?
Есть ли другие пропущенные мной соображения, которые потенциально могут вызвать эту проблему?