Я собираюсь сканировать веб-сайт для получения некоторой информации. Это около 170 000+ страниц. Итак, сколько запросов я могу сделать? Я собираюсь извлечь HTML и получить некоторую информацию. Это уже очень популярный сайт, поэтому я не думаю, что он умер бы, если бы просто путешествовал быстро по всем страницам ... Единственное, что меня нервирует, так это то, что я не знаю, заблокирует ли владелец мой IP или что-то в этом роде. если ты это сделаешь? Это нормально? Должен ли я просто загрузить 5 страниц / мин? Тогда это займет вечность ... Я хочу получать новые данные каждые 24 часа, см.
Спасибо за все ответы!