У меня есть доступ к веб-интерфейсу для большого количества данных. К этим данным обычно обращаются люди, которым требуется всего несколько предметов. Компания, в которой я работаю, хочет, чтобы я загрузил весь набор. К сожалению, интерфейс позволяет вам видеть только пятьдесят элементов (из десятков тысяч) одновременно и разделяет данные в разные папки.
К сожалению, все данные имеют одинаковый URL-адрес, который динамически обновляется через ajax-вызовы к aspx-интерфейсу. Написание простого сценария curl для захвата данных затруднено из-за этого и из-за необходимости аутентификации.
Как мне написать скрипт, который перемещается по странице, запускает ajax-запросы, ждет обновления страницы, а затем очищает данные? Была ли эта проблема решена раньше? Кто-нибудь может указать мне на инструментарий?
Любой язык в порядке, у меня хорошие знания большинства языков веб и сценариев.
Спасибо!