Я хочу симулировать большую нагрузку на мой веб-сервер, постоянно просматривая список URL-адресов снова и снова!
Изначально я планировал написать простой скрипт с использованием wget / curl, но из-за того, чтоСайт использует много запросов AJAX для большей части своего тяжелого подъема, это не осуществимые варианты.Это потребовало бы от меня написания сложного сценария для анализа html-кода по ссылке, извлечения запроса ajax, скручивания их.Я должен был бы делать это рекурсивно для каждого запроса.
В идеале, есть какой-то способ получить посредника (или что-то подобное), чтобы просто перебрать список URL, тратя 15-30 секунд на каждую ссылку, прежде чем перейти к!Это будет означать, что весь мой javascript будет выполняться при посещении каждого URL, и загрузка сайтов будет репрезентативной
Кто-нибудь знает, как мне это легко сделать?