Привет всем Я делаю веб-приложение, которое сканирует множество страниц с определенного веб-сайта, я запустил свое программное обеспечение crawler4j с неограниченной глубиной и страницами, но внезапно оно прекратилось из-за подключения к Интернету.Теперь я хочу продолжить сканирование этого веб-сайта и не получать URL-адреса, которые я посетил, прежде чем посчитать, что у меня есть последние страницы глубины.
Примечание : я хочу как-то не проверять своисохраненный URL с URL-адресами, которые я получу, потому что я не хочу отправлять слишком много запросов на этот сайт.
** Спасибо ** ☺