Посмотрите на эту страницу, там есть все, что вам нужно знать:
https://www.gnu.org/software/wget/manual/wget.html
1) Вы можете использовать:
--spider -nd -r -o outputfile <domain>
, который не загружает файлы, а просто проверяет их наличие.
-nd
запрещает wget создавать каталоги локально
-r
для разбора всего сайта
-o outputfile
чтобы отправить вывод в файл
чтобы получить список URL для загрузки.
2) , затем проанализируйте выходной файл для извлечения файлов и создайте меньшие списки ссылок, которые вы хотите загрузить.
3) , затем используйте -i file
(== --input-file=file
) для загрузки каждого списка, ограничивая таким образом количество загрузок в одном исполнении wget
.
Примечания:
- --limit-rate=amount
можно использовать для замедления загрузки, чтобы сэкономить вашу интернет-ссылку!