Могу ли я использовать wget для загрузки нескольких файлов с терминала Linux - PullRequest
2 голосов
/ 26 июля 2011

Предположим, у меня есть каталог, доступный через http e, g

Http://www.abc.com/pdf/books

Внутри папки у меня много PDF-файлов

Можно ли использовать что-то вроде

wget <a href="http://www.abc.com/pdf/books/" rel="nofollow">http://www.abc.com/pdf/books/</a>*

Ответы [ 3 ]

3 голосов
/ 26 июля 2011
wget -r -l1 -A.pdf http://www.abc.com/pdf/books
2 голосов
/ 26 июля 2011

со страницы руководства wget:

   Wget can follow links in HTML and XHTML pages and create local versions of remote web sites, fully recreating the directory structure of the original site.  This is
   sometimes referred to as ``recursive downloading.''  While doing that, Wget respects the Robot Exclusion Standard (/robots.txt).  Wget can be instructed to convert the
   links in downloaded HTML files to the local files for offline viewing.

и

   Recursive Retrieval Options
   -r
   --recursive
       Turn on recursive retrieving.

   -l depth
   --level=depth
       Specify recursion maximum depth level depth.  The default maximum depth is 5.
0 голосов
/ 26 июля 2011

Это зависит от веб-сервера и конфигурации сервера. Строго говоря, URL не является путем к каталогу, поэтому http://something/books/* не имеет смысла.

Однако если веб-сервер реализует путь http://something/books, чтобы быть индексной страницей со списком всех книг на сайте, то вы можете поэкспериментировать с рекурсивной опцией , и опции паука и wget будут будем рады любым ссылкам на странице индекса http://something/books.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...