Мне бы хотелось иметь возможность запускать скрипт (или что-то в этом роде), который будет «загружать» определенную веб-страницу (html) и все ее вложения (word docs), чтобы я мог хранить и управлять частной коллекцией.
Вот история ... Есть этот сайт, который я часто использую для исследований.На этом сайте есть много HTML-страниц, которые содержат текст и ссылки на скачивание документов (.pdf и .docs).Существует угроза того, что владелец (правительство США) собирается «приватизировать» информацию, которую я считаю фиктивной.Однако существует эта угроза.Я хотел бы иметь возможность извлечь весь HTML-текст и копии всех вложений, чтобы я мог разместить собственную (на своем рабочем столе) версию данных для личного использования (на всякий случай).Есть ли простой способ сделать это?
Примечание. У меня нет FTP-доступа к этому веб-серверу, только доступ к отдельным веб-страницам и вложениям.