Есть ли способ заархивировать и восстановить всю страницу (со всем html, css, img, js, ...), используя chromedriver селена на Ubuntu? - PullRequest
0 голосов
/ 27 ноября 2018

Я ищу способ архивирования всего состояния веб-страницы с целью архивирования веб-страницы.

На самом деле, что я хочу каким-то образом сохранить все обработанные результаты страницы (не как форма скриншота, а форма , отображающая результат элемента DOM ), которую мы можем видеть в браузере, и восстанавливать их в локальной среде без сети.

Мне действительно не нужно сохранять все функции страницы, которые взаимодействуют с другим компьютером.Для архивирования требуется только просмотр страницы.

То, что я пытался заархивировать на домашней странице youtube.com, было:

  1. Использование красивого супа для немедленного получения html-источников
  2. Использование python selenium и chromedriver для получения динамически загружаемых HTML-источников
  3. 2 + загрузка всех ссылочных .css, .js и изображений из ссылок в HTML-кодах в локальный каталог.
  4. Нажатие Ctrl+ s на Chrome, который загружает HTML-источники и несколько файлов.(.js, .css, .jpg, ...)

Но все они работали некорректно.

Сначала, кажется, работает 4-й метод, но вскоре я обнаружил, что он загружает исходный HTML-источник, а не динамически загружаемый.

Есть ли какие-либо известные способы делать подобные вещи?(архивирование текущего состояния страницы)

Заранее спасибо.

...