Проблемы с NULL и NA при очистке сайтов с помощью ContentScraper в R? - PullRequest
0 голосов
/ 29 марта 2019

У меня есть очень длинный список веб-сайтов, которые я хотел бы найти для title, description и keywords.

Я использую ContentScraper из Rcrawler пакета, и я знаю, что он работает, но есть определенные URL-адреса, которые он не может сделать, и просто генерирую сообщение об ошибке ниже. Есть ли в любом случае, что он может пропустить этот конкретный URL-адрес вместо остановки всего выполнения?

Error: 'NULL' does not exist in current working directory

Я смотрел на это , но я не думаю, что на это есть ответ. Вот код, который я использую. Любой совет с благодарностью.

Web_Info <- ContentScraper(Url = Websites_List, 
               XpathPatterns = c('/html/head/title', '//meta[@name="description"]/@content', '//meta[@name="keywords"]/@content'), 
               PatternsName = c("Title", "Description", "Keywords"), 
               asDataFrame = TRUE)
...