У меня есть очень длинный список веб-сайтов, которые я хотел бы найти для title
, description
и keywords
.
Я использую ContentScraper
из Rcrawler
пакета, и я знаю, что он работает, но есть определенные URL-адреса, которые он не может сделать, и просто генерирую сообщение об ошибке ниже. Есть ли в любом случае, что он может пропустить этот конкретный URL-адрес вместо остановки всего выполнения?
Error: 'NULL' does not exist in current working directory
Я смотрел на это , но я не думаю, что на это есть ответ. Вот код, который я использую. Любой совет с благодарностью.
Web_Info <- ContentScraper(Url = Websites_List,
XpathPatterns = c('/html/head/title', '//meta[@name="description"]/@content', '//meta[@name="keywords"]/@content'),
PatternsName = c("Title", "Description", "Keywords"),
asDataFrame = TRUE)