Я пытаюсь очистить веб-сайт, используя следующее:
industryurl <- "https://finance.yahoo.com/industries"
library(rvest)
read <- read_html(industryurl) %>%
html_table()
library(plyr)
industries <- ldply(read, data.frame)
industries = industries[-1,]
read <- read_html(industryurl)
industryurls <- html_attr(html_nodes(read, "a"), "href")
links <- industryurls[grep("/industry/", industryurls)]
industryurl <- "https://finance.yahoo.com"
links <- paste0(industryurl, links)
links
##############################################################################################
store <- NULL
tbl <- NULL
for(i in links){
store[[i]] = read_html(i)
tbl[[i]] = html_table(store[[i]])
}
#################################################################################################
Меня больше всего интересует код между ##########
и я хочу применить функцию вместо for loop
, так как ясталкиваюсь с проблемами тайм-аута с Yahoo, и я хочу сделать это более человечным, как извлекать эти данные (это не слишком много).
Мой вопрос: как я могу взять links
применить функцию и установить своего рода таймер задержки для чтения содержимого for loop
?
Я могу вставить свою собственную версиюиз for loop
, который не работает.