Я использую пакет XML, чтобы собрать результаты Чикагского марафона в CSV. Проблема в том, что сайт может отображать только 1000 бегунов на одной странице, поэтому мне приходится очищать несколько страниц. Сценарий, который я написал до сих пор, работает для первой страницы:
rm(list=ls())
library(XML)
page_numbers <- 1:1429
urls <- paste(
"http://results.public.chicagomarathon.com/2011/index.php?page",
page_numbers,
sep = "="
)
tables <-(for i in page_numbers){
readHTMLTable(urls)
}
n.rows <- unlist(lapply(tables, function(t) dim(t)[1]))
times <- tables[[which.max(n.rows)]]
Как я могу использовать этот код для очистки всех 21 страниц, чтобы получить полные результаты. Должен ли я использовать цикл for()
или функцию lapply
или что-то еще, я немного растерялся.
Спасибо!