Было бы проще, если бы вы отслеживали статус всех URL, чтобы вы могли лучше понять, что происходит. Попробуйте:
j <- 10:46
k <- 10:99
df <- expand.grid(j=j,k=k)
library(dplyr)
h <- getCurlHandle()
df<-df %>%
mutate(url = paste0("https://www.tbmm.gov.tr/tutanaklar/TUTANAK/TBMM/d26/c0", j, "/tbmm260", j, "0", k, ".pdf"))%>%
mutate(exists=sapply(url,url.exists,curl=h))
В приведенном выше коде каждая строка df
будет иметь URL-адрес и отслеживать возвращаемое значение url.exists()
. Тогда вы можете просто отфильтровать те, которые используют
df %>%
filter(exists)%>%
pull(url)
Обратите внимание, что я опробовал это на нескольких сгенерированных URL-адресах, и ни один из них не существовал, поэтому это может быть проблемой.