Как обсуждалось в комментариях, это будет чтение страницы и создание списка пар названия продукта из h2 под каждым элементом и списка URL-адресов img из предварительного просмотра продукта:
library(rvest)
library(purrr)
url <- "https://www.raworange.com/collections/all-clothing"
html <- read_html(url)
products <- html %>% html_nodes(css='div.product-preview')
products %>% map(function(product) {
name <- product %>% html_nodes(css='h2.product_title') %>% html_text()
imgs <- product %>% html_nodes(css='img') %>% html_attr('src')
c(name, list(imgs))
})
Я также предложил вам получить URL-адреса для других страниц из ul # bc-sf-filter-bottom-pagination, но, похоже, он заполняется во время загрузки скриптом, поэтому его нелегко отсканировать с помощью rvest. Я думаю, что вам придется просмотреть URL-адреса подкачки в браузере и создать их самостоятельно, чтобы ваш код перебирал.