Помогите мне понять, что я делаю неправильно!
У меня около 20 файлов .csv (фидов продуктов) в Интернете. Раньше я мог получить их всех. Но теперь они получают sh R, если я получу больше, чем один или два. Размер файла составляет около 50 тыс. Строк / 30 столбцов в каждой.
Я думаю, это проблема памяти, но я пробовал на другом компьютере с точно таким же результатом. Может ли быть какое-то форматирование в файлах, которые заставляют R использовать слишком много памяти? Или что это может быть?
Если я запускаю один из них, все хорошо. Два иногда. Три, и это почти наверняка дает сбой
a <- read.csv("URL1")
b <- read.csv("URL2")
c <- read.csv("URL3")
Я попытался указать все виды вещей, как:
d <- read.csv("URL4",skipNul=TRUE,sep=",",stringsAsFactors=FALSE,header=TRUE)
Я продолжаю получать это сообщение:
R сеанс прерван. R обнаружил фатальную ошибку. Сеанс был прерван.
У нас есть коммерческое программное обеспечение, где я могу без проблем извлекать те же файлы, поэтому файлы должны быть в порядке. И мой сценарий выполнялся два раза в день в течение нескольких месяцев без проблем
R версии 3.6.1
Платформа: x86_64-apple-darwin15.6.0 (64-разрядная версия)