Я новичок в scala / spark и загрузке файла (csv) размером 2 ГБ, и он отлично работает на моей виртуальной машине со значением ниже HEAP_SIZE.
HEAP_SIZE="-Xms8g -Xmx8g"
Но при запуске одного и того же кода и загрузке одного и того же файла в IntelliJ выдается java.lang.StackOverflowError exception
.
Знайте, я неправильно устанавливаю параметры памяти на IntelliJ.
Может кто-нибудь помочь мне, как и где именно мне нужно установить это, так как у меня достаточно памяти на моем компьютере с Windows (32 ГБ)?
Отслеживая ошибку, она точно приходит из приведенного ниже кода и, очевидно, имеет значение collect
.
val lst: Array[String] = expRDD.map((c: tmpClass) => (c.objType, 0))
.reduceByKey((x: Int, y: Int) => 0)
.map({ (t: Tuple2[String, Int]) => t._1 })
.collect