Ошибка при чтении файла Excel 30 МБ с использованием spark crealytics в scala - PullRequest
0 голосов
/ 05 апреля 2020

Я получаю следующую ошибку при выполнении приведенного ниже кода.

Исключение в потоке "main" java .lang.OutOfMemoryError: G C Превышен предел накладных расходов

Picture

Мой код

val spark = SparkSession.builder()
    .master("local[*]")
    .appName("Excel file")
    .getOrCreate()


val dfexcel= spark.read.format("com.crealytics.spark.excel")
    .option("useHeader","true")
    .option("inferSchema","true")
    .option("treatEmptyValuesAsNulls", "true")
    .option("addColorColumns", "False")
    .option("location","files/all_stocks_5yr.xlsx")
    .load("files/all_stocks_5yr.xlsx")

1 Ответ

0 голосов
/ 06 апреля 2020

Это не имеет никакого отношения к искре, и com.crealytics.spark.excel вы должны увеличить объем памяти кучи с помощью eclipse scala ide, поскольку она работает в локальном режиме.

Например:

enter image description here

Кроме того, я бы рекомендовал использовать последнюю версию Crelylytics API

// https://mvnrepository.com/artifact/com.crealytics/spark-excel
libraryDependencies += "com.crealytics" %% "spark-excel" % "0.13.1"
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...