Я использую RStudio для подключения к файлу HDFS через SparkR. Когда я оставляю анализ Spark работающим на ночь, на следующий день я получаю сообщение об ошибке "R session aborted" Из документации Spark на SparkR (https://spark.apache.org/docs/latest/configuration.html), значение по умолчанию для spark.r.backendConnectionTimeout установлено на 6000 с. Я хотел бы изменить это значение на что-то большое, чтобы у моего соединения не истекло время ожидания после завершения анализа.
Я пробовал следующее:
sparkR.session(master = "local[*]", sparkConfig = list(spark.r.backendConnectionTimeout = 10))
sparkR.session(master = "local[*]", spark.r.backendConnectionTimeout = 10)
Я получаю одинаковый вывод для обеих команд:
Spark package found in SPARK_HOME: C:\Spark\spark-2.3.2-bin-hadoop2.7
Launching java with spark-submit command C:\Spark\spark-2.3.2-bin-hadoop2.7/bin/spark-submit2.cmd sparkr-shell C:\Users\XYZ\AppData\Local\Temp\3\RtmpiEaE5q\backend_port696c18316c61
Java ref type org.apache.spark.sql.SparkSession id 1
Похоже, что параметр был передан неправильно. Кроме того, я не уверен, где передать этот параметр.
Любая помощь будет оценена.
Похожий пост есть, но он включает в себя Zeppelin ( как изменить значение spark.r.backendConnectionTimeout? ).
Спасибо.