Я пытался протестировать приложение spark на моем локальном ноутбуке, прежде чем развертывать его в кластере (чтобы избежать необходимости каждый раз упаковывать и развертывать все приложение), но пытался загрузить конфигурационный файл spark.
Когда я запускаю свое приложение в кластере, я обычно предоставляю приложению конфигурационный файл spark (используя --conf из spark-submit).В этом файле много параметров конфигурации, потому что это приложение взаимодействует с Cassandra и HDFS.Однако, когда я пытаюсь сделать то же самое на своем локальном ноутбуке, я не уверен, как именно загрузить этот файл конфигурации.Я знаю, что, вероятно, могу написать кусок кода, который принимает путь к файлу конфигурации и просто просматривает и анализирует все значения и устанавливает их в конфигурации, но мне просто интересно, есть ли более простые способы.
Текущее состояние:
- Я поместил нужный файл конфигурации в мой каталог SPARK_HOME / conf и назвал его spark-defaults.conf ---> Это не было применено,однако этот точно такой же файл работает нормально, используя spark-submit
- . Для локального режима, когда я создаю сеанс spark, я устанавливаю Spark Master как "local [2]".Я делаю это при создании сеанса spark, поэтому мне интересно, возможно ли создать этот сеанс с указанным файлом конфигурации.