Я использую spark-master и spark-worker в отдельном docker.
Я вижу, что они работают
✗ ps -ef | grep spark root 3477 3441 0 1 월 05? 00:04:17 /usr/lib/jvm/java-1.8-openjdk/jre/bin/java -cp / usr / local / spark / conf /: / usr / local / spark / jars / * - Xmx1g org. apache .spark.deploy.master.Master --ip node-master --port 7077 --webui-port 10080
Я не уверен, используют ли мои работники 1g или 8g, я устанавливаю параметры памяти через SparkConf
conf.set("spark.executor.memory", "8g")
conf.set("spark.driver.memory", "8g")
Я вижу 8g
в веб-интерфейсе
Я действительно использую 8g? Есть ли способ изменить часть Xmm1g
, которая отображается в командной строке под ps?
** edit
Я использую автономный кластер (не пряжу) и использую pyspark , Невозможно использовать файлы spark-submit python в режиме автономного кластера
В настоящее время автономный режим не поддерживает режим кластера для Python приложений.
http://spark.apache.org/docs/latest/submitting-applications.html