1) Если свойство помечено final
, оно не может быть переопределено пользователями для каждого задания (например, с помощью параметров командной строки или настройки свойств в SparkConf / Configuration). Мы явно сделали свойства всего кластера переопределенными. https://hadoop.apache.org/docs/stable/api/org/apache/hadoop/conf/Configuration.html
2) Dataproc применяет - свойства к файлам xml перед запуском любых служб
3) Если вы измените свойства вручную, вы можете перезапустить соответствующие службы, выполнив команду ssh в главном узле кластера и запустив sudo systemctl restart <service>
. Для улья это hive-metastore
и hive-server2
. Для искры это spark-history-server
. Несколько действий по инициализации делают это.
4) Подумайте об удалении и воссоздании кластера, если вы хотите изменить свойства - это немного проще, чем выяснить, какие службы перезапускать.
5) Помните, что вы по-прежнему можете устанавливать конфигурации для каждой работы для каждой работы. Если вы используете gcloud, это что-то вроде gcloud dataproc jobs submit spark --properties spark.executors.cores=4 ...other args...
, с spark-submit
вы можете использовать --conf
, а с hive вы можете использовать set prop=value
.