Свойства кластера Google Dataproc - PullRequest
1 голос
/ 12 ноября 2019

Я хочу получить более подробную информацию о том, предназначены ли эти свойства для всего кластера \ каждого узла или их комбинации. для примера spark:spark.executor.instances<br> 2 это свойство для всего кластера или определенного узла?

enter image description here

1 Ответ

0 голосов
/ 19 ноября 2019

Как говорит Даганг, различные свойства Dataproc должны быть одинаково установлены на каждом узле кластера. Основные конфигурационные файлы, которые вы можете подать в каждом кластере, соответствуют spark:/core:/distcp:/hdfs:/mapred:/yarn: (в дополнение к другим для дополнительных дополнительных компонентов):

/etc/spark/conf/spark-defaults.conf
/etc/hadoop/conf/core-site.xml
/etc/hadoop/conf/distcp-default.xml
/etc/hadoop/conf/hdfs-site.xml
/etc/hadoop/conf/mapred-site.xml
/etc/hadoop/conf/yarn-site.xml

Другие файлы можно найти в похожих каталогах.

...