Вы можете запустить его в режиме кластера, указав следующее --properties spark.submit.deployMode=cluster
В вашем примере deployMode не выглядит корректно.
--properties=spark:spark.submit.deployMode=cluster
Похоже, spark:
является дополнительным .
Вот вся команда для отправки задания
gcloud dataproc jobs submit pyspark --cluster XXXXX --region us-central1 --properties="spark.submit.deployMode=cluster" gs://dataproc-examples/pyspark/hello-world/hello-world.py
Ниже приведен скриншот задания, работающего в режиме кластера
![Spark Job Configuration](https://i.stack.imgur.com/G1ymA.png)
Обновление
Чтобы передать несколько свойств ниже, datapro c отправка задания
gcloud dataproc jobs submit pyspark --cluster cluster-e0a0 --region us-central1 --properties="spark.submit.deployMode=cluster","spark.driver.extraClassPath=/xxxxxx/configuration/cluster-mode/" gs://dataproc-examples/pyspark/hello-world/hello-world.py
При запуске задания ниже приведен скриншот, который показывает, что deployMode is Cluster и дополнительный путь к классу также установлен
![Multiple properties](https://i.stack.imgur.com/nOYRq.png)