Проблема с использованием DataProcPySparkOperator. Ниже задание, которое я добавил в свой DAG:
run_pyspark_job= DataProcPySparkOperator(
task_id='pyspark_operator_test',
main='/root/airflow/dags/basic_eda.py',
job_name='test_pyspark_job',
cluster_name='test-cluster-20180502',
gcp_conn_id='google_cloud_default',
region='global',
zone='us-central1-b'
)
Ошибка ниже:
googleapiclient.errors.HttpError: https://dataproc.googleapis.com/v1/projects/project_id/regions/global/jobs:submit?alt=json возвращено "Не найдено: кластерные проекты / project_id / region / global / clusters / cluster-1"
Это не указывает на правильный кластер
Пожалуйста, подскажите, что мне не хватает?