Я пытаюсь выполнить Spark jar на Dataproc, используя DataProcSparkOperator от Airflow .JAR находится на GCS, и я на лету создаю кластер Dataproc, а затем выполняю этот Jar на вновь созданном кластере Dataproc.
Я могу выполнить это с помощью DataProcSparkOperator Airflow с настройками по умолчанию, но яЯ не могу настроить свойства задания Spark (например, --master
, --deploy-mode
, --driver-memory
и т. д.).Из документации по воздушному потоку не получили никакой помощи.Также перепробовал много вещей, но не получилось.Помощь приветствуется.