Я пытался добавить шаг задания spark-r
в свой шаблон рабочего процесса двумя различными способами.
С помощью команды gcloud:
gcloud beta dataproc workflow-templates add-job spark-r gs://path/to/script.R \
--step-id=<stepid> --workflow-template=<templateid>
Или путем импорта определения YAML:
jobs:
- sparkRJob:
mainRFileUri: gs://path/to/script.R
stepId: <stepid>
placement:
managedCluster:
clusterName: cluster-sparkr
config:
gceClusterConfig:
zoneUri: europe-west4-b
masterConfig:
machineTypeUri: n1-standard-4
workerConfig:
machineTypeUri: n1-standard-4
numInstances: 4
Однако оба способа приводят к следующей ошибке:
INVALID_ARGUMENT: Job "" должен предоставить определение задания
, что оставляет менянемного смущен тем, что именно мне не хватает.