Я пытаюсь запустить рабочие задания в управляемом кластере DataProc. У меня есть несколько независимых свиноводческих заданий, которые работают параллельно. Я установил continueOnFailure для каждого задания, чтобы быть правдой. Теперь, если одно из заданий не выполнено, все остальные останавливаются и кластер завершается. Я не хочу этого, я хочу, чтобы сбойное задание было прекращено, а другие задания выполнялись должным образом.
Файл yaml, через который я создаю экземпляр, выглядит так:
jobs:
- pigJob:
continueOnFailure: true
queryList:
queries:
- sh pqr.sh
stepId: run-pig-pqr
- pigJob:
continueOnFailure: true
queryList:
queries:
- sh abc.sh
stepId: run-pig-abc
placement:
managedCluster:
clusterName: batch-job
config:
gceClusterConfig:
zoneUri: asia-south1-a
masterConfig:
machineTypeUri: n1-standard-8
diskConfig:
bootDiskSizeGb: 50
workerConfig:
machineTypeUri: n2-highcpu-64
numInstances: 2
diskConfig:
bootDiskSizeGb: 50
softwareConfig:
imageVersion: 1.4-ubuntu18
Iя создаю кластер с командой
gcloud dataproc workflow-templates instantiate-from-file --file $file-name.yaml
Я даю неправильный конфиг в моем yaml?