Я успешно создал и протестировал проект, который запускается локально с помощью docker-compose с использованием примеров данных.Файл Bash для запуска всего конвейерного задания:
cp -r ../data . # transfer data used for job
docker-compose up --build -d
docker exec project_master_1 bin/spark-submit \
--py-files /project/utils.py\
/project/main.py
docker cp project_master_1:/project/data/output/. ../project/output #some tranfer of generated files
docker exec project_master_1 rm -rf /project/data
docker-compose down
Мой файл docker-compose идентичен файлу из этого: ссылка на github
Так что я делаю так:создать кластер dataproc с действием инициализации для установки docker:
gs://dataproc-initialization-actions/docker/docker.sh
Далее:
- Вхожу с помощью ssh мастер
- git clone мой проект (этоттакже можно выполнить действие инициализации (???))
- установить docker-compose
- запустить файл bash.
Запускается, но кажется, чтоэто работает только в мастере, а не в рабочих.Так что я тут делаю не так?Любое понимание полезно.