Чтобы файлы (например, скрипты Python) отображались на ваших сотрудниках Cloud Composer Airflow, поместите их в корзину GCS, связанную с вашей средой. Например, если вы поместили файл в gs://my-composer-bucket/data/sample-pyspark.py
(то есть в каталог данных), то вы можете получить к нему доступ по его смонтированному пути:
sample_spark_job = BashOperator(task_id='run_spark_job',
bash_command='sudo python /home/airflow/gcs/data/sample-pyspark.py')
Подробнее о сопоставленных каталогах Composer можно прочитать на общедоступной странице документации .
Если я неверно истолковал ваш вопрос выше, и вы действительно хотите запустить команду Bash для другого экземпляра GCE, то вам следует использовать SSH оператор .