Как загрузить Airflow DAG (рабочие процессы), не проходя через kubectl? - PullRequest
0 голосов
/ 17 декабря 2018

Я использовал kubectl для загрузки рабочих процессов Airflow в kubernetes (/ usr / local / airflow / dags) вручную.Это можно сделать без использования kubectl?с помощью сценария Python?или что-то другое?Если это возможно, вы могли бы поделиться своим источником?или ваш скрипт на питоне?Спасибо, цени

1 Ответ

0 голосов
/ 18 декабря 2018

Это полностью зависит от вашей настройки.Например, мы используем AWS и поэтому синхронизируем группы DAG с пути S3 каждые 5 минут.Мы просто положили даг в S3.Я вижу, что некоторые настройки Kubernetes используют некий общий том, определенный в репозитории git, который также может работать.Сам Airflow (веб-сервер (-ы), работник (-и) или планировщик) не предлагает никаких хуков для загрузки в каталог DAG.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...