Вы можете найти два лучших описания для запуска и запуска Airflow + Dask: https://www.alibabacloud.com/blog/schedule-data-lake-analytics-tasks-by-using-airflow_594183 или https://tech.marksblogg.com/install-and-configure-apache-airflow.html. В частности, первая ссылка мне очень помогла.И работает планировщик Airflow + веб-сервер + DASK-планировщик в порядке.Однако, как только я запускаю Airflow worker + dask-worker, работник Airflow выходит и жалуется на то, что не активирован Celery:
ModuleNotFoundError: No module named 'celery'
И когда я запускаю dask-worker без Airflow worker, все кажется работающимхорошо, пока я не вызову DAG:
worker_1 | [2019-05-12 20:47:05,527] {__init__.py:51} INFO - Using executor DaskExecutor
worker_1 | usage: airflow [-h]
worker_1 | {backfill,list_dag_runs,list_tasks,clear,pause,unpause,trigger_dag,delete_dag,pool,variables,kerberos,render,run,initdb,list_dags,dag_state,task_failed_deps,task_state,serve_logs,test,webserver,resetdb,upgradedb,scheduler,worker,flower,version,connections,create_user,delete_user,list_users,sync_perm,next_execution,rotate_fernet_key}
worker_1 | ...
worker_1 | airflow: error: the following arguments are required: subcommand
worker_1 | distributed.worker - WARNING - Compute Failed
worker_1 | Function: airflow_run
worker_1 | args: ()
worker_1 | kwargs: {}
worker_1 | Exception: CalledProcessError(2, ['airflow', 'run', 'example_python_operator', 'print_the_context', '2019-05-12T20:47:02.111022+00:00', '--pickle', '13', '--local', '-sd', '/opt/airflow/dags/python_exec.py'])
worker_1 |
webserver_1 | [2019-05-12 20:47:06 +0000] [37] [INFO] Handling signal: ttin
webserver_1 | [2019-05-12 20:47:06 +0000] [744] [INFO] Booting worker with pid: 744
webserver_1 | [2019-05-12 20:47:06,299] {dask_executor.py:77} ERROR - Failed to execute task: CalledProcessError(2, ['airflow', 'run', 'example_python_operator', 'print_the_context', '2019-05-12T20:47:02.111022+00:00', '--pickle', '13', '--local', '-sd', '/opt/airflow/dags/python_exec.py'])
Любой намек, чтобы это исправить?