Я выполнил следующую тестовую команду:
airflow test events {task_name_redacted} 2018-12-12
... и получил следующий вывод:
Dependencies not met for <TaskInstance: events.{redacted} 2018-12-12T00:00:00+00:00 [None]>, dependency 'Task Instance Slots Available' FAILED: The maximum number of running tasks (16) for this task's DAG 'events' has been reached.
[2019-01-17 19:47:48,978] {models.py:1556} WARNING -
--------------------------------------------------------------------------------
FIXME: Rescheduling due to concurrency limits reached at task runtime. Attempt 1 of 6. State set to NONE.
--------------------------------------------------------------------------------
[2019-01-17 19:47:48,978] {models.py:1559} INFO - Queuing into pool None
Мой Airflow настроен с максимальным параллелизмом 16. Означает ли это, что я не могу проверить задачу, когда группа обеспечения доступности баз данных работает в данный момент и использовала все ее слоты для задач?
Кроме того, это было немного неясно из документации, но действительно ли airflow test
выполняет задачу, как если бы это был SparkSubmitOperator
, он фактически отправил бы задание?