Воздушный поток может использоваться в тысячах динамических задач, но не должен. Предполагается, что DAG воздушного потока должны быть довольно постоянными. Например, вы все еще можете использовать Airflow, чтобы обрабатывать весь набор очищенных данных и позже использовать эту информацию в процессе ETL.
Большое количество динамических задач может привести к запуску DAG, например:

Что приводит к большому количеству информации о мусоре как в графическом интерфейсе, так и в файлах журналов.
Я рекомендую построить вашу систему задач поверх библиотеки Celery (не путайте с CeleryExecutor
в Airflow, потому что Airflow можно использовать поверх Celery). Это очередь задач, ориентированная на миллионы задач реального времени:
Сельдерей используется в производственных системах для обработки миллионов задач в день.
Celery написан на Python, готов к работе, стабилен и невероятно масштабируем. Я думаю, что это лучший инструмент для решения вашей проблемы.
Но если вы действительно хотите использовать только Airflow, вы можете прочитать эту статью (о динамическом создании DAG) и эту статью (о динамическом создании задач внутри DAG).