Apache Beam - это всего лишь пакет Python.Это ядро потока данных.Мне не известны какие-либо инструменты автоматизации (средства проверки и т. Д.) Для Cloud Dataflow.
Процесс, который я использую, - это Python Virtualenv.Всякий раз, когда я устанавливаю другую зависимость, я обновляю файл needs.txt.У меня нет проблем с развертыванием заданий Dataflow таким способом.
Также было бы очень легко настроить контейнер Docker для локального тестирования перед загрузкой ваших файлов в Dataflow.Просто добавьте строку apache-beam==2.9.0
(измените для вашей версии) в файл needs.txt при сборке контейнера.