У меня есть данные от веб-пользователей в Firestore.
Я вставил некоторые из этих данных в Google BigQuery для запуска модели машинного обучения.
У меня есть опыт обучения моделям машинного обучения, но у меня нет опыта в полученииПрогнозы для новых данных после обучения этой модели.
Я прочитал, что могу загрузить эту обученную модель в облачное хранилище Google, а затем поместить ее на платформу AI, но я не знаю, каким процессом я должен следоватьпотому что новые данные будут вставлены в Bigquery, с этими новыми данными я хочу сделать прогнозы, а затем выбрать эти прогнозы и снова поместить их в Firstore.
Я думаю, что это можно сделать с помощью Dataflow (Apache Beam) или Data Composer (Airflow), где я могу автоматизировать этот процесс и планировать его выполнение каждую неделю, но у меня нет опыта в использовании этих технологий, может кто-нибудь порекомендовать мне, какая технология будет лучше для этого конкретногокейс для поиска информации о том, как его использовать?
Одной из возможностей может быть сохранениемодель на платформе AI или в облачном хранилище google и с облачными функциями вызывать эту сохраненную модель и делать прогнозы для ее сохранения в firestore?