Как Cloud SQL работает с Apache Beam и конвейерами?
O / p финального преобразования будет коллекцией, а не строкой. Запись коллекции в cloudsql может привести к перегрузкам и большой задержке.Вы можете написать, используя MySqlDb.connect в функции #pardo, где вы обрабатываете один элемент [TableRow] [Не очень хорошая практика].
Работает с Cloud SQL и каждый день переносит данные в BigQuery, чтобы избежать мутаций в одной строкеBQ?
Вы можете написать скрипт на python, который экспортирует данные из таблицы cloudsql в GCS или LocalStorage [там, где запланирован запуск вашего скрипта], а затем загружать обратно в BQ.
Но вы должны убедиться в значениях NULL.Когда вы экспортируете данные в виде файла, пустые значения в таблице будут заменены на ['N], что приведет к неправильному количеству значений строк при загрузке в BQ.Все это можно сделать с помощью одного скрипта Python.
Какой сервис лучше всего использовать в этом случае?