Очень медленная обработка в Apache-Beam для операций BigQuery - PullRequest
0 голосов
/ 10 декабря 2018

Использование beam.io.WriteToBigQuery и beam.io.BigQuerySource

Насколько велик очень большой набор данных, который apache-beam не может обработать без разделения?

Они упоминаются на официальном сайте:

Если вы используете Beam SDK для Python, у вас могут возникнуть проблемы с размером квот на импорт, если вы пишете очень большой набор данных source

, который действительносбивает с толку!У меня есть 100 000 строк данных в одной таблице BigQuery, и я не думаю, что это very large?

Но я сталкиваюсь с очень большой задержкой при чтении данных и повторной записи их в другую таблицу в BigQuery.

...