Я пытаюсь извлечь таблицу из BigQuery, используя google.cloud.storage.Client
метод extract_table
в Python, задав в качестве параметра в destination_uri
массив из нескольких подстановочных знаков Uris.
destination_uri=['gs://{}/{}/{}-*'.format(bucket_name, prefix, i) for i in range(nb_node)]
Ожидаемое поведение - BigQuery будет равномерно разбивать мой стол на несколько больших двоичных объектов.
Размер файла составляет 242 МБ со сжатием
Что действительно происходит, так это то, что получается 1 файл из 242 МБ и 6 пустых других с 20 В, если я дам 7 URIS.
Другие параметры конфигурации: destination_format = "NEWLINE_DELIMITED_JSON" and compression="GZIP"
Любая подсказка, почему это происходит?
Большое спасибо.