К сожалению, это будет двухэтапный процесс.Сначала нужно построить таблицу результатов, а затем экспортировать результат.С точки зрения затрат влияние должно быть минимальным - вы будете платить за хранилище, используемое временной таблицей, с результатом, но стоимость составит 0,02 долл. США за ГБ в месяц - поэтому, если вам удастся завершить задачу за 1 час - стоимость будет составлять 0,000027 долл. США за ГБ
job_config = bigquery.QueryJobConfig()
gcs_filename = 'file_*.gzip'
table_ref = client.dataset(dataset_id).table('my_temp_table')
job_config.destination = table_ref
job_config.write_disposition = bigquery.WriteDisposition.WRITE_TRUNCATE
# Start the query, passing in the extra configuration.
query_job = client.query(
"""#standardSql
select * from `project.dataset.table` where <your_condition> ;""",
location='US',
job_config=job_config)
while not query_job.done():
time.sleep(1)
#check if table successfully written
print("query completed")
job_config = bigquery.ExtractJobConfig()
job_config.compression = bigquery.Compression.GZIP
job_config.destination_format = (
bigquery.DestinationFormat.CSV)
job_config.print_header = False
destination_uri = 'gs://{}/{}'.format(bucket_name, gcs_filename)
extract_job = client.extract_table(
table_ref,
destination_uri,
job_config=job_config,
location='US') # API request
extract_job.result()
print("extract completed")