Я читал BigQuery> Документация> Экспорт данных таблицы> Экспорт данных таблицы и теперь понимаю, что я могу экспортировать данные из таблицы большого запроса в корзину хранения GCS. Приведенный здесь пример кода Python демонстрирует, как это сделать, когда к таблице bigquery и корзине хранения обращаются с использованием одинаковых учетных данных:
destination_uri = 'gs://{}/{}'.format(bucket_name, 'shakespeare.csv')
dataset_ref = client.dataset(dataset_id, project=project)
table_ref = dataset_ref.table(table_id)
extract_job = client.extract_table(
table_ref,
destination_uri,
# Location must match that of the source table.
location='US') # API request
extract_job.result() # Waits for job to complete.
Мне интересно, возможно ли это сделать, когда к таблице bigquery и хранилищу обращаются с использованием различных учетных данных. В моей реальной ситуации я хочу экспортировать данные из больших запросов в projectA и сохранять их в корзине, принадлежащей projectB. И projectA, и projectB доступны с использованием разных учетных данных. ProjectA принадлежит третьей стороне, и я получил доступ только к большому запросу, а не к каким-либо хранилищам.
Возможно ли это, и если да, то как? Я подозреваю, что ответ - нет, но просто подумал, что я спрошу.