Мой пример использования включает создание внешней таблицы в Bigquery с использованием кода Pyspark. Источником данных является облачное хранилище Google, где хранятся данные JSON. Я читаю данные JSON во фрейм данных и хочу создать внешнюю таблицу Bigquery. На данный момент создается таблица, но она не является внешней.
df_view.write\
.format("com.google.cloud.spark.bigquery")\
.option('table', 'xyz-abc-abc:xyz_zone.test_table_yyyy')\
.option("temporaryGcsBucket","abcd-xml-abc-warehouse")\
.save(mode='append',path='gs://xxxxxxxxx/')
PS - я использую разъем spark-bigquery для достижения своей цели.
Пожалуйста, дайте мне знать если кто-то сталкивался с той же проблемой.