Мне нужен совет!
Я пытаюсь загрузить файл партера, расположенный в облачном хранилище Google, в BigQuery с помощью Apache Airflow GoogleCloudStorageToBigQueryOperator.
Мой код:
export_transactions_to_bq_task = GoogleCloudStorageToBigQueryOperator(
task_id="export_transactions_parquet_to_bq",
bucket="tempo-io-datalake-delivery",
source_objects=["bigquery/atlassian/export_transactions.parquet"],
destination_project_dataset_table="datalake-tempo-io:atlassian.transactions",
source_format="PARQUET",
create_disposition="CREATE_IF_NEEDED",
write_disposition="WRITE_TRUNCATE",
autodetect=False,
google_cloud_storage_conn_id="google_cloud_default",
bigquery_conn_id="bigquery_default",
dag=export_transactions_dag
)
Формат паркета не нуждается в какой-либо спецификации схемы, потому что это самоописание (?!), но Airflow выдает ошибку, что необходимо указать один из параметров schema_fields, schema_object или autodetect.
Любые подсказки?