У меня есть следующий код из примеров dags по адресу «https://github.com/apache/airflow/tree/master/airflow/providers/google/cloud/example_dags»:
import os
from airflow import models
from airflow.providers.google.cloud.operators.bigquery import (
BigQueryCreateEmptyDatasetOperator, BigQueryDeleteDatasetOperator,
)
from airflow.utils.dates import days_ago
PROJECT_ID = os.environ.get("GCP_PROJECT_ID", "project_id")
DATASET_NAME = os.environ.get("GCP_BIGQUERY_DATASET_NAME", "dataset_id")
default_args = {"start_date": days_ago(1)}
with models.DAG( "test_dag" , default_args=default_args , schedule_interval=None , tags=["testing"] ) as dag:
create_dataset = BigQueryCreateEmptyDatasetOperator(
task_id="create_dataset", dataset_id=DATASET_NAME
)
delete_dataset = BigQueryDeleteDatasetOperator(
task_id="delete_dataset", dataset_id=DATASET_NAME, delete_contents=True
)
create_dataset >> delete_dataset
Я просто хочу отладить свое соединение Airflow с Google Cloud, создав набор данных а затем удалите его. В настоящее время я получаю следующую ошибку:
Traceback (most recent call last):
File "/home/airflow/.local/lib/python3.6/site-packages/google/cloud/_helpers.py", line 186, in _determine_default_project _, project = google.auth.default()
File "/home/airflow/.local/lib/python3.6/site-packages/google/auth/_default.py", line 321, in default raise exceptions.DefaultCredentialsError(_HELP_MESSAGE) google.auth.exceptions.DefaultCredentialsError: Could not automatically determine credentials. Please set GOOGLE_APPLICATION_CREDENTIALS or explicitly create credentials and re-run the application. For more information, please see https://cloud.google.com/docs/authentication/getting-started
После получения этого сообщения я попытался установить переменную среды с назначенным путем и явно добавить ее в код. Ни один из этих вариантов не работал. Проблема в том, что любой путь кажется недоступным "google.auth.exceptions.DefaultCredentialsError: File was not found"