Похоже, что еще нет автоматически созданной удобной ссылки для извлечения выходных данных в журналах Airflow, но ее, безусловно, можно добавить (если вы чувствуете себя смелым, возможно, стоит отправить запрос на извлечение в Airflow самостоятельно!запрос функции https://issues.apache.org/jira/browse/AIRFLOW).
Как правило, вы можете создать удобный URL-адрес или команду CLI для копирования / вставки, используя заданный идентификатор задания; если вы хотите использовать пользовательский интерфейс Dataproc напрямую, просто создайте URL-адрес в виде:
https://cloud.google.com/console/dataproc/jobs/%s/?project=%s®ion=%s
с параметрами
jobId, projectId, region
В качестве альтернативы вы можете ввести:
gcloud dataproc jobs wait ${JOBID} --project ${PROJECTID} --region ${REGION}
Более прямой подход с URI был бы:
gsutil cat ${LOG_LINK}*
с выражением glob в конце этого URL (это не просто один файл, это набор файлов).