Я пытаюсь адаптировать свои задания Spark, которые в настоящее время выполняются на локальном кластере Hadoop.Я хочу изменить его так, чтобы он продолжал поддерживать локальный запуск и запуск в облаке Google.
Я думал о том, чтобы найти способ определить, определена ли данная переменная среды, чтобы определить, выполняется ли код в облаке:
def run_on_gcp():
return is_defined(os.env["ENVIRONMENT_VARIABLE"])
Я хотел знать, что будетENVIRONMENT_VARIABLE
, который всегда определяется в облаке Google и доступен из экземпляра Dataproc?Я думал о PROJECT_ID
ИЛИ BUCKET
, какую переменную вы обычно используете?Как вы обычно определяете программно, где работает ваш код?Спасибо