Мне бы хотелось, чтобы переменная окружения была установлена на каждом узле моего кластера datapro c, чтобы он был доступен для задания pyspark, которое будет работать на этом кластере. Каков наилучший способ сделать это?
Мне интересно, есть ли способ сделать это с помощью метаданных Compute Engine (хотя мое исследование пока указывает, что метаданные Compute Engine доступны через сервер метаданных на Compute Экземпляры движка, а не через переменные окружения)
Кроме этого, я не могу придумать способ сделать это, кроме как ввести команду export
в сценарии инициализации datapro c.
Может кто-нибудь предложить какие-либо другие альтернативы?