Почему переключение среды conda исключает HADOOP_CONF_DIR? - PullRequest
0 голосов
/ 08 мая 2018

У меня странная проблема с окружающей средой. У меня есть два окружения conda base и rnn. Когда я набираю pyspark --master yarn, находясь в среде base, интерактивная оболочка запускается успешно, и я могу использовать веб-интерфейс YARN, чтобы убедиться, что оболочка PySpark отправлена ​​в YARN.

Однако, когда я набираю source activate rnn и затем pyspark --master yarn, я вижу следующее исключение.

Исключение в потоке "main" java.lang.Exception: при запуске с мастер 'пряжа' HADOOP_CONF_DIR или YARN_CONF_DIR должна быть установлена ​​в окружающая среда. в org.apache.spark.deploy.SparkSubmitArguments.validateSubmitArguments (SparkSubmitArguments.scala: 286) в org.apache.spark.deploy.SparkSubmitArguments.validateArguments (SparkSubmitArguments.scala: 246) в org.apache.spark.deploy.SparkSubmitArguments. (SparkSubmitArguments.scala: 119) в org.apache.spark.deploy.SparkSubmit $ .main (SparkSubmit.scala: 129) в org.apache.spark.deploy.SparkSubmit.main (SparkSubmit.scala)

Если переключиться обратно в среду base conda и ввести printenv, я также не вижу HADOOP_CONF_DIR или YARN_CONF_DIR. Меня смущает, где и как устанавливаются эти переменные среды и почему переключение с одной среды conda на другую может привести к исключению, описанному выше. Любые идеи о том, как решить эту проблему?

...