pyspark и python не установлены как часть стека HDP 2.6.0.3-8 - PullRequest
0 голосов
/ 25 февраля 2020

У меня есть кластер HDP, где установлен 2.6.0.3. В одном из узлов шлюза, который не подключен к Ambari, я установил стек hdp. с установкой я установил spark2. пока все в порядке. Но когда я заглянул в него, я не нашел в нем пакета python или pyspark? Нужно ли устанавливать их отдельно? почему пакет pyspark не устанавливается с помощью spark2 из стека HDP 2.6.0.3-8?

1 Ответ

0 голосов
/ 26 февраля 2020

Если при первой установке не устанавливается python в spark2. Вы должны сделать это отдельно. Сначала проверьте с помощью команды 'yum search spark2', вы увидите список пакетов, которые включают python. возьмите это python имя пакета и выполните 'yum install python_package_name'. Он установит python в папку /usr/hdp/2.6.3.0-8/spark2/.

...