Получите улей и получите oop версию из сессии pyspark - PullRequest
1 голос
/ 14 февраля 2020

Я использую pyspark для кластера oop с ульем. Я знаю, что можно получить версию командной строки spark, hive & oop из командной строки (spark-submit --version, hive --version, hadoop version), но как мне сделать то же самое из pyspark?

получить версию с искрой достаточно просто:

print("Spark version = ".format(spark._sc.version))

Я не могу понять, как получить улей, и у меня была версия oop. Кто-нибудь знает? ТИА

Ответы [ 2 ]

2 голосов
/ 15 февраля 2020

Получение их из pyspark:

# spark
print(f"Spark version = {spark.version}")

# hadoop
print(f"Hadoop version = {sc._jvm.org.apache.hadoop.util.VersionInfo.getVersion()}")
0 голосов
/ 14 февраля 2020

хорошо, я решил это следующим образом:

from sh import hive, hadoop
print("Hive version = {0}".format(hive("--version")))
print("Hadoop version = {0}".format(hadoop("version")))

Было бы неплохо, если бы был способ получить его от объекта spark без необходимости раскладывать. Если кто-нибудь знает способ, пожалуйста, дайте мне знать.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...