Я использую pyspark для кластера oop с ульем. Я знаю, что можно получить версию командной строки spark, hive & oop из командной строки (spark-submit --version
, hive --version
, hadoop version
), но как мне сделать то же самое из pyspark?
получить версию с искрой достаточно просто:
print("Spark version = ".format(spark._sc.version))
Я не могу понять, как получить улей, и у меня была версия oop. Кто-нибудь знает? ТИА