Я хочу пройти тест python в SparkContext в моем блокноте jupyter, и результат также будет отображаться в блокноте. Чтобы проверить, я просто выполняю свой блокнот jupyter следующим образом:
sparkConf = SparkConf()
sc = SparkContext(conf=sparkConf)
sc.addPyFile('test.py')
с test.py, выглядящим как
rdd = sc.parallelize(range(100000000))
print(rdd.sum())
Но когда я выполняю строку sc.addPyFile
в своем блокноте , Вывода не вижу. Я неправильно передаю сценарий pyspark в свой SparkContext?