Я новичок в spark
и pyspark
Я работаю в кластере с мастером и 2 работниками.
Я бы хотел настроить SparkContext
, который работать только с мастером, так как 2 рабочих не доступны.
Как я могу настроить его? Это то, что я делаю.
import findspark
findspark.init('/usr/lib/spark/')
import pyspark
sc = SparkContext()
spark = SparkSession(sc)
но я получаю ошибку.
Py4JJavaError: An error occurred while calling None.org.apache.spark.api.java.JavaSparkContext.
: org.apache.hadoop.hdfs.server.namenode.SafeModeException: