Я новичок в spark
и pyspark
. Я установил все, что мне нужно, на linux машину с 12
ядрами и 24g
оперативной памяти.
Когда я пытаюсь выполнить какую-либо команду, используя pyspark
, я заметил, что работает только один процессор. Это то, что я делаю, чтобы инициализировать процесс. Это нормально?
from pyspark.sql import SparkSession
spark = SparkSession.builder.getOrCreate()
spark.conf.set('spark.executor.cores', '12')
spark.conf.set("spark.driver.memory", '24g')
spark.conf.set('spark.executor.memory', '24g')
spark.conf.set("spark.python.worker.memory", '24g')
spark.conf.set("spark.sql.shuffle.partitions", '12')
sc = spark.sparkContext