SparkSession - это унифицированная функциональность, не нужно заново инициализировать.
Приходя к другой части импорта функциональности по умолчанию, вы можете использовать эту
>>> execfile("<some name>.py")
Вы можете написать всездесь требуется искровой код и выполните его. Например:
vi scrp.py
df1 = sc.parallelize([[1,2,3], [2,3,4]]).toDF(("a", "b", "c"))
df1.show()
from pyspark.sql.functions import *
В pyspark-shell
>>> execfile("scrp.py")
+---+---+---+
| a| b| c|
+---+---+---+
| 1| 2| 3|
| 2| 3| 4|
+---+---+---+
>>> df1.show()
+---+---+---+
| a| b| c|
+---+---+---+
| 1| 2| 3|
| 2| 3| 4|
+---+---+---+
>>> df1.withColumn("news", when(col("a") > 1, "t")).show()
+---+---+---+----+
| a| b| c|news|
+---+---+---+----+
| 1| 2| 3|null|
| 2| 3| 4| t|
+---+---+---+----+
Надеюсь, это поможет ..