Я пытаюсь включить раздел Dynami c в моем локальном сеансе Spark (не в режиме приложения)
Я выполняю команды ниже в моей оболочке pyspark (используя Spark 2.4)
spark.sqlContext.setConf ("hive.exe c .dynami c .partition", "true") spark.sqlContext.setConf ("hive.exe c .dynami c .partition.mode" , "нестрогий")
ошибка ниже AttributeError: объект 'SparkSession' не имеет атрибута 'sqlContext'