Я хочу использовать Spark Session в методе python, но получаю ошибку: «SparkContext можно использовать только в драйвере, но не в коде, который он запускает на рабочих. Для получения дополнительной информации см. SPARK-5063».я пытаюсь запустить sparksession из метода, который вызывается другим методом, при запуске в основной функции код работает.
def hive_company(tuples):
spark.sql("insert into table hive_table values(\'%s\',\'%s\')" % tuples)
def data_set(data):
company = data["EMPLOYER_NAME"]
soc_name = data["SOC_NAME"]
if (company == 'XYZ LIMITED'):
comp_tuple = (company, soc_name)
hive_visa.hive_company(comp_tuple)
Ошибка: не удалось сериализовать объект: исключение: кажется, что вы пытаетесьссылаться на SparkContext из широковещательной переменной, действия или преобразования.SparkContext может использоваться только в драйвере, а не в коде, который он запускает на рабочих.Для получения дополнительной информации см. SPARK-5063.