Я создал объект sparkSession в delta_interface_logids.py
файле, как показано ниже:
from loader.LoadRunner import LoadRunner
from pyspark import SparkConf
from pyspark.sql import SparkSession
import pyspark.sql.functions as F
def get_data(spark):
do_something_with_spark
return something
if __name__ == "__main__":
max_interface_log_id_dict = {}
sparkConf = SparkConf().setAppName("DummyAP").set("spark.jars", "/home/usrname/jars/postgresql-42.1.4.jar ")
spark = SparkSession.builder.config(conf=sparkConf).enableHiveSupport().getOrCreate()
log_data = get_data(spark)
load = LoadRunner(spark)
У меня есть вывод get_data()
в переменной log_data
, и я пытаюсь реализовать класс в Python это берет log_data
и делает некоторую операцию. Чтобы сделать это, я создал класс, как показано ниже:
Но когда я попытался использовать функции объекта spark, я вижу, что объект spark не инициализируется должным образом не видят методы, сгенерированные объектом sparkSession: spark
, который я инициализировал в методе __init__
, который можно увидеть на скриншоте.
Есть ли здесь какая-то ошибка, которую я не вижу методы искрового объекта правильно? Как правильно отправить и инициализировать объект spark в класс LoadRunner
из файла: delta_interface_logids.py