Я пытаюсь работать с PySpark, используя соединитель MongoDB. Но создание одного сеанса PySpark занимает почти 20-25 секунд, что снижает производительность сервиса. Я также дал фрагмент кода, который я использую для создания сеанса зажигания. Кто-нибудь может подсказать, пожалуйста, как сделать это быстрее?
from pyspark.sql import SparkSession
my_spark = SparkSession \
.builder \
.appName("myApp") \
.config("spark.mongodb.input.uri", "mongodb://localhost:27017/test/collection1" \
.config("spark.mongodb.output.uri", "mongodb://localhost:27017/test/collection1" \
.config("spark.mongodb.input.partitioner", "MongoPaginateBySizePartitioner") \
.getOrCreate()