from pyspark.sql import SparkSession
# initialise sparkContext
spark = SparkSession.builder.master('local').appName('myAppName') \
.config('spark.executor.memory', '4gb').config("spark.cores.max", "6").getOrCreate()
sc = spark.sparkContext
# Use SQLContext to read parquet file
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
# Read parquet file
df = sqlContext.read.parquet('ParquetFile.parquet')
Я увеличил память и ядра. Пожалуйста, попробуйте то же самое и
позже вы можете преобразовать в CSV.