Вы можете импортировать, используя список файлов. Они будут автоматически объединены для вас.
csv_import = sqlContext.read\
.format('csv')\
.options(sep = ',', header='true', inferSchema='true')\
.load([file.path for file in dayfolders.collect()])\
.createOrReplaceTempView(<temporary table name>)
Если вы настроены на чтение в файлах как отдельные кадры данных, вам нужно объединить каждый кадр данных:
for ind, file in enumerate(dayfolders.collect()):
if ind == 0:
df = spark.read.format("csv")\
.option("inferschema", "true")\
.option("header","true")\
.load(file.path)
else:
df = df.union(spark.read.format("csv")\
.option("inferschema", "true")\
.option("header","true")\
.load(file.path))
I не рекомендую вам это делать. Просто используйте первый метод.