Да, это создает один файл на Spark-раздел.
Обратите внимание, что вы также можете разделить файлы по некоторому атрибуту:
df.write.partitionBy("key").parquet("/my/path")
, в таком случае Spark собирается создать Spark-разделу количество файлов для каждого паркет-раздела. Распространенным способом уменьшения количества файлов в этом случае является перераспределение данных по ключу перед записью (это фактически создает один файл на раздел).