Я полагаю, что этот формат файла является внутренней вещью, которая используется Spark для сохранения значений для каждого раздела. Если вы используете какое-то хранилище BLOB-объектов (извините, я пользователь Windows), вы все равно должны иметь возможность загрузить файлы обратно из места вывода, а затем снова поработать с ними, используя DataFrame.
То, что я пытаюсь сказать, это то, что, хотя у вас мало что сказано в именах файлов, так как это то, что Spark делает сам, это не должно мешать вам создавать свой собственный рабочий процесс, в котором вы пакетируете вещи, в которые вы заглядываете внутрь. файлы для некоторой метки времени (я предполагаю, что содержимое файла имеет какой-то столбец DataTime, если не стоит добавлять его)
Именно так я бы поступил с вещами, сделав временную метку частью содержимого файла, и затем вы можете использовать фактическое содержимое файла (как я говорю, прочитайте в DataFrame, скажем), а затем просто использовать обычные операции DataFrame / Map на загруженные выходные данные
Я вроде бы примерно говорю об этом здесь .