При чтении паркетных файлов в pyspark я получаю следующую ошибку.
Как я могу ее исправить.
Ошибка:
org. apache .spark.SparkException: задание прервано из-за сбоя этапа: задание 0 на этапе 131.0 не выполнено 4 раза, последний сбой: потерянное задание 0.3 на этапе 131.0 (TID 16100, 10.107.97.154, исполнитель 56): org. apache .spark .SparkException: исключение, генерируемое в awaitResult:
Причина: java .io.IOException: Не удалось прочитать нижний колонтитул для файла: FileStatus {path =; isDirectory = ложь; длина = 32203696; Репликация = 0; размер_блок = 0; MODIFICATION_TIME = 0; access_time = 0; владелец =; группа =; разрешение = RW-RW-rw-; isSymlink = ложь}