У меня проблема с контрольными точками в рабочей среде, когда spark не может найти файл из папки _spark_metadata
18/05/04 16:59:55 INFO FileStreamSinkLog: Set the compact interval to 10 [defaultCompactInterval: 10]
18/05/04 16:59:55 INFO DelegatingS3FileSystem: Getting file status for 's3u://data-bucket-prod/data/internal/_spark_metadata/19.compact'
18/05/04 16:59:55 ERROR FileFormatWriter: Aborting job null.
java.lang.IllegalStateException: s3u://data-bucket-prod/data/internal/_spark_metadata/19.compact doesn't exist when compacting batch 29 (compactInterval: 10)
Уже был задан вопрос , но пока нет решения.
В папке контрольных точек я вижу, что пакет 29 еще не зафиксирован, поэтому я могу удалить что-то из контрольных точек sources
, state
и / или offsets
, чтобы предотвратить сбой искры из-за отсутствия файла _spark_metadata/19.compact
?