Я храню поток данных, поступающих через пожарный шланг на S3, и создал таблицы в Афине, которые запрашивают эти данные. Данные в S3 разделены на основе таких полей, как clientID, date. Задание искры обрабатывает эти входящие данные, которые поступают с регулярным интервалом. При каждом запуске задание spark получает данные (дельта - для этого интервала), объединяет их с базовыми данными, уже имеющимися в этом разделе (к последнему измененному времени в случае наличия дублирующих записей) в S3, и перезаписывает раздел для сохранения. когда коммиттер S3A записывает эти файлы, он удаляет существующие файлы и копирует вновь созданные файлы. Возможно ли, что при запросе данных из таблиц athena он не возвращает никаких данных, поскольку старые файлы удаляются, а новые файлы еще не записаны полностью. Если да, как вы справляетесь с этим.