Я загружаю файлы CSV из S3 в таблицу в виде снежинки, используя COPY INTO. Таблица усекается при каждом запуске процесса (данные сохраняются в последующей промежуточной таблице). В случае завершения COPY INTO, но сбоя задания перед загрузкой в постоянную промежуточную таблицу, записи теряются при следующей загрузке, а команда COPY INTO игнорирует загруженные файлы.
Наш процесс архивирования применяется к файлам старше 1 дня, поэтому я не могу временно переключиться на принудительную загрузку, так как будут загружены ненужные файлы.
Сокращение вручную до просто отсутствующих файлов не является идеальным, поскольку у нас есть более 100 таблиц, которые разделены по имени таблицы в S3.
Кто-нибудь может предложить другие подходы?