У меня достаточно большой CSV-файл (несколько сотен МБ), который я пытаюсь импортировать в таблицу Postgres, при возникновении проблемы возникает какое-либо нарушение первичного ключа (повторяющаяся запись в CSV-файле)
Если бы он был один, я мог бы вручную отфильтровать эти записи, но эти файлы создаются программой, которая генерирует такие данные каждый час. Мой скрипт должен автоматически импортировать его в базу данных.
У меня вопрос: есть ли какой-то выход, что я могу установить флаг в команде COPY или в Postgres, чтобы он мог пропустить дублирующиеся записи и продолжить импорт файла в таблицу?