После некоторых преобразований я регулярно загружаю плоский файл с записями по 100 тыс. В таблицу. В таблице есть PK на двух столбцах. Данные в целом не содержат дублирующуюся информацию PK, но иногда встречаются дубликаты.
Я наивно не понимал, почему SSIS отклонял все мои записи, когда только некоторые из них нарушили ограничение PK. Я считаю, что проблема заключается в том, что во время массовой загрузки, если хотя бы одна из строк нарушает ограничение PK, все строки в этом пакете отклоняются.
Если я изменю свойство FastLoadMaxInsertCommitSize пункта назначения OLE Db на 1, если проблема устранена, но затем она работает как собака, поскольку она фиксирует каждую 1 строку.
В MySQL средство массовой загрузки позволяет игнорировать ошибки PK и пропускать эти строки без ущерба для производительности. Кто-нибудь знает способ достижения этого в SQL Server.
Любая помощь высоко ценится.