Я пытаюсь использовать mysqlimport
для импорта нескольких больших файлов txt.
Я использовал свой mysqldump --no-data
, чтобы структура таблицы работала правильно.
Однако когда я прихожу для загрузки данных с помощью mysqlimport
, используя
mysqlimport -uroot -p database_name `pwd`/*.txt
, я получаю следующую ошибку:
mysqlimport: Error: 1062, Duplicate entry 'ocean pro lp braided reg hose' for key 'item_name', when using table: grouped_item_pages_to_index
Хотя я установил unique_checks на 0 как для сеанса, так и для глобально, что я подтвердил с помощью
select @@global.unique_checks;
select @@unique_checks;
Оба возвращают 0, как и ожидалось.
Я сделал grep для grouped_item_pages_to_index.txt, который подтверждает, что есть две записи для 'ocean pro lp braided рег шланг '. Я считаю, что это связано с тем, что в исходной таблице после второй записи был CRLF, и mysqldump, похоже, был удален, что привело к появлению двух идентичных полей под уникальным ключом.
Как я могу отключить проверку уникального ключа? Или указать mysqldump --tab
, чтобы при экспорте оставался конечный CRLF?