Я создал CSV-файл, используя spark следующим образом:
t1.write.option ("sep", "\ 001"). Mode ("overwrite"). Format ("csv"). Save ("s3: // test123 / testcsv001 /")
И затем попытался выполнить команду COPY в Redshift для загрузки файла CSV:
скопировать schema123.table123 из 's3: // test123 / testcsv001 / 'access_key_id' удален 'secret_access_key' удален 'session_token' удален 'TIMEFORMAT' auto 'DATEFORMAT' auto 'DELIMITER' \ 001 'IGNOREHEADER AS 0 TRUNCATECOLUMNS NULL как' NULL 'TRIMBLANKS ONCUPELLUPE ПРЕДУПРЕЖДЕНИЕ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЕННЫМ ФУНКЦИОНИРОВАНИЕМ ОБЪЕДИНЕНИЯ С ТРАМБЛАНКАМИ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЯЕТСЯ ОБЪЕДИНЕННЫМ ФУНКЦОМ ОБЪЕДИНЯЕТСЯ ВЫПОЛНЯЕТСЯ ОБЪЕДИНЕНИЕМ ОБЪЕДИНЕНИЯ ОБЪЕДИНЕННЫХ УЧАСТНИКОВ 100%
Команда не выполняется для записей, в которых первый столбец имеет нулевое значение. Первый столбец в искре имеет определение столбца LONG. Целевой столбец является BIGINT без ограничения NOT NULL. Я привел столбец к INT в искре и записал его в csv, и он все еще не удался по той же причине.
Для документации по красному смещению загрузка NULL в BIGINT должна работать нормально.
Любое понимание этого?