У меня есть задача преобразовать и объединить миллионы одного JSON-файла в БОЛЬШИЕ CSV-файлы.
Операция будет очень простой, если использовать операцию копирования и сопоставления схем, которые я уже тестировал, проблема заключается в том, чточто огромное количество файлов имеет неправильный формат JSON.
Я знаю, в чем заключается ошибка, и исправление тоже очень простое, я подумал, что мог бы использовать действие кирпича Python Data, чтобы исправить строку, а затем передатьвывод к операции копирования, которая может объединить записи в большой файл CSV.
Я имею в виду нечто подобное, я не уверен, что это правильный способ решения этой задачи.Я не знаю, использовать выходные данные Copy Activy в операции Data Brick