Я хотел бы настроить рабочий процесс NiFi, который извлекает большие документы JSON (от 500 МБ до 3 ГБ), которые были сжаты с FTP-сервера, разбивает объекты JSON на отдельные файлы потока и, наконец, преобразует каждый объект JSON. в SQL и вставить его в базу данных MySQL.
Я использую NiFi 1.6.0 в Oracle Java 8, и в Java установлено 1024 МБ пространства кучи.
Мой текущий поток:
GetFTP -> CompressContent -> SplitJson -> EvaluateJsonPath -> AttributesToJson -> ConvertJSONToSQL -> PutSQL
Этот поток отлично работает для документов JSON меньшего размера. Он выдает Java OutOfMemory
ошибок, как только файл размером более 400 МБ попадает в процессор SplitJson. Какие изменения можно внести в существующий поток, чтобы он мог обрабатывать большие документы JSON?