У меня есть верблюжий маршрут, в котором количество расщепленных объектов может доходить до 90 тысяч. Поскольку количество токенов, которые можно найти в XML, может достигать 90 КБ. Мой начальный размер файла составляет около 40 МБ, но при разделении файла объем памяти достигает 600 МБ.
.split(body().convertTo(String.class)
.tokenizeXML(dummy value,dummy value), new DummyAggregator())
.streaming()
.convertBodyTo(Document.class)
.bean(DummyTransformer.class, TRANSFORM)
.end()
Любая помощь в оптимизации этого кода - огромная помощь.