У меня есть файл Hprof объемом 6,5 ГБ, который был выгружен 64-разрядной JVM с использованием параметра -XX:-HeapDumpOnOutOfMemoryError
. Я установил его на 64-разрядную машину емкостью 16 ГБ и пытаюсь перевести его в jhat, но памяти не хватает. Я попытался передать аргументы jvm для минимальных настроек, но он отклоняет любой минимум и, кажется, ему не хватает памяти перед достижением максимума.
Кажется глупым, что из-за недостатка памяти jvm сбрасывает кучу, настолько большую, что ее нельзя загрузить в коробку с вдвое большим количеством оперативной памяти. Есть ли способы запустить этот анализ или, возможно, амортизировать анализ?