Как анализировать большие файлы дампа JVM - PullRequest
0 голосов
/ 25 августа 2018

Наш кластер hadoop имеет 1000+ узлов и данные 20PB. Итак, наши файлы дампа NameNode имеют размер более 100 ГБ, и мы обнаруживаем, что их трудно анализировать с помощью любых инструментов. У кого-нибудь есть предложения по анализу таких больших файлов дампа jvm?

1 Ответ

0 голосов
/ 02 сентября 2018

MAT - это анализ файла дампа с индексными файлами, можете ли вы отобразить большой файл во множество маленьких файлов и сохранить индексные файлы в общей файловой системе (например, fastdfs)

...