Наш кластер hadoop имеет 1000+ узлов и данные 20PB. Итак, наши файлы дампа NameNode имеют размер более 100 ГБ, и мы обнаруживаем, что их трудно анализировать с помощью любых инструментов.
У кого-нибудь есть предложения по анализу таких больших файлов дампа jvm?