Spark потребляет больше кучи памяти. это правда? - PullRequest
0 голосов
/ 28 июня 2018

По отношению к памяти кучи.

Spark потребляет больше кучи памяти сравнительного Hadoop.

Пожалуйста, посоветуйте мне.

1 Ответ

0 голосов
/ 28 июня 2018

Начиная с версии Apache Spark 1.6.0, модель управления памятью изменилась. Старая модель управления памятью реализована классом StaticMemoryManager и теперь называется «устаревшим». Режим «Legacy» по умолчанию отключен, что означает, что выполнение одного и того же кода на Spark 1.5.x и 1.6.0 приведет к другому поведению, будьте осторожны с этим. Для совместимости вы можете включить «устаревшую» модель с параметром spark.memory.useLegacyMode, который по умолчанию отключен.

Это также зависит от конфигурации кучи.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...