Как увеличить лимит памяти контейнера через консоль Pyspark напрямую? - PullRequest
0 голосов
/ 21 января 2020

Я запускаю задание Spark на узлах 16 ГБ и получаю сообщение об ошибке:

Container killed by YARN for exceeding memory limits.  5.6 GB of 5.5 GB physical memory used. 
Consider boosting spark.yarn.executor.memoryOverhead or disabling yarn.nodemanager.vmem-check-enabled because of YARN-4714.

Как увеличить пределы памяти контейнера непосредственно из консоли? (не раньше открытия Spark shell)?

1 Ответ

0 голосов
/ 22 января 2020

Попробуйте

conf=SparkConf()
conf.set("spark.executor.memory", "12g")
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...