При выполнении задания Spark (Glue) - при записи Dataframe в S3 - появляется ошибка:
Container killed by YARN for exceeding memory limits. 5.6 GB of 5.5 GB physical memory used.
Consider boosting spark.yarn.executor.memoryOverhead or
disabling yarn.nodemanager.vmem-check-enabled because of YARN-4714.
Существует ли простое лекарство от этого?
Как записать Dataframe в S3 можно оптимизировать (использовать меньше памяти)?
Как увеличить объем памяти для контейнеров, чтобы у нас было больше места для работы?