Я использую мультитенантное решение, размещенное в EMR, в котором работает Spark Cluster.
Многие пользователи запускают там свои задания. Проблема, с которой я сталкиваюсь, заключается в том, что один пользователь может использовать всю память кластера и оставить других пользователей с проблемами «нехватки памяти».
Есть ли способ ограничить использование памяти пользователем в настройках Hadoop?