Я запускаю конвейер для обработки моих данных в Spark.Кажется, что мои Исполнители время от времени умирают, когда достигают предела Памяти хранения.Работа продолжается и в конце концов заканчивается, но это нормальное поведение?Что-то, что я должен сделать, чтобы предотвратить это?Каждый раз, когда это происходит, работа зависает на некоторое время, пока (и я думаю, здесь) YARN не предоставит новых исполнителей для продолжения работы.