Apache Spark Executors Dead - это ожидаемое поведение? - PullRequest
2 голосов
/ 04 апреля 2019

Я запускаю конвейер для обработки моих данных в Spark.Кажется, что мои Исполнители время от времени умирают, когда достигают предела Памяти хранения.Работа продолжается и в конце концов заканчивается, но это нормальное поведение?Что-то, что я должен сделать, чтобы предотвратить это?Каждый раз, когда это происходит, работа зависает на некоторое время, пока (и я думаю, здесь) YARN не предоставит новых исполнителей для продолжения работы.

Spark UI Executor tab

1 Ответ

0 голосов
/ 10 мая 2019

Оказывается, в моем случае я кешировал слишком много данных, затем, когда исполнителям не хватило памяти, они умерли.YARN начал замену исполнителей, и работа могла продолжаться, так как было достаточно памяти для вычисления разделов.Это позволяет завершить работу, но с большим количеством ошибок.

...