При использовании spark shell мы иногда получаем журналы «Потерянное задание 4 на этапе 2.0» между ними, и причины могут быть многочисленными (например, нехватка памяти / уничтожение исполнителя и т. Д.).Но есть ли какой-нибудь ручной способ явно получить задачи от исполнителя и убить его?