После запуска мастера и рабочего на одном компьютере ...
spark-class org.apache.spark.deploy.master.Master -i 127.0.0.1 -p 7070
spark-class org.apache.spark.deploy.worker.Worker 127.0.0.1:7070
и отправки следующего задания Spark ...
spark-submit --class Main --master spark://127.0.0.1:7070 --deploy-mode client /path/to/app.jar
приложение успешно выполняется, ноисполнитель по какой-то причине насильственно убит:
19/05/10 09:28:31 INFO Worker: Asked to kill executor app-20190510092810-0000/0
19/05/10 09:28:31 INFO ExecutorRunner: Runner thread for executor app-20190510092810-0000/0 interrupted
19/05/10 09:28:31 INFO ExecutorRunner: Killing process!
19/05/10 09:28:31 INFO Worker: Executor app-20190510092810-0000/0 finished with state KILLED exitStatus 1
![a](https://i.imgur.com/HM3nmCJ.png)
Это нормальное поведение?Если нет, как я могу предотвратить это?
Я использую Spark 2.4.0.