Я хочу развернуть spark2.3.2 на Yarn, Hadoop2.7.3.
Но когда я запускаю:
spark-shell
Всегда повышать ОШИБКУ:
ERROR TransportClient:233 - Failed to send RPC 4858956348523471318 to /10.20.42.194:54288: java.nio.channels.ClosedChannelException
...
ERROR YarnScheduler:70 - Lost executor 1 on dc002: Slave lost
И dc002, иdc003 вызовет ОШИБКИ Failed to send RPC
и Slave lost
.
У меня есть один главный узел и два сервера подчиненных узлов.Все они:
CentOS Linux release 7.5.1804 (Core)
с 40 процессорами, 62,6 ГБ памяти и 31,4 ГБ подкачки.
Мой HADOOP_CONF_DIR
:
export HADOOP_CONF_DIR=/home/spark-test/hadoop-2.7.3/etc/hadoop
Мой /etc/hosts
:
10.20.51.154 dc001
10.20.42.194 dc002
10.20.42.177 dc003
В веб-интерфейсе Hadoop и Yarn я вижу как узлы dc002, так и узлы dc003,и я могу запустить простую задачу mapreduce для пряжи в hadoop.
Но когда я запускаю spark-shell
или SparkPi
пример программы с помощью
./spark-submit --deploy-mode client --class org.apache.spark.examples.SparkPi spark-2.3.2-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.3.2.jar 10
, ошибки всегда возникают.
Я действительно хочупочему произошли эти ошибки.