Ошибка при запуске режима клиент-спарк на мезо с помощью Docker - PullRequest
0 голосов
/ 11 декабря 2018

у нас есть 3-х узловый кластер Mesos.Основной сервис был запущен на компьютере 1 с помощью следующей команды:

sudo ./bin/mesos-master.sh --ip = machine1-ip --work_dir = / home / mapr / mesos / mesos-1.7.0 / build / workDir --zk = zk: // machine1-ip: 2181 / mesos --quorum = 1

и агентские службы на двух других машинах, используя следующую команду:

sudo ./bin/mesos-agent.sh --containerizers = docker --master = zk: // machine1-ip: 2181 / mesos --work_dir = / home / mapr / mesos / mesos-1.7.0 / build / workDir --ip = machine2-ip --no-systemd_enable_support

sudo ./bin/mesos-agent.sh --containerizers = docker --master = zk: // machine1-ip: 2181 / mesos --work_dir = / home / mapr / mesos / mesos-1.7.0 / build / workDir --ip = machine3-ip --no-systemd_enable_support

Ниже установлено свойство вmachine1:

export MESOS_NATIVE_JAVA_LIBRARY = / usr / local / lib / libmesos.so

мы пытаемся запустить искровое задание, используя образ докера.Обратите внимание, что мы не установили «SPARK_EXECUTOR_URI» в machine1, потому что, согласно нашему пониманию, исполнитель будет запускаться внутри контейнера докера, а не на подчиненном компьютере, и, следовательно, это свойство не требуется. Команда

, используемая для отправки с искрой, приведена ниже(из машины 1):

/ home / mapr / newSpark / spark-2.4.0-bin-hadoop2.7 / bin / spark-submit \ --master mesos: // machine1: 5050\ --deploy-mode client \ --class com.learning.spark.WordCount \ --conf spark.mesos.executor.docker.image = мезосфера / spark: 2.4.0-2.2.1-3-hadoop-2.7 \/home/mapr/mesos/wordcount.jar hdfs: // machine2: 8020 / hdfslocation / input.txt hdfs: // machine2: 8020 / hdfslocation / output

мы получаем ошибку ниже искрыsubmit:

Журнал задач Mesos:

I1211 20: 27: 55.040856 5996 exec.cpp: 162] Версия: 1.7.0 I1211 20: 27: 55.064775 6016 exec.cpp: 236] Исполнитель зарегистрирован на агенте 44c2e848-cd06-4546-b0e9-15537084df1b-S1 I1211 20: 27: 55.068828 6018 executor.cpp: 130] Зарегистрированный докер executor на company-i0058.company.co.in I1211 20: 27: 55.069756 6016 executor.cpp: 186] Запуск задачи 3 / bin / sh: 1: /home/mapr/newSpark/spark-2.4.0-bin-hadoop2.7 /./ bin / spark-class: not found I1211 20: 27: 57.669881 6017 executor.cpp: 736] Контейнер завершен со статусом 127 I1211 20: 27: 58.672829 6019 process.cpp: 926] Остановлен цикл приема сокета

сообщений на терминале:

2018-12-11 20:27:49 INFO SparkContext: 54 - Запуск Spark версии 2.4.0 2018-12-11 20:27:49 ИНФОРМАЦИЯ SparkContext: 54 - Подано заявление: WordCount 2018-12-11 20:27:49 ИНФОРМАЦИЯ SecurityManager: 54 - Изменение вида доступа: mapr 2018-12-11 20:27:49 ИНФОРМАЦИЯSecurityManager: 54 - Изменение изменяемых acls на: mapr 2018-12-11 20:27:49 INFO SecurityManager: 54 - Изменение просмотра групп acls на: 2018-12-11 20:27:49 INFO SecurityManager: 54 - Изменение изменяемых acls группto: 2018-12-11 20:27:49 ИНФОРМАЦИЯ SecurityManager: 54 - SecurityManager: аутентификация отключена;пользовательский интерфейс отключен;пользователи с разрешениями на просмотр: Set (mapr);группы с разрешениями на просмотр: Set ();пользователи с правами на изменение: Set (mapr);группы с правами на изменение: Set () 2018-12-11 20:27:49 INFO Используется: 54 - Успешно запущен сервис 'sparkDriver' на порту 48069. 2018-12-11 20:27:49 INFO SparkEnv: 54 - Регистрация MapOutputTracker2018-12-11 20:27:49 INFO SparkEnv: 54 - Регистрация BlockManagerMaster 2018-12-11 20:27:49 INFO BlockManagerMasterEndpoint: 54 - Использование org.apache.spark.storage.DefaultTopologyMapper для получения информации о топологии 2018-12-11 20:27:49 INFO BlockManagerMasterEndpoint: 54 - BlockManagerMasterEndpoint up 2018-12-11 20:27:49 INFO DiskBlockManager: 54 - Создан локальный каталог в / tmp / blockmgr-3a4afff7-b050-45ba-bb50-c9f4ec5cc031 2018-12-11 20:27:49 INFO MemoryStore: 54 - MemoryStore запущен с емкостью 366,3 МБ 2018-12-11 20:27:49 INFO SparkEnv: 54 - Регистрация OutputCommitCoordinator2018-12-11 20:27:49 Журнал INFO: 192 - Журнал инициализирован @ 3157ms 2018-12-11 20:27:50 Сервер INFO: 351 - jetty-9.3.z-SNAPSHOT, временная метка сборки: неизвестно, git hash:неизвестно 2018-12-11 20:27:50 INFO-сервер: 419 - запущен @ 3273ms 2018-12-11 20:27:50 INFO AbstractConnector: 278 - запущен ServerConnector @ 1cfd1875 {HTTP / 1.1, [http / 1.1]} {0.0.0.0:4040} 2018-12-11 20:27:50 INFO Используется: 54 - Успешно запущен сервис 'SparkUI' на порту 4040. 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 6f0628de{/ jobs, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 2b27cc70 {/ jobs / json, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 6f6a7463 {/ jobs / job, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 79f227a9 {json, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20:27:50 ИНФОРМАЦИЯ ContextHandler: 781 - Запущен osjsServletContextHandler @ 6ca320ab {/ stage, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 50d68830 {/ stage / json, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20: 27: 50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 1e53135d {/ stage / stage, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ stage 6 stage / stage00/ json, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 619bd14c {/ stage / pool, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20:27: 50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 323e8306 {/ stage / pool / json, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ a23a01d {a23a01d {, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 4acf72b6 {/ storage / json, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - запущен osjsServletContextHandler @7561db12 {/ storage / rdd, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 3301500b {/ storage / rdd / json, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 ИНФОРМАЦИЯ ContextHandler: 781 - Запущен osjsServletContextHandler @ 24b52d3e {/ environment, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 15deb1dc {/ json, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 6e9c413e {/ executors, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20:27:50ИНФОРМАЦИЯ ContextHandler: 781 - Запущен osjsServletContextHandler @ 57a4d5ee {/ executors / json, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 ИНФО ContextHandler: 781 - Запущен osjsServletContextHandler @ 5af5deec {exAb_All_DAB_exAll_exAll_exAb_d_DAB_E_DAB_NEAB_NEFABLE_FILF {\} \, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 3a45c42a {/ executors / threadDump / json, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 -Запущен osjsServletContextHandler @ 36dce7ed {/ static, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 4b770e40 {/, null, AVAILABLE, @ Spark} 2018-12-12: 27: 50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 78e16155 {/ api, null, AVAILABLE, @ Spark} 2018-12-11 20:27:50 INFO ContextHandler: 781 - Запущен osjsServletContextHandler @ 19868320 {/ jobs / job, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20:27:50 ИНФОРМАЦИЯ ContextHandler: 781 - Запущен osjsServletContextHandler @ 50b0bc4c {/ stage / stage / kill, null, В НАЛИЧИИ, @ Spark} 2018-12-11 20:27: 50 INFO SparkUI: 54 - привязал SparkUI к 0.0.0.0 и начал с http://machine1:40402018-12-11 20:27:50 ИНФОРМАЦИЯ SparkContext: 54 - Добавлен файл JAR: /home/mapr/mesos/wordcount.jar at spark: // machine1: 48069 / jars / wordcount.jar с отметкой времени 1544540270193 I1211 20:27: 50.557170 7462 sched.cpp: 232] Версия: 1.7.0 I1211 20: 27: 50.560644 7454 sched.cpp: 336] Обнаружен новый мастер на master @ machine1: 5050 I1211 20: 27: 50.561132 7454 sched.cpp: 356] Нетпредоставленные учетные данные.Попытка регистрации без аутентификации I1211 20: 27: 50.571651 7456 sched.cpp: 744] Каркас, зарегистрированный в 5260e4c8-de1c-4772-b5a7-340480594ef4-0000 2018-12-11 20:27:50 ИНФОРМАЦИЯ Используется: 54 - Успешно запущенный сервис'org.apache.spark.network.netty.NettyBlockTransferService' на порту 56351. 2018-12-11 20:27:50 INFO NettyBlockTransferService: 54 - Сервер создан на компьютере1: 56351 2018-12-11 20:27:50 INFO BlockManager: 54 - Использование org.apache.spark.storage.RandomBlockReplicationPolicy для политики репликации блоков 2018-12-11 20:27:50 INFO BlockManagerMaster: 54 - Регистрация BlockManager BlockManagerId (драйвер, impetus-i0053.impetus.co.in, 56351,Нет) 2018-12-11 20:27:50 INFO BlockManagerMasterEndpoint: 54 - Регистрация диспетчера блоков machine1: 56351 с 366,3 МБ ОЗУ, BlockManagerId (драйвер, impetus-i0053.impetus.co.in, 56351, отсутствует) 2018-12-11 20:27:50 INFO BlockManagerMaster: 54 - зарегистрированный BlockManager BlockManagerId (драйвер, machine1, 56351, нет) 2018-12-11 20:27:50 INFO BlockManager: 54 - Iнитализированный BlockManager: BlockManagerId (драйвер, machine1, 56351, нет) 2018-12-11 20:27:50 ИНФОРМАЦИЯ ContextHandler: 781 - Запущен osjsServletContextHandler @ 73ba6fe6 {/ metrics / json, null, AVAILABLE, @ Spark} 2018-12-1120:27:50 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - SchedulerBackend готов к планированию, начинающемуся после достижения minRegisteredResourcesRatio: 0.0 2018-12-11 20:27:51 INFO MesosCoarseGrainedSchedulerBackend: 54 - Задача 0 Mesos теперь является TASK-12-11 20:27-12-11: 51 INFO MesosCoarseGrainedSchedulerBackend: 54 - Задача 1 Mesos теперь TASK_STARTING 2018-12-11 20:27:51 INFO MemoryStore: 54 - Блокировать широковещательную рассылку_0, хранящуюся в виде значений в памяти (предполагаемый размер 288,1 КБ, бесплатно 366,0 МБ) 2018-12-1120:27:51 INFO MemoryStore: 54 - Блокировать broadcast_0_piece0, сохраняемый в виде байтов в памяти (примерный размер 25,1 КБ, свободно 366,0 МБ) 2018-12-11 20:27:51 INFO BlockManagerInfo: 54 - Добавлен broadcast_0_piece0 в памяти на компьютере1: 56351(размер: 25,1 КБ, бесплатно: 366,3 МБ) 2018-12-11 20:27:51 ИНФОРМАЦИЯ SparkContext: 54 - Создатьd транслировать 0 из textFile на WordCount.scala: 22 2018-12-11 20:27:52 WARN NativeCodeLoader: 62 - Невозможно загрузить библиотеку native-hadoop для вашей платформы ... с использованием встроенных классов java, где это применимо 2018-12-11 20:27:52 ИНФОРМАЦИЯ FileInputFormat: 249 - Общее количество путей ввода для обработки: 1 2018-12-11 20:27:53 Устаревание информации: 1173 - mapred.output.dir устарела.Вместо этого используйте mapreduce.output.fileoutputformat.outputdir 2018-12-11 20:27:53 ИНФОРМАЦИЯ HadoopMapRedCommitProtocol: 54 - Использование выходного коммиттера класса org.apache.hadoop.mapred.FileOutputCommitter 2018-12-11 20:27:53 ИНФО FileOutputCommitter: 108 - Версия алгоритма фиксатора вывода файла: 1 2018-12-11 20:27:53 ИНФОРМАЦИЯ SparkContext: 54 - Начальное задание: runJob at SparkHadoopWriter.scala: 78 2018-12-11 20:27:53 ИНФОРМАЦИЯ DAGScheduler: 54 -Регистрация СДР 3 (сопоставление на WordCount.scala: 24) 2018-12-11 20:27:53 INFO DAGScheduler: 54 - Получено задание 0 (runJob на SparkHadoopWriter.scala: 78) с 2 выходными разделами 2018-12-11 20:27:53 ИНФОРМАЦИЯ DAGScheduler: 54 - финальная стадия: ResultStage 1 (runJob на SparkHadoopWriter.scala: 78) 2018-12-11 20:27:53 ИНФО DAGScheduler: 54 - родители на финальной стадии: список (ShuffleMapStage 0) 2018-12-11 20:27:53 ИНФОРМАЦИЯ DAGScheduler: 54 - Пропавшие родители: список (ShuffleMapStage 0) 2018-12-11 20:27:53 ИНФОРМАЦИЯ DAGScheduler: 54 - Отправка ShuffleMapStage 0 (MapPartitionsRDD [3] на карту в WordCount.scala:24), который гаs нет пропавших родителей 2018-12-11 20:27:53 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - Задача 1 Mesos теперь TASK_RUNNING2018-12-11 20:27:53 INFO MemoryStore: 54 - заблокировать широковещательную рассылку_1, сохраненную в виде значений в памяти (приблизительный размер 5,0 КБ, свободно 366,0 МБ) 2018-12-11 20:27:53 INFO MemoryStore: 54 - заблокировать широковещательную рассылку_1_piece0в виде байтов в памяти (приблизительный размер 2,9 КБ, бесплатно 366,0 МБ) 2018-12-11 20:27:53 ИНФОРМАЦИЯ BlockManagerInfo: 54 - добавлено broadcast_1_piece0 в памяти на машине 1: 56351 (размер: 2,9 КБ, бесплатно: 366,3 МБ) 2018-12-11 20:27:53 ИНФОРМАЦИЯ SparkContext: 54 - Создана трансляция 1 из трансляции на DAGScheduler.scala: 1161 2018-12-11 20:27:53 ИНФОРМАЦИЯ DAGScheduler: 54 - Отправка 2 пропущенных задач из ShuffleMapStage 0 (MapPartitionsRDD [3] на карте в WordCount.scala: 24) (первые 15 задач для разделов Vector (0, 1)) 2018-12-11 20:27:53 INFO TaskSchedulerImpl: 54 - Добавление набора задач 0.0 с 2 задачами 2018-12-11 20:27:53 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - Задача Mesos 0 теперь является TASK_RUNNING 2018-12-11 20:27:54 Информация MesosCoarseGrainedSchedulerBackend: 54 - Задача 0 Mesos теперь TASK_FAILED 2018-12-11 20:27:54 Блок данныхМастер: 54 - Удаление исполнителя 0 запрошено 2018-12-11 20:27:54 ИНФОРМАЦИЯ CoarseGrainedSchedulerBackend $ DriverEndpoint: 54 - Попросил удалить несуществующего исполнителя 0 2018-12-11 20:27:54 INFO BlockManagerMasterEndpoint: 54 - Попыткаудалить исполнителя 0 из BlockManagerMaster.2018-12-11 20:27:54 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - Задача 1 Mesos теперь TASK_FAILED 2018-12-11 20:27:54 INFO BlockManagerMasterEndpoint: 54 - Попытка удалить исполнителя 1 из BlockManagerMaster.2018-12-11 20:27:54 INFO BlockManagerMaster: 54 - запрошено удаление исполнителя 1 2018-12-11 20:27:54 INFO CoarseGrainedSchedulerBackend $ DriverEndpoint: 54 - запрошено удалить несуществующего исполнителя 1 2018-12-1120:27:54 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - Задача 2 Mesos теперь TASK_STARTING 2018-12-11 20:27:55 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - Задача 3 Mesos теперь TASK_STARTING 2018-12-11 20:27:57 INFO Messenger54 - Задача Mesos 2 теперь TASK_RUNNING 2018-12-11 20:27:57 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - Задача Mesos 2 теперь TASK_FAILED 2018-12-11 20:27:57 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - черный список 93-422a-babe-c5fb0f33e027-S0 из-за слишком большого количества отказов;на нем установлена ​​Spark?2018-12-11 20:27:57 INFO BlockManagerMaster: 54 - запрошено удаление исполнителя 2 2018-12-11 20:27:57 INFO CoarseGrainedSchedulerBackend $ DriverEndpoint: 54 - запрошено удалить несуществующего исполнителя 2 2018-12-1120:27:57 ИНФОРМАЦИЯ BlockManagerMasterEndpoint: 54 - Попытка удалить исполнителя 2 из BlockManagerMaster.2018-12-11 20:27:57 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - Задача 3 Mesos теперь TASK_RUNNING 2018-12-11 20:27:57 ИНФОРМАЦИЯ MesosCoarseGrainedSchedulerBackend: 54 - Задача 3 Mesos теперь TASK_FAILED 2018-12-11 20:27: 57 INFO MesosCoarseGrainedSchedulerBackend: 54 - внесение в черный список Mesos Slave 44c2e848-cd06-4546-b0e9-15537084df1b-S1 из-за слишком большого количества сбоев;на нем установлена ​​Spark?2018-12-11 20:27:57 ИНФОРМАЦИЯ BlockManagerMaster: 54 - Запрошено удаление исполнителя 3 2018-12-11 20:27:57 ИНФОРМАЦИЯ BlockManagerMasterEndpoint: 54 - Попытка удалить исполнителя 3 из BlockManagerMaster.2018-12-11 20:27:57 ИНФОРМАЦИЯ CoarseGrainedSchedulerBackend $ DriverEndpoint: 54 - Запрошено удалить несуществующего исполнителя 3 2018-12-11 20:28:08 WARN TaskSchedulerImpl: 66 - Исходное задание не приняло никаких ресурсов;проверьте интерфейс кластера, чтобы убедиться, что работники зарегистрированы и имеют достаточные ресурсы

...