Проблема выполнения Cloudera: Проблема: Начальная работа не приняла никаких ресурсов - PullRequest
1 голос
/ 18 мая 2019

Я пытаюсь получить некоторые данные из дистрибутива Cloudera Quick Start Hadoop (для нас виртуальная машина Linux) в нашей базе данных SAP HANA, используя SAP Spark Controller. Каждый раз, когда я запускаю задание в HANA, оно застревает, и я вижу следующее предупреждение, которое регистрируется непрерывно каждые 10-15 секунд в файле журнала SPARK Controller, если только я не уничтожу задание.

WARN org.apache.spark.scheduler.cluster.YarnScheduler: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources

Несмотря на то, что оно зарегистрировано как предупреждение, похоже, что это проблема, которая препятствует выполнению задания на Cloudera. Из того, что я прочитал, это либо проблема с управлением ресурсами на Cloudera, либо проблема с заблокированными портами. В нашем случае у нас нет заблокированных портов, поэтому он должен быть первым.

Наш Cloudera работает с одним узлом и имеет 16GB RAM с 4 CPU cores.

Глядя на общую конфигурацию, у меня есть куча предупреждений, но я не могу определить, имеют ли они отношение к проблеме или нет.

Cloudera configuration warnings

Вот также, как ОЗУ распределяется на Cloudera enter image description here enter image description here

Было бы замечательно, если бы вы могли помочь мне точно определить причину этой проблемы, потому что в последние несколько дней я безуспешно пробовал разные комбинации вещей.

Спасибо, Димитар

1 Ответ

0 голосов
/ 20 мая 2019

Вы пытаетесь использовать виртуальную машину Cloudera Quickstart для целей, превышающих ее возможности.Он действительно предназначен для того, чтобы кто-то мог поиграть с Hadoop и CDH и не должен использоваться для какой-либо работы на производственном уровне.

Ваш Node Manager имеет только 5 ГБ памяти для использования в вычислительных ресурсах.Чтобы выполнить какую-либо работу, вам необходимо создать Application Master (AM) и Spark Executor, а затем иметь резервную память для ваших исполнителей, которой у вас не будет на Quickstart VM.

...