start-all. sh: команда не найдена. Как я могу это исправить? - PullRequest
1 голос
/ 19 января 2020

Я пытался установить oop, используя этот учебник, ссылка (отметка времени видео, где возникает проблема)

Однако после форматирования namenode (hdfs namenode -format) я не могу получить папку «name» в / ab c. Кроме того, start-all. sh и другие команды / sbin не работают.

PS Я пытался установить oop как один узел, который не работал, поэтому я попытался удалить его, повторив все как двойной Настройка узла, поэтому мне пришлось переформатировать namenode. Я не знаю, повлияло ли это на это каким-либо образом.

РЕДАКТИРОВАТЬ 1: я исправил команду start-all. sh, не работающую, потому что была ошибка в. Башр c, что я исправил. Однако я получаю эти сообщения об ошибках при запуске start-all. sh или start-dfs. sh et c.

hadoop@linux-virtual-machine: ~ $ start-dfs. sh Запуск наменодов при [localhost] localhost: mkdir: не удается создать каталог '/usr/local/hadoop-2.10.0/logs': в доступе отказано localhost: chown: нет доступа '/usr/local/hadoop-2.10.0 / logs ': нет такого файла или каталога localhost: начиная с namenode, ведя журнал в /usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual- machine.out localhost: /usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh: строка 159: /usr/local/hadoop-2.10.0/logs /hadoop-hadoop-namenode-linux-virtual-machine.out: Нет такого файла или каталога localhost: head: не удается открыть '/usr/local/hadoop-2.10.0/logs /hadoop-hadoop-namenode-linux-virtual-machine.out 'для чтения: Нет такого файла или каталога localhost: /usr/local/hadoop-2.10.0/sbin/had oop -демон. sh: строка 177: /usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-ma chine.out: нет такого файла или каталога localhost: /usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh: строка 178: / usr / local / has oop -2.10.0 / logs / had oop -had oop -namenode- linux -virtual-machine.out: нет такого файла или каталога localhost: mkdir: невозможно создать каталог '/ usr / local / had oop -2.10.0 / logs ': локальному хосту отказано в разрешении: chown: нет доступа' /usr/local/hadoop-2.10.0/logs ': нет локального файла или каталога: начальный канал данных, ведение журнала в / usr / local / had oop -2.10.0 / logs / had oop -had oop -datanode- linux -virtual-machine.out localhost: /usr/local/hadoop-2.10.0/ sbin / had oop -deemon. sh: строка 159: /usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual- machine.out: нет такого файла или каталога localhost: head: не удается открыть '/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual- machine.out 'для чтения: Нет такого файла или каталога localhost: /usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh: строка 177: / usr / local / had oop -2.10.0 / logs / had oop -had oop -datanode- linux -virtual-machine.out: нет такого файла или каталога localhost: /usr/local/hadoop-2.10. 0 / sbin / имел oop -демон. sh: строка 178: /usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux- virtual-machine.out: такого файла или каталога нет. Запуск вторичных наменодов [0.0.0.0] Подлинность хоста «0.0.0.0 (0.0.0.0)» не может быть установлена. Ключевым отпечатком ECDSA является SHA256: a37ThJJRRW + AlDso9xrOCBHzsFCY0 / OgYet7WczVbb0. Вы уверены, что хотите продолжить подключение (да / нет)? нет 0.0.0.0: Ошибка проверки ключа хоста.

РЕДАКТИРОВАТЬ 2: Исправлена ​​ошибка, указанная выше, при изменении разрешений для папки oop (в моем случае оба имели oop -2.10.0 и имели oop) start-all. sh работает отлично, но namenode не отображается.

1 Ответ

0 голосов
/ 21 января 2020

Непонятно, как вы настраиваете переменную PATH. Или как скрипты не "работают". Вы chmod +x заставили их сделать их исполняемыми? Есть ли что-нибудь из журналов?

Сценарий start-all доступен в каталоге sbin, куда вы скачали oop, так что просто /path/to/sbin/start-all.sh - это все, что вам действительно нужно.

Да, namenode необходимо отформатировать в кластере fre sh. Использование official Apache Guide является самым современным источником и прекрасно работает для большинства.

В противном случае, я бы посоветовал вам узнать о Apache Amabri, который может автоматизировать вашу установку. Или просто воспользуйтесь песочницей, предоставленной Cloudera, или используйте многие из Docker контейнеров, которые уже существуют для Had oop, если вам не нужна полная его «установка».

...