Я следовал руководству по настройке Apache Hadoop для Windows, которое можно найти здесь .Теперь у меня возникла проблема с окнами Datanode, Resource Manager и Yarn cmd, показывающими, что все 3 секунды выключения после открытия продолжали работать только с Namenode.Вот процесс, который я пробовал до сих пор:
- запустить CMD с правами администратора
- использовать команду
start-all.cmd
(откроется окно команд Namenode, Datanode, Yarn и Resourcemanager) - Datanode, Yarn и Resource Manager выдают сообщения о выключении практически сразу после их запуска
SHUTDOWN_MSG: Shutting down ResourceManager at thood-alienware/...
SHUTDOWN_MSG: Shutting down NodeManager at thood-alienware/...
SHUTDOWN_MSG: Shutting down DataNode at thood-alienware/...
Интересно, что только окно Datanode выдает ошибку в качестве причины отключения:
2019-03-26 00:07:03,382 INFO util.ExitUtil: Exiting with status 1: org.apache.hadoop.util.DiskChecker$DiskErrorException: Too many failed volumes - current valid volumes: 0, volumes configured: 1, volumes failed: 1, volume failures tolerated: 0
Я знаю, что могу редактировать количество допустимых сбоев,но я хотел бы на самом деле исправить все, что вызывает этот сбой диска.Когда я открываю каталог datanode, это пустая папка, однако в моем каталоге namenode есть файлы, которые были созданы из `start-all.cmd '.Кто-нибудь работал с Hadoop на Windows раньше?Я совершенно не знаю, куда идти дальше, потому что большая часть онлайн-справки предназначена для систем Linux.