У меня есть кластер с одним экземпляром hadoop, настроенный для работы с некоторым IP-адресом (вместо localhost) в centos linux. Мне удалось правильно выполнить пример работы mapreduce. Это говорит мне о том, что настройка hadoop выглядит нормально.
Я также добавил пару файлов данных в базу данных hadoop в папке "/ data" и отображается через команду "dfs"
bin/hadoop dfs -ls /data
Я пытаюсь подключиться к этой системе HDFS от PDI / Kettle. В обозревателе файлов HDFS, если я неправильно введу параметры подключения HDFS, например, неверный порт, он говорит, что не может подключиться к серверу HDFS. Вместо этого, если я правильно введу все параметры (сервер, порт, пользователь, пароль) и нажму «подключить», это не выдаст ошибку, то есть сможет подключиться. Но в списке файлов он показывает "/".
Не показывает папку данных. Что может быть не так?
Я уже пробовал это:
пробовал chmod 777 для файлов данных, используя "bin / hadoop dfs -chmod -R 777 / data"
попытался использовать root, а также пользователя hdfs linux в файловом браузере PDI
попытался добавить файлы данных в другом месте
несколько раз переформатировал hdf и снова добавил файлы данных
копирование файла jar hadoop-core из hadoop, устанавливаемого в PDI extlib
но он не выводит список файлов в браузере PDI. В журнале PDI я тоже ничего не вижу ... Нужна быстрая помощь ... спасибо !!!
-abhay