Я разделил данные в HDFS. В какой-то момент я решил обновить его. Алгоритм: Чтение новых данных из...
Мы пытаемся импортировать Sqoop, используя Java, который работает нормально, пока я не попытаюсь...
есть ли что-нибудь, что я могу открыть файлы в HDFS в редакторе, таком как Sublime или Notepad ++...
Я пытаюсь реализовать базовую Java-программу MapReduce, чтобы узнать максимальную температуру из...
Мне нужно скопировать много файлов из одного места в формате hdfs в другое. Я написал команду для...
Я впервые установил HIVE на 3-узловом кластере CentOS 7 для целей POC. HIVE устанавливается внутри...
это мой первый вопрос о переполнении стека. Я настроил свой кластер с одним узлом hadoop (2.9.2) в...
При настройке псевдо или полного кластера, нам нужно отформатировать узел данных для установки...
Я пытаюсь записать обработанные данные в папку HDFS. Я получаю запись данных в папку HDFS после...
Недавно я отформатировал namenode, и при запуске datanode hadoop daemon не работал и выдавал ошибку...
Мне нужно записать записи данных в памяти в файл HDFS в формате Parquet с использованием языка C ++
Я пользуюсь hive2.1.0. с SQL, когда я хочу вставить значение в таблицу, появится следующая ошибка:...
У нас есть много заданий distcp, копирующих данные из нашего основного кластера в резервный кластер
Я хочу развернуть следующую таблицу | ID | Code | date | qty | | 1 | A | 1/1/19 | 11 | | 1 | A |...
У нас есть простой запрос к таблице / представлению размером около 5 ТБ. Мы выполняем ETL и,...
Я пытаюсь использовать модуль pywebhdfs в Spyder для взаимодействия с hdfs напрямую, чтобы вывести...
Я полный новичок, пытающийся узнать о Hadoop и MapReduce. Я понимаю, что HDFS может хранить...
У меня есть файлы teradata на сервере SERVER A, и мне нужно скопировать их на сервер B в HDFS....
Я пишу код flink, в котором я читаю файл из локальной системы и записываю его в базу данных,...
Путь контрольной точки flink - это абсолютный путь hdfs, такой как hdfs://address:port/path, но...
У меня есть длительное структурированное потоковое задание, которое использует несколько тем Kafka...
Я создал внутреннюю таблицу улья с помощью команды sqoop. sqoop import -Dmapreduce.map.memory
с новым годом. Мне назначено выполнить задание на кластере Cloudera, настроенном на AWS, и я вижу...
Я развернул Hadoop в докере, который работает на экземпляре AMI aws ec2 ubuntu. когда я пытаюсь...
У меня есть требование, чтобы таблицы из SAS в форме файла "abc.sas7bdat" были предоставлены в...