Я настроил кластер hadoop2 и могу отправить пример задания wordcount с помощью команды hadoop jar....
У меня есть запрос, использующий много контейнеров и много памяти.(97% используемой памяти).Есть ли...
Я сохранил некоторые идентификаторы в именах текстовых файлов trainTestID.txt. Мне нужны эти...
У меня есть настройка Hive (v2.3.4) на Spark (exec engine). Запускает приложение / исполнители...
Я имею дело с набором данных movies.dat, предоставленным movielensdata.Первые 5 строк данных: 1:...
У меня есть настройка Hive (v2.3.4) на Spark (exec engine).Моя внешняя таблица ульев имеет формат...
Я использую коммиттер S3A (промежуточный коммиттер каталогов) со своим хранилищем объектов (не AWS)...
Попытка интегрировать Apache Nutch с Hadoop.После сборки файла apache-nutch-1.15.job, который...
Я новичок в Hadoop и хочу начать с количества слов, так как мне кажется, что это Hello World других...
Я разрабатываю ETL с помощью Apache-Spark.Я создаю в общей сложности 10 выходных CSV и у меня есть...
Я пишу программу Mapreduce для обработки изображений Dicom.Целью этой программы Mapreduce является...
У меня есть задание для кодирования моей собственной функции карты, и я не уверен, почему она не...
Я новичок в MapReduce и MRjob, я пытаюсь прочитать CSV-файл, который я хочу обработать, используя...
У меня есть работа, где я загружаю около 5000 файлов.Я получаю ошибку ERROR [main] mapreduce
У меня есть задание mapreduce, где путь ввода файла: /basedirectory/*/*.txt Внутри базового...
Итак, сегодня я заметил странное поведение моего кода уменьшения карты.Потратил 3 часа, пытаясь...
Я хочу прочитать входные данные из каталога, где есть другие каталоги и файлы внутри этих...
У меня проблема с цепочкой Mapper >> Редуктор >> Редуктор Это мои данные: Dpt.csv EmpNo1, DeptNo1...
У меня есть большие данные, и я хочу использовать mapRuduce на этих данных, и я ничего не нашел для...
Я довольно новичок в Hadoop, и мне довольно сложно понять все.Я вроде концептуальная карта...
Когда я запускаю Apache Kylin на Hadoop, я встретил следующую ошибку, связанную с Hadoop MapReduce:...
Текущая настройка у нас есть наш кластер обнаружения из 10 узлов. Каждый узел этого кластера имеет...
Мы читаем данные из файлов ORC и записываем их обратно в формат ORC и Parquet, используя...
Я использую Mongodb, чтобы попытаться определить средний пробег в моей коллекции автомобилей,...
Я настраиваю кластер Hadoop для тестирования / PoC. Есть ли сегодня что-нибудь, что нельзя сделать...