В защищенном кластере я не могу выполнить простое задание MR.Мне не удается войти в Kerberos.Вот...
У меня есть задание MapReduce, которое выполняет более 170 миллионов записей.Это приводит к...
Я хочу сделать некоторые вычисления для каждого текстового файла из каталога, а затем использовать...
Описание набора данных туристического сектора: Column 1: City pair (Combination of from and to):...
В файлах конфигурации есть 2 свойства, с которыми я путаюсь: Свойство yarn.nodemanager
У меня есть приложение, в котором оно запускает несколько карт и сокращает количество заданий, у...
Доброе утро, всем Пожалуйста, помогите мне перебрать проблему ниже Данные, сохраненные в Hadoop...
Я создаю свое первое более крупное приложение с AngularJS и испытываю трудности с созданием массива...
У меня есть коллекция в mongodb под названием люди.Ниже один из документов: { id: 102 sex:...
Я хочу знать, как выполнить код преобразования карты в Hadoop 2.9.0 многоузловой кластер?Я хочу...
Формат данных одной строки: id: 123456 Topiclist: ABCDE:1_8;5_10#BCDEF:1_3;7_11 Один идентификатор...
Я хочу запустить MapReduceIndexerTool из Java. Сейчас я делаю это из командной строки, используя...
Я набор данных фильма и набор данных рейтинга, как это movies.txt MovieID – Title – Genres ratings
У меня есть задача потоковой передачи hadoop с python.Это сработало, но один из 32 картографов...
Я использую hadoop3.1.0 для запуска программы Mapreduce WordCount в Ubuntu, но она всегда получает...
У меня есть массив, скажем: const section = [{type: TYPE_B}, {type: TYPE_A}, {type: TYPE_B}, {type:...
У меня есть данные, поступающие с высокой скоростью в файл HDFS.У меня есть внешний стол улья...
когда я отправляю задание уменьшения карты, я получаю следующую информацию, а задание mapreduce не...
Предположим, у меня есть несколько списков L1 = [{2,7},{2,7,8},{2,3,6,7},{1,2,4,5,7}] L2 = [{3,6}...
Как правило, если я пишу HQL-запрос в Hive CLI, он выполняется как задание сокращения карты.Если у...
Я хочу, чтобы моя первая задача сокращения выглядела как что-то вроде (course, );и во второй задаче...
Я хочу запустить задание карты с: bin/hadoop jar wc.jar WordCount /user/hadoop/input...
Вот некоторые входные данные в .csv, например: url1 a url2 b url3 c url4 d url5 e url1 k url1 h...
Где производится сортировка в Hadoop Mapreduce Jobs, когда мы пишем программу?Я испытываю трудности...
Я пишу программу MapReduce, и мое требование для картографа - вывести / выдать x% входного файла...