У меня есть простая программа mapreduce с одним заданием, но задание не выполняется. Я хочу...
Моя команда собирается создать приложение, и я исследую некоторые распределенные вычислительные...
Я рассматриваю возможность использования Apache Hive в качестве бэкенда для приложения, которое я...
У меня есть два вопроса относительно инфраструктуры MapReduce и полноты Тьюринга: Прежде всего,...
У меня большая, широкая таблица, хранящаяся в Apache Hbase для случайных поисков. Таблица...
Я использовал потоковую передачу hadoop для запуска кода mapreduce. Это мой статус бега 19/07/08...
У меня есть вопросы- Существует ли какая-либо система, которая использует все три абстрактные...
Я попытался запустить задание mapreduce в Hadoop 2.8.5, но оно продолжает работать. Состояние...
spark-submit --class spark_deploy1.spark_deploy1 --master local[*]...
Я написал код алгоритма TF.IDF для pyspark, основанный на процессе MapReduce.Я хочу, чтобы мой...
Мы используем Hadoop 2.7.1, и я обнаружил, что ниже 2 параметра установлены в некотором...
Мои задания сокращения карты не выполняются после обновления hadoop до 3.0 с ошибкой log4j...
Я читаю несколько входных файлов для проблемы подсчета слов. Примеры имен файлов: file1.txt file2
Мои данные выглядят так field1,field2,value1,value2 a,b,1,1 b,a,2,2 c,a,3,5 b,c,6,7 d,a,6,7...
Обеспечивает ли каскадирование способ разбиения набора данных на куски? Например, каждый чанк будет...
Я новичок в Apache Hive. Я попытался выполнить запрос на Apache Hive. Но ударил где-то посередине....
Моя функция Reduce в CouchDB создана для возврата массива, но когда я запускаю запрос Couch, я...
Привет Я пытался придумать модифицированную версию стандарта WordCount v1.0 при этом я читаю все...
Мои данные выглядят так field1,field2,value1,value2 a,b,1,1 b,a,2,2 c,a,3,5 b,c,6,7 d,a,6,7 У меня...
Я пытаюсь загрузить CSV-файл, хранящийся в формате hdf, с примерно 140 миллиардами строк, с помощью...
Пытаюсь загрузить вкладку разделенный файл HDFS ( 3.5G ) с 45-миллионной записью в HBASE, используя...
Я пытаюсь разработать процесс TF.IDF для pyspark с помощью MapReduce (платформа - Databricks)
Я работаю над проектом spark в IDE затмения, используя scala Мне нужна помощь с этой проблемой...
У меня есть ТБ данных, которые хранятся с использованием --storage-class = STANDARD в одном месте...
Я бы хотел помочь вам в следующем. В моей работе у меня есть два кадра данных. Первый, называемый...