Я пытаюсь запустить это на своем собственном Hadoop Cluser.Я выполнил задание, используя следующую...
Я студент, изучающий Hadoop.В настоящее время работаю над небольшим вопросом файла.Я хотел бы...
Hadoop используется для обработки больших данных, а hadoop использует HBase в качестве своей базы...
, когда я пытаюсь запустить beeline, я получил эту ошибку: Exception in thread "main" java
Каковы наилучшие подходы для переноса кластеров размером 1 ТБ из Big Insights в Cloudera. Cloudera...
Я записываю поток данных Kafka в ведущий приемник по пути HDFS.Кафка выдает строковые данные
Позвольте мне предварить это, сказав, что я Крайне плохо знаком с большими данными / искрой / и т.д
Я ежедневно принимаю данные из различных внешних источников, таких как GA, скребки, Google BQ и т....
Я использую версию 1.1 Kafka с подключением Kafka, и я сталкиваюсь с ошибкой, которую не понимаю.Я...
Мы находимся на HDP 3.0, и когда я выполняю какие-либо запросы на выборку в Hive, он работает...
Я пытался импортировать СУБД (Windows Machine) в HDFS (Linux) с помощью Sqoop. Я использовал...
Я хочу добавить комментарий к каждому столбцу в таблице Hive Parquet.Я пытаюсь добавить комментарий...
Я строю кластер с использованием CDH5.14.2, включает в себя 5 узлов, каждый узел имеет 130G памяти...
Я недавно начал работать над новым проектом, в котором мы используем Spark для записи / чтения...
Я настроил кластер с одним узлом Hadoop с псевдораспределенными операциями и запустил YARN.Я могу...
java.sql.SQLException: ошибка при обработке оператора: FAILED: ошибка выполнения, код возврата 2 из...
Итак, я пытаюсь загрузить CSV-файл через Hive, но CSV-файл имеет временные метки в качестве одного...
Я пытаюсь загрузить модель xgboost в формате .dat в скрипт pyspark напрямую из HDFS. Я пытался...
1. Мой NameNode имеет 86,112,924 files and directories, 82,730,082 blocks, поэтому (86,112,924+82...
У меня есть виртуальная машина hadoop, которая не позволяет мне читать данные удаленно, либо через...
Работа с 20-значным номером счета: 21345698778965412365 Поскольку bigint может иметь дело только с...
Я ищу какие-либо сведения о том, как мне различать каждый столбец и обрабатывать его...
Я пытаюсь получить доступ к данным S3 из spark, используя spark 2.2.0, созданный с использованием...
У нас есть старая версия Anaconda, загруженная в виде пакета на наш кластер Hadoop cloudera, и мы...
Я пытаюсь следовать этому примеру для запуска потоковой передачи Hadoop на моей машине.Он работал...