Мой core-site.xml настроен следующим образом. <configuration> <property> <name>fs
У меня есть таблица улья со столбцами имя_скрипта, время_запуска, время_конца, длительность. Все 3...
Я новичок в Hadoop, HBase и Hive. Я установил HBase и Hive в двух отдельных кластерах через Ambari....
Я использую Билайн для выполнения hql-запросов.Задание не отображается в диспетчере ресурсов для...
C:\Users\nilotpal.datta>hdfs namenode -format Error: JAVA_HOME is incorrectly set. Please update...
Я использую S3 в качестве хранилища данных и создаю внешние таблицы Hive, определяющие...
Я новичок в области больших данных, когда я использую команды Sqoop для импорта данных из teradata...
Я пытаюсь выполнить задание Oozie через API его веб-служб (Oozie 4.1.0-cdh5.15.2).Ранее это задание...
Рассмотрим, у меня есть таблица улья со столбцами имя_скрипта, время начала, время окончания,...
Я создал небольшую кластерную настройку Hadoop с 1 NameNode и 1 DataNode, чтобы получить...
Во-первых, я использую режим программирования livy с java.Затем я реализовал интерфейс задания,...
Сообщение об ошибке - 19/03/06 03:58:20 ERROR CoarseGrainedExecutorBackend: Driver 19.17.18
Я новичок в sqoop. Sqoop версия: 1.4.7 Версия Hadoop: 2.9.1 Я получаю сообщение об ошибке на...
Я сталкиваюсь с этой странной проблемой, когда длины журналов событий Spark не обновляются должным...
Как настроить Elasticsearch в распределенном режиме? В настоящее время у меня есть, Spark 2.4...
По умолчанию локально-первое планирование в основном предназначено для задач карты. Было бы полезно...
Я пытаюсь установить Hue 3 на HDP, я интегрирую сервис Hue, и он доступен через интерфейс Ambari.Я...
У меня проблемы с запуском hdfs. Мой кластер состоит из 3 узлов на облачной платформе Google. 1 -...
Я успешно выполнил специальный импорт из таблицы оракулов в таблицу Hive с помощью Sqoop.Теперь я...
У меня был проект, который в настоящее время работает на Hadoop 2.7.Я попытался запустить его на...
Я получаю UnicodeEncodeError в Python 2.7, когда отправляю задание в spark 1.6, hadoop 2.7, но Я не...
Мы написали Apache Spark для хранения набора данных в формате HDFS в .csv. Мы пытаемся...
Я использую Flume для HiveSink из источника kafka, когда я использую HDFSSink, это было достаточно...
Мы делаем grep для файла hdfs.тот же поиск в локальном файле дает более быстрые результаты по...
Я пытаюсь выполнить UNION ALL для трех разных таблиц с одинаковой структурой DDL, но в результате...