У меня есть следующий код: def getResults(df: DataFrame) : Dataset[Row] = { df
Например, у меня есть файл 1 Гб в HDFS, как 2018-10-10 12:30 EVENT INFORMATION 2018-10-10 12:35...
Я пытаюсь заставить HBase работать с Hadoop. Я могу заставить HBase работать без Hadoop , установив...
У меня есть кластер из трех узлов, на котором установлены Kerberos и Ranger. Я просто немного...
Добрый день, Можете ли вы дать мне совет, как я могу заменить RTRIM(path,'?') с...
для требований проекта мне нужно извлечь метаданные HBase для всех регионов. Именно для каждого...
Я просто использую приведенный ниже код для записи в 2 разных выхода org.apache.hadoop.mapreduce
В рамках моего текущего проекта мне нужно обработать 19 ТБ данных, размещенных на Amazon S3 (...
У меня есть таблица с таким столбцом, как [{"key":"e"...
SQOOP IMPORT в формате avro завершается с ошибкой ниже. Пожалуйста помоги. Код указан внизу....
У меня есть файл ORC со следующей структурой: Type: struct<event_ts:timestamp...
Я хочу попрактиковаться в hadoop в псевдораспределенном режиме, поэтому я следовал документации...
Я собирался прочитать таблицу Hive в spark, используя scala, извлечь из нее некоторые / все поля и...
Я не уверен, что кто-то может мне помочь, но я попробую. Я запускаю Jenkins на Openshift-Cluster,...
Apache Sqoop Версия 1.4.7. Совместима ли эта версия с версией Hadoop 3.1.1.
Я работаю на windows 8.1, Hadoop 2.6, spark 1.6, hive и rapidminer 9.0 версии. У меня есть процесс,...
Предположим, что я не такой инструмент, как Hive или HBase (Spark все равно не может использовать...
Пытаюсь написать что-н. HDFS с использованием Java. HDFS работает хорошо, и я могу вручную...
Я учу себя Hadoop и модели программирования Map Reduce. Я пытаюсь понять это основные элементы: Я...
Предположим, что моя задача может быть разделена на подзадачи, которые могут выполняться независимо...
Как проверить первые непустые значения в улье Например Выбор ('', 5) должен привести к 5 Выбор (5,...
В руководстве HDFS Quota сказано следующее для Space Quota. В каких случаях мы не выделяем блоки...
У меня есть кластер Hadoop, работающий в локальном облаке, и каждый узел данных имеет 8 дисков, и...
Когда я запускаю следующий код в pyspark shell import pymongo_spark pymongo_spark.activate() rdd =...
У меня странная проблема в кластере Hadonworks Hadoop. Для одного узла вид Ambari показывает, что...