В настоящее время я работаю над платформой для оценки продукта, и наша база данных - Hbase, я...
os.system('echo "%s" | hadoop fs -put -f - /app/hdp/logs/json/a.json'...
Я настроил HDFS Connector для хранения объектов, как описано здесь: https://docs.us -phoenix-1
Challenge В настоящее время у меня есть два кластера hortonworks, кластер NIFI и кластер HDFS, и я...
Я пытаюсь загрузить локальный файл в HDFS, используя скрипт Python.Прямо сейчас у меня есть Hue...
Я получаю сообщение об ошибке в моем кластере hadoop.Может кто-нибудь объяснить мне, почему
Я получил сообщение о проблеме в тесте, как показано ниже: Есть файл /user/abc/weather/sfo_weather
Как правильно удалить снимок в HDFS?Например: /folder/path/.snapshot/snapshot-20160101 Из...
Я загружаю файлы в хранилище озера данных Azure, используя следующую функцию:...
Я пытаюсь сохранить данные из kafka в hdfs, используя потоковую передачу в java.Это мой кусок кода....
Мы пытаемся выполнить передачу данных между двумя кластерами, для которых включена межрегиональная...
При добавлении в таблицу управления кустами с помощью saveAsTable выполняется ли откат работы,...
Я использую Hadoop из Docker Swarm с 1 наменодом и 3 датододами (на 3 физических машинах).Я также...
Согласно блогу , hdfs использует механизм аренды, чтобы избежать того, чтобы два клиента писали...
У нас есть экземпляр HDFS, который находится в автономном режиме (без HA).Объем данных составляет...
Я пытаюсь прочитать один из файлов, помещенных в HDFS, используя класс сканера, но я не могу это...
Извините, если это глупый вопрос.Я новичок во всем этом материале конвейера:) Я использовал клиент...
Я написал следующую функцию, которая предназначена для записи списка строк в HDFS, но я сталкиваюсь...
Я передавал данные из тем Кафки с помощью Spark.Это код, который я пробовал.Здесь я просто...
Я читал вопрос в интервью в Hadoop, в котором говорилось: Как вы получите расстояние между двумя...
Как я могу получить доступ к расширенным атрибутам файла или каталога HDFS в моем коде Java?Любые...
Я написал tar-файл на HDFS через pyspark, используя saveAsHadoopFile. когда я делаю hdfs dfs -du -s...
Я использую s3distcp, чтобы скопировать набор данных 500 ГБ в мой кластер EMR.Это большой кластер...
Поэтому мне нужно извлечь содержимое файла, хранящегося в HDFS, и выполнить определенный анализ для...
Обычно при работе с Hadoop и Flink открытие / чтение файла из распределенной файловой системы...