Я заметил, что когда я запускаю задание Hadoop MapReduce, HDFS говорит, что для моих промежуточных...
Создание файла HDFS включает в себя несколько вещей: метаданные, распределение блоков, копирование...
Впервые запускаю программу mapreduce от Oozie. Вот мой файл job.properties...
201901110425 как извлечь веб-сайты и данные из таблиц в кусте с помощью xpath. вставить таблицу...
Я сохранил avro-данные в кластере HDFS, а затем создал две отдельные таблицы для каждой из них,...
Я обнаружил, что там есть две настройки размера буфера, одна из которых io.file.buffer.size из...
У меня проблема с производительностью при загрузке файла размером 4 МБ в таблицу кустов с помощью...
Мне нужно прочитать паркетные файлы, хранящиеся в HDFS (у меня есть кластер Hadoop, защищенный...
У меня есть файл modelling_data.gz с несколькими файлами в папке hdfs.Я заинтересован в распаковке...
Я новичок в слизи.Я хочу настроить мой координатор так, чтобы он выполнялся только в том случае,...
Я пытаюсь загрузить данные из MySQL в HDFS, используя следующий запрос: $ sqoop import --connect...
Я не могу запустить Hbase Master, потому что я получаю эту ошибку: [Thread-18] master.HMaster:...
Reg Квота пространства HDFS - Cloudera Если у меня есть папка A в HDFS, а внутри A есть еще одна...
Как я могу напрямую рассчитать магнитную ссылку файла или каталога на hdfs через MapReduce?
Я хочу взять только последний файл из моего локального в HDFS.Например, имя файла выглядит как...
У меня есть 3 контейнера в одной сети: контейнер Hadoop, контейнер Spark и контейнер Shiny R Я...
Вопрос: У меня есть ниже 2 фреймов данных, хранящихся в массиве.Данные уже разделены по SECURITY_ID
У меня есть список файлов в HDFS, который должен быть отфильтрован за последний n-часовой период с...
Я хочу добавить dfs.namenode.servicerpc-address в моем кластере Hadoop.Использует ли Spark dfs
EMRFS реализует функцию HDFS Inotify?По сути, он реализует org.apache.hadoop.hdfs
Помимо использования Cloudera Navigator, как найти менее часто используемые файлы в HDFS.
Мне нужно периодически перемещать файлы из локального кластера в GCP и обратно, используя python....
У меня есть кластер HDFS с 2 наменодами и 6 датанодами.Во время непрерывного обновления кластера я...
При использовании spark я записываю таблицу данных в таблицу HDFS.Я использую оператор вставки в...
Я получаю данные из файлов .edges (социальные сети Facebook).Каждая строка в этих файлах...