Я пытаюсь установить Accumulo с открытым исходным кодом на RHEL 7.x.У меня есть два ГБ пространства...
Я указал два кластера в моем mapr-clusters.conf cluster1 secure=true cldb1:7222 cldb2:7222...
Мой hdfs-site.xml имеет ТОЛЬКО следующее: <configuration> <property> <name>dfs
код: hadoop jar /home/xnz/local/opt/apache-mahout-distribution-0.13.0/mahout-integration-0.13.0.jar...
Я пытаюсь использовать любую комбинацию библиотеки Python" re " и фрагмента python, чтобы исправить...
У меня есть примерное изображение набора данных и ожидаемый результат. Что может быть лучшим...
Для команды -copyFromLocal есть опция с -f, которая принудительно копирует данные из локальной...
В таблице этапов у нас есть данные в поле «call_log», которые имеют тип данных String:...
Я использую spark-shell для отправки этой программы , "./spark-shell --master spark://192.168
в проекте использовать спрэд hdfs файл read read, кешировать файл в памяти, затем закрыть сеанс...
Я установил Hadoop-клиент на машине Debian за пределами моего кластера. Я хочу сделать операции...
Я использую следующий запрос для извлечения дополнительных данных в sqoop- bin/sqoop job --create...
Я начал с необходимости резервного копирования всего каталога данных hadoop datanode, используя:...
У меня есть большая таблица Hbase, где каждый ключ строки является xyz_date (каждый xyz уникален)....
Когда я запускаю Apache Kylin на Hadoop, я встретил следующую ошибку, связанную с Hadoop MapReduce:...
Текущая настройка у нас есть наш кластер обнаружения из 10 узлов. Каждый узел этого кластера имеет...
Я пытаюсь сформулировать некоторые вызовы RESTful для возврата определенных данных из таблицы hbase...
Какова формула для того, сколько узлов / стоек вы можете потерять в hdf до потери (если...
В РСУБД 100 таблиц, но я хочу импортировать только 50 таблиц. Как это сделать с помощью Sqoop? Я не...
Я запускаю namenode с пользователем hduser @ master, датоды работают с user1 @ slave1, user1 @...
У меня есть инструмент, который использует org.apache.parquet.hadoop.ParquetWriter для...
Мы читаем данные из файлов ORC и записываем их обратно в формат ORC и Parquet, используя...
Может показаться странным, но мне нужно сравнить список имен таблиц и столбцов, хранящихся в...
В нашем кластере минимальный размер контейнера равен 8 ГБ. большинство запросов улья используют 1...
Мне нужно найти дату создания файла или папки в каталоге hdfs.Например с: hadoop fs -ls...