при попытке использовать spark 2.3 на HDP 3.1 для записи в таблицу Hive без соединителя хранилища...
Я построил кластер из 3 узлов на Hadoop3 и хочу сравнить производительность политик кодирования...
Во время перехода с hadoop2 на hadoop3 мы заметили пару проблем с pid-файлами и сценариями...
У меня настроен планировщик емкости с двумя очередями - «низкий приоритет», «обычный приоритет»....
Я пытаюсь создать рабочий процесс Oozie для ежедневного выполнения сценария Python, для которого...
Итак, я запускаю свой импорт sqoop с помощью команды, подобной sqoop import -Dmapreduce.job
Когда я пытаюсь прочитать файл паркета из указанного места, например / test, с помощью spark.read