У меня очень большое количество данных, хранящихся в таблице с текстовым разделителем, DDL которой я создал через Impala, я записал ее с данными в Hive и хочу получить ее в Local Unix в одном файле. У меня есть несколько файлов в пути расположения таблицы HDFS, я использовал эту команду:
hadoop fs -cat '<tablelocationinHDFS>/*' > /unixlocalpathandfilename.csv
Я получаю 2 ошибки:
cat: is a directory error
Поскольку внутри него находится один каталог impala_insert_staging , как мне избежать этой ошибки? cat: Unable to write to output stream
Или я должен получать данные в Local с помощью команды get
или getmerge
в один файл?
Как избежать вышеуказанного ошибки и успешный запуск команды.