Вы можете использовать внешний стол Hive.
Создайте папку в HDFS и загрузите туда два файла:
hadoop fs -mkdir /hive-data
hadoop fs -put file1.txt /hive-data/file1.txt
hadoop fs -put file2.txt /hive-data/file2.txt
В качестве альтернативы укажите каталог для загрузки всех файлов:
hadoop fs -put directory-with-files/* /hive-data/
Убедитесь, что файлы загружены правильно:
hadoop fs -ls /hive-data
Создайте внешнюю таблицу в Hive и обратитесь к расположению HDFS:
(Измените разделители схемы, поля и строки, чтобы они соответствовали вашим файлам данных.)
CREATE EXTERNAL TABLE tablename
(
id INT,
desc STRING
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ','
LINES TERMINATED BY '\n'
LOCATION 'hdfs:///hive-data';
Проверка данных в кусте:
select * from tablename;