Создание внешней таблицы в Hive, необходимо указать местоположение HDFS.
create external table tab1 ( col1 type,col2 type,col3 type)
clustered by (col1,col2) sorted by (col1) into 8 buckets
stored as parquet
LOCATION hdfs://url:port/user/clsadmin/tab1
Нет необходимости в том, что Hive будет заполнять данные, либо это же приложение или другое приложение может загружать данные в местоположениеи hive получит доступ к данным, определив верхнюю часть схемы расположения.
* == SQL == вставить в UK_DISTRICT_MONTH_DATA select * from 'hdfs: // url: port / user / clsadmin / somedata.parquet '-------------------------------------------------- ^^^ ** 1007 *
parquetInput - путь к файлу партера HDFS, а не имя таблицы Hive.Отсюда и ошибка.
Существует два способа решения этой проблемы:
- Определите внешнюю таблицу для "parquetInput" и дайте имя таблицы
- Использование
LOAD DATA INPATH 'hdfs://url:port/user/clsadmin/somedata.parquet' INTO TABLE tab1