Мне нужно создать много (сотни) таблиц в кластере A, но указывая на HDFS в кластере B (аналогично удаленным кластерам https://docs.cloudera.com/HDPDocuments/HDP2/HDP-2.6.5/bk_data-access/content/querying-remote-clusters.html), я создаю сценарий Python (используя клиент impyla) для этого, я могу успешно запустить "show create table" в кластере A, а затем запустить DDL, возвращенный в кластере B, для создания таблицы, однако он возвращает 0 результатов, потому что мне также нужно добавить разделы в таблицы в кластере B, что подразумевает запуск показа разделов, а затем запуск команды «изменить таблицу x добавить раздел (столбцы), расположение hdfs: // ....»
Поскольку все таблицы имеют разный набор (и количество) разделов, это подразумевает анализ результата отображения разделов и динамическое создание таблицы изменений для добавления их в кластер B. Есть ли другой способ сделать это? возможно, что-то вроде запроса таблиц метаданных куста и получения всех необходимых метаданных для каждой таблицы?