Моя таблица Hive была определена с PARTITIONED BY (ds STRING, model STRING)
И при записи в таблицу в PySpark я сделал
output_df
.repartition(250)
.write
.mode('overwrite')
.format('parquet')\
.partitionBy('ds', 'model')\
.saveAsTable('{table_schema}.{table_name}'.format(table_schema=table_schema,
table_name=table_name))
Однако я столкнулся со следующей ошибкой:
org.apache.hadoop.hive.ql.metadata.Table.ValidationFailureSemanticException: Partition spec {ds=2019-10-06, model=p1kr, table_name=drv_projection_table} contains non-partition columns
КажетсяИскра или Улей ошибочно table_name
как раздел. Мой S3-путь к таблице - s3://some_path/qubole/table_name=drv_projection_table
, но table_name
не был указан как часть раздела.