У меня есть таблица Hive Orc с определением, аналогичным следующему определению
CREATE EXTERNAL TABLE `example.example_table`(
...
)
ROW FORMAT SERDE
'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
WITH SERDEPROPERTIES (
'path'='s3a://path/to/table')
STORED AS INPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat'
LOCATION
's3a://path/to/table'
TBLPROPERTIES (
...
)
Я пытаюсь использовать PySpark для добавления фрейма данных к этой таблице, используя пример «df.write.insertInto (»).example_table ")".При выполнении этого я получаю следующую ошибку:
org.apache.spark.sql.AnalysisException: Can only write data to relations with a single path.;
at org.apache.spark.sql.execution.datasources.DataSourceAnalysis$$anonfun$apply$1.applyOrElse(DataSourceStrategy.scala:188)
at org.apache.spark.sql.execution.datasources.DataSourceAnalysis$$anonfun$apply$1.applyOrElse(DataSourceStrategy.scala:134)
...
При взгляде на базовый Scala-код условие, которое выдает эту ошибку, проверяет, имеет ли местоположение таблицы несколько значений "rootPaths».Очевидно, моя таблица определена с одним местоположением.Что еще может вызвать это?