Создать таблицу внешнего куста с помощью pyspark - PullRequest
0 голосов
/ 21 марта 2020

Я пытаюсь создать внешнюю таблицу ульев, используя spark. Но перед лицом ниже ошибка:

 using Create but with is expecting

1 Ответ

0 голосов
/ 21 марта 2020

Использование местоположения подразумевает, что созданная таблица через Spark будет рассматриваться как внешняя таблица.

Из руководства: https://docs.databricks.com/spark/latest/spark-sql/language-manual/create-table.html. Вы также можете сослаться на это: https://spark.apache.org/docs/latest/sql-data-sources-hive-tables.html

LOCATION

Созданная таблица использует указанный каталог для хранения своих данных. Это предложение автоматически подразумевает EXTERNAL.

Более явно:

// Prepare a Parquet data directory
val dataDir = "/tmp/parquet_data"
spark.range(10).write.parquet(dataDir)
// Create a Hive external Parquet table
sql(s"CREATE EXTERNAL TABLE hive_bigints(id bigint) STORED AS PARQUET LOCATION '$dataDir'")
// The Hive external table should already have data
sql("SELECT * FROM hive_bigints").show()

Кроме того, не имеет никакого отношения к pyspark.

Если используется искатель Dataframe Writer, то Опция «путь», используемая ниже, означает неуправляемый и, следовательно, внешний.

df.write.mode("OVERWRITE").option("path", unmanagedPath).saveAsTable("myTableUnmanaged")
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...