Я создал DataFrame для загрузки CSV-файлов и создал временную таблицу для получения статистики по столбцам.
Однако, когда я пытаюсь выполнить команду ANALYZE, я сталкиваюсь с приведенной ниже ошибкой. Эта же команда анализа успешно запущена в Hive.
Версия Spark: 1.6.3
df = sqlContext.read
.format("com.databricks.spark.csv")
.option("header", "true")
.option("mode", "DROPMALFORMED")
.load("/bn_data/bopis/*.csv")
// To get the statistics of columns
df.registerTempTable("bopis")
val stat=sqlContext.sql("analyze table bopis compute statistics for columns").show()
Ошибка:
java.lang.RuntimeException: [1.1] failure: ``with'' expected but identifier analyze found
analyze table bopis compute statistics for columns
^
Сообщите нам, как получить статистику по столбцам с помощью Spark
Спасибо.!