Spark, являющийся новейшим инструментом в экосистеме Hadoop, связан с более ранними инструментами Hadoop.Улей был самым популярным до недавнего времени.На большинстве платформ Hadoop хранятся данные в таблицах Hive, доступ к которым можно получить с помощью Hive в качестве механизма SQL.Тем не менее, Spark также может делать то же самое.
Таким образом, в данных утверждениях упоминается, что вы можете подключиться к метастагу Hive (который содержит информацию о существующих таблицах, базах данных, их расположении, схеме, типах файлов и т. Д.), А затем вы можете запускать аналогичные запросы Hive к ним.Как и в случае с Hive.
Ниже приведены два примера, которые вы можете сделать с помощью spark, если сможете подключиться к метастагу Hive.
spark.sql("show databases")
spark.sql("select * from test_db.test_table")
Надеюсь, это ответ на ваш вопрос.