Как написать модульный тест для моего искрового приложения, используя директивы искрового теста - PullRequest
0 голосов
/ 11 декабря 2018

Я пытаюсь написать искровой тестовый модуль, используя такие директивы, как withTable, withSQLConf withTempView, которые используются в самом искровом тестовом модуле, такие как https://github.com/apache/spark/blob/master/sql/core/src/test/scala/org/apache/spark/sql/JoinSuite.scala https://github.com/apache/spark/blob/master/sql/core/src/test/scala/org/apache/spark/sql/JoinSuite.scala

.Однако я не могу их использовать, поскольку после импорта многих библиотек они все еще остаются неизвестными.Я импортировал все эти

import org.apache.spark.sql.test.SharedSQLContext
import org.apache.spark.internal.config
import org.apache.spark.sql._
import org.apache.spark.sql.catalyst.TableIdentifier
import org.apache.spark.sql.catalyst.analysis.{FunctionRegistry, NoSuchPartitionException, NoSuchTableException, TempTableAlreadyExistsException}
import org.apache.spark.sql.catalyst.catalog._
import org.apache.spark.sql.catalyst.catalog.CatalogTypes.TablePartitionSpec
import org.apache.spark.sql.internal.SQLConf
import org.apache.spark.sql.internal.StaticSQLConf.CATALOG_IMPLEMENTATION
import org.apache.spark.sql.test.{SQLTestUtils, SharedSQLContext}
import org.apache.spark.sql.types._
import org.apache.spark.util.Utils
import org.scalatest.FunSuite
import org.apache.spark.sql.{AnalysisException, QueryTest}
import org.apache.spark.sql.catalyst.TableIdentifier
import org.apache.spark.sql.catalyst.catalog.CatalogTable
import org.apache.spark.sql.hive.test.TestHiveSingleton
import org.apache.spark.sql.test.SQLTestUtils
import org.apache.spark.util.Utils

Что мне добавить в мою сборку sbt?Кроме того, где находится реализация / документация для этих директив ^?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...