Я построил несколько запросов Spark Structured Streaming для выполнения в EMR, они являются долго выполняющимися запросами и должны выполняться постоянно, поскольку все они являются запросами типа ETL, когда я отправляю задание в кластер YARN в EMR, яможет подать одну искру заявку.Таким образом, у приложения spark должно быть несколько потоковых запросов.
Я запутался в том, как создать / запустить несколько потоковых запросов в одной и той же программе программно.
Например: у меня есть этот код:
case class SparkJobs(prop: Properties) extends Serializable {
def run() = {
Type1SparkJobBuilder(prop).build().awaitTermination()
Type1SparkJobBuilder(prop).build().awaitTermination()
}
}
Я запускаю это вмой основной класс с SparkJobs(new Properties()).run()
Когда я вижу на сервере истории искр, выполняется только первое задание потоковой передачи (Type1SparkJob).
Каков рекомендуемый способ запуска нескольких потоковых запросов в одной и той же искровой отправке программно, я также не смог найти надлежащей документации.