У меня есть кластер Spark с 17 исполнителями. Я интегрировал Spark 2.1 с Kafka и читаю данные из темы как:
val df = spark
.readStream
.format("kafka")
.options("kafka.bootstrap.servers","localhost:9092")
.options("subscribe","test")
.load
Теперь я хочу знать, что когда я отправлю свое искровое приложение в кластерном режиме, сколько исполнителей (из общего числа 17) будет назначено для прослушивания темы Kafka и создания микропартий в структурированной потоковой передаче.
Кроме того, как я могу ограничить размер микропакета в структурированном потоке при чтении из Kafka?