Для каждого получателя spark.streaming.blockInterval (скажем, 1 минута) прослушивают потоковые источники данных. Предположим, что текущая микропакета занимает неестественно много времени для завершения (намеренно, скажем, 20 минут). Во время этого микропакета получатели все еще будут прослушивать потоковый источник и сохранять его в памяти Spark?
Текущий конвейер работает в Azure блоках данных с использованием структурированной потоковой передачи Spark. Может ли кто-нибудь помочь мне понять это!