У меня есть приложение Spark Streaming в Java, которое читает записи из потока kineses (1 осколок) и после этого выполняет некоторую обработку.
Когда я запускаю свое приложение в локальном режиме Spark, оно может получать записи, но когдаЯ запускаю то же приложение в автономном кластере, оно не читает записи из потока kinesis.
Я использовал команду spark-submit для запуска приложения:
Локальный режим:
spark-submit --class com.test.Main --master local[3] --jars /test/test-saprk-app.jar
Автономный режим кластера: spark-submit --class com.test.Main --master spark://<machine-ip>:7077 --deploy-mode cluster --executor-cores 3 --executor-memory 10GB --jars /test/test-saprk-app.jar
Используемая версия Spark: 2.4.0
Может кто-нибудь предложитьчего мне здесь не хватает?