Я использую spark-sql 2.4.1, spark-cassandra-connector_2.11-2.4.1.jar и java8. При вставке данных из темы kafka в данные таблицы C * / Cassandra.
Я получаю сообщение об ошибке:
org.apache.spark.sql.kafka010.KafkaDataConsumer - KafkaConsumer cache hitting max capacity of 64, removing consumer for CacheKey(spark-kafka-source-33321dde-bfad-49f3-bdf7-09f95883b6e9--1249540122-executor)
Как решить эту проблему?
Раздел 2:
Я использую следующие параметры
Dataset<Row> df = sparkSession
.readStream()
.format("kafka")
///other options
.option("startingOffsets", "latest")
.option("retries", 1)
.option("linger.ms", 10)
.option("enable.auto.commit", false)
.option("failOnDataLoss", false)
.option("maxOffsetsPerTrigger", 500)
.option("spark.streaming.kafka.consumer.cache.enabled",false)
.load();
Тем не менее я получаю сообщение об ошибке:
org.apache.spark.sql.kafka010.KafkaDataConsumer - KafkaConsumer cache hitting max capacity of 64, removing consumer for CacheKey(spark-kafka-source-33321dde-bfad-49f3-bdf7-09f95883b6e9--1249540122-executor)