Этот вопрос относится к Spring Kafka, связанному с Apache Kafka с потребителем высокого уровня: пропуск поврежденных сообщений
Есть ли способ настроить потребителя Spring Kafka на пропуск записи, которая не может быть прочитана / обработана (повреждена)?
Я наблюдаю ситуацию, когда потребитель застревает на одной и той же записи, если ее невозможно десериализовать. Это ошибка, которую выбрасывает потребитель.
Caused by: com.fasterxml.jackson.databind.JsonMappingException: Can not construct instance of java.time.LocalDate: no long/Long-argument constructor/factory method to deserialize from Number value
Потребитель опрашивает тему и продолжает печатать одну и ту же ошибку в цикле, пока программа не будет убита.
В @KafkaListener, который имеет следующие конфигурации фабрики Consumer,
Map<String, Object> props = new HashMap<>();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, JsonDeserializer.class);