Кафка повторяет попытку асинхронизации при сбое - почему я должен это делать? - PullRequest
0 голосов
/ 22 ноября 2018

Я использую commit async с kafka (очевидно, без автоматической фиксации).

К сожалению, я столкнулся со следующим исключением:

error org.apache.kafka.clients.consumer.RetriableCommitFailedException: Offset commit failed with a retriable exception. You should retry committing the latest consumed offsets

После некоторого расследованияЯ обнаружил, что даже без фиксации смещения потребитель продолжает потреблять сообщения из этой темы.

Немного прочитав, я увидел, что рекомендуется повторить фиксацию смещений.

Я не понимаю, почему.Потребитель не является потокобезопасным, поэтому можно предположить, что повтор уже содержит новые смещения.И если так, не будет ли следующей попытка commitAsync достаточной?

С уважением, Идо

...