С точки зрения приложения потока kafka этот тип не поддается цели иметь возможность поддерживать несколько URL-адресов при создании avro-сердец, так как исключение во время выполнения, переполняющее стек API DSL, закроет поток потока.
Я не согласен: с точки зрения Kafka Streams сериализация не удалась, и, следовательно, приложение должно быть закрыто. Обратите внимание, что Kafka Streams не зависит от используемых вами Serdes и, следовательно, не знает, что ваш Serde общается с реестром схемы и может повторить попытку.
Таким образом, Serde отвечает за внутреннюю повторную попытку. Я не знаю обертку, которая делает это, но это не должно быть слишком сложно, чтобы построить себя. Я создам внутренний тикет для отслеживания этого запроса. Я думаю, что имеет смысл добавить это для готового опыта.
Для RocksDB: все записи, которые записываются в RocksDB, также записываются в тему журнала изменений. Таким образом, чтобы Kafka Streams мог читать эти данные для восстановления состояния после ошибки, вам необходимо зарегистрировать схемы.