У меня следующий вопрос.
Я использую задание Spark Structured Streaming, которое читает одну тему и пишет в другую тему того же кластера Kafka с керберизацией. Все работает супер.
Но моя проблема заключается в следующем: как бы я справился со случаем, в котором у меня есть для каждой из этих двух тем разные принципалы и таблица ключей.
- Должен ли я отправить два файла JAAS (по одному для каждого принципала / таблицы ключей) в Spark? Если да, как этого достичь?
- Могу ли я поместить обе декларации "KafkaClient" в один файл JAAS?
Большое спасибо.