Я хочу читать и писать, используя структурированную потоковую передачу в Confluent Cloud. Проблема в том, что я не могу найти метод для аутентификации в документации.
У меня следующее соединение для передачи данных:
ssl.endpoint.identification.algorithm=https
sasl.mechanism=PLAIN
request.timeout.ms=20000
bootstrap.servers=pkc-nq5ga.westeurope.azure.confluent.cloud:9092
retry.backoff.ms=500
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<CLUSTER_API_KEY>" password="<CLUSTER_API_SECRET>";
security.protocol=SASL_SSL
Когда я проверил локальный хост без пароля и у меня не было проблем с ним.
val inputStream = spark.readStream
.format("kafka")
.option("kafka.bootstrap.servers", brokers)
.option("subscribe", inputTopic)
.option("startingOffsets", startingOffsetsValue)
.load()
outputStream.writeStream
.format("kafka")
.option("kafka.bootstrap.servers", outputBrokers)
.option("topic", outputTopic)
.option("checkpointLocation", pathCheckpoint)
.start()
.awaitTermination()
Кто-то знает, как пройти конфигурацию аутентификации, чтобы попасть в облако слияния