Я знаю, что мы можем интегрировать spark с kafka и записать кадр данных в формате ключа и значения в очередь kafka, как показано ниже
df - датафрейм
df.withColumnRenamed("Column_1", "key")
.withColumnRenamed("Column_2", "value")
.write()
.format("kafka")
.option("kafka.bootstrap.servers", "host1:port1,host2:port2")
.save()
Но как мне записать столбец 3,4,5 и многие в очередь kafka?
Как я могу записать всю строку в очередь kafka за один раз?
Любые предложения приветствуются