После пакета Spark ETL мне нужно записать в тему Kafka результирующий DataFrame, содержащий несколько различных столбцов.
Согласно следующей документации Spark https://spark.apache.org/docs/2.2.0/structured-streaming-kafka-integration.html Dataframe, записываемый в Kafka, должениметь следующий обязательный столбец в схеме:
значение (обязательно) строка или двоичный файл
Как я упоминал ранее, у меня гораздо больше столбцов со значениями, поэтому у меня есть вопросправильно отправить всю строку DataFrame как одно сообщение в тему Кафки из моего приложения Spark?Нужно ли объединять все значения из всех столбцов в новый DataFrame с одним столбцом значений (который будет содержать объединенное значение), или есть более правильный способ достижения этого?