Я пишу потоковое приложение (Flink, Kafka, S3), которое помещает данные в Kafka в формате JSON, и мне нужно записать данные в S3 в формате Parquet.
Я искал много мест и читал вопросы по stackoverflow, но я не получаю однозначного ответа, является ли обязательным считывание данных в формате AVRO в Flink, если я хочу написать паркет в s3?
Мне нужно go от JSON -> AVRO -> Паркет?
Или JSON -> Паркет возможен с использованием kafka, flink, S3