Мы планируем выполнять пакетную обработку ежедневно. Мы генерируем 1 ГБ файлов CSV каждый день и вручную помещаем их в хранилище озера данных Azure. Я прочитал документы Microsoft Azure, касающиеся пакетной обработки, и я решил использовать Spark для пакетной обработки. Мой вопрос заключается в том, что после того, как мы передадим данные с использованием RDD / DF, что будет следующим шагом? как мы можем визуализировать данные? поскольку этот процесс должен запускаться каждый день, после того как преобразование данных выполнено с использованием Spark, нужно ли передавать данные в любое хранилище данных, например hive hdfs или cosmos, прежде чем мы сможем его визуализировать?