Я работаю в энергетической компании. В настоящее время мы генерируем 1 ГБ данных в виде плоских файлов в день. Мы решили использовать хранилище озера данных Azure для хранения наших данных, в которых мы хотим выполнять пакетную обработку ежедневно. Мой вопрос заключается в том, как лучше всего передать плоские файлы в хранилище озера данных Azure? и после того, как данные помещены в лазурное, меня интересует, стоит ли обрабатывать данные с помощью искры HDInsight? как API Dataframe или SparkSQL и, наконец, визуализировать его с помощью Azure?