Блоки данных Azure поддерживают концентраторы событий Azure в качестве источника и приемника. Понимание Структурированная потоковая передача - это механизм обработки потоков в Apache Spark (также доступен в Azure Databricks)
Создайте блокнот для всех ваших преобразований (объединение, агрегация ...) - при условии, что вы выполняете пакетную запись в концентратор событий Azure.
Код PySpark:
val connectionString = "Valid EventHubs connection string."
val ehWriteConf = EventHubsConf(connectionString)
df.select("body")
.write
.format("eventhubs")
.options(ehWriteConf.toMap)
.save()
Замените .write
на .writeStream
, если ваши запросы потоковые.
При работе с концентраторами событий Azure следует учитывать и другие аспекты, касающиеся разделов - это необязательно, вы можете просто отправить тело в одиночку (что сделает модель с циклическим изменением)
Подробнее здесь