Я читал о нескольких различных azure сервисах - захват концентратора событий, Azure фабрика данных, концентратор событий и многое другое. Я пытаюсь найти несколько способов использования azure сервисов для выполнения :
Записать данные в какую-то «конечную точку» или место из моего приложения (предпочтительно, сервис azure)
Данные будут группироваться и сохраняться в файлах в BLOB
В конечном итоге формат должен быть паркетным в файлах BLOB
Мои вопросы:
Я прочитал, что при захвате событий концентратор сохраняет только файлы в формате AVRO. Так что я мог бы также рассмотреть второй конвейер копирования от оригинального BLOB AVRO до BLOB назначения паркета. Есть ли в * 1036 служба, которая может прослушивать мой BLOB, преобразовывать все файлы в паркет и сохранять снова (я не уверен в документации, если фабрика данных может это сделать)?
Какие другие альтернативы вы бы рассмотрели (кроме Кафки, о котором я знаю), чтобы сохранить поток данных в пакетах паркета в BLOB?
Спасибо!