Spark структурированный потоковый фильтр и запись на множество выходов - PullRequest
0 голосов
/ 29 октября 2018

Я хочу использовать Spark Structured Streaming для фильтрации потока Event Hub для разделения объектов разного типа (объекты JSON с разными схемами) и записи каждого типа объектов в свое собственное хранилище файлов.

Прав ли я, если предположить, что единственный поддерживаемый способ сделать это - создать ForeachWriter, кэшировать микропакет и выполнить фильтрацию и запись в методе процесса?

Я не хочу создавать по одному потоку чтения на фильтрованный поток записи, что сильно ограничило бы емкость выхода из концентратора событий.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...