Структурированная потоковая передача Spark - способы поиска большого объема нестатистических c данных? - PullRequest
0 голосов
/ 17 июня 2020

I wi sh, чтобы создать задание структурированной потоковой передачи искр, которое выполняет что-то вроде ниже (поиск огромного нестатического c набора данных)

  1. Чтение из кафки (json запись)
  2. Для каждой json записи

    • Get {user_key}
    • Чтение из огромной таблицы Phoenix (не статическая c), фильтрация по { user_key}
    • Дальнейшие преобразования DF
    • Запись в другую таблицу Phoenix

Как найти огромный объем нестатических c набор данных на сообщение кафка?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...