После получения фрейма данных Spark мы можем сохранить его в другой коллекции SOLR (с использованием Spark), а затем данные из этой коллекции будут считаны для получения данных в пакетах с использованием SOLR API (с использованием строк, параметров запуска)создайте из него JSON и отправьте его по HTTP-запросу.
из ваших 2 подходов. 2-й подход лучше всего подходит, поскольку у вас есть функция подкачки в solrj 1) сохраните свой фрейм данных как документы solr с индексами 2)use solrj - это API, который будет взаимодействовать с вашими коллекциями Solr и будет возвращать документы Solr на основе ваших критериев.3) вы можете преобразовать их в json, используя любой анализатор и представить в пользовательском или пользовательском запросе.
Фактически, это не новый подход, люди, которые используют hbase с solr, будут делать то же самое (так как запросы изhbase действительно медленный по сравнению с запросами из коллекций solr), где каждая таблица hbase является коллекцией solr и может быть запрошена через solrj и представлена в виде приборной панели, например, угловой js.
более наглядная диаграмма, как показано ниже..