Спарк лимит количество исполнителей на услугу - PullRequest
0 голосов
/ 18 октября 2019

Мы используем Spark Streaming (Java) для вычислений в реальном времени. Развертывание имеет искровой кластер из 6 узлов (настройка конфигурации для 200 исполнителей между узлами).

В настоящее время существует один сервис, который публиковал события в очереди Rabbitmq. Сейчас мы планируем добавить еще два сервиса. В случае, если я создаю искровой приемник для каждой очереди, можно ли ограничить максимальное количество исполнителей, которые могут обслуживать один сервис, в случае сценария загрузки (скажем, максимальный предел 50%. Таким образом, в вышеупомянутом случае при максимальном количестве 100 исполнителей могут обслуживать потоки, получаемые от службы /приемник)?

Спасибо, Шишир

1 Ответ

0 голосов
/ 18 октября 2019

Изучите ниже свойства искры задания, это решит вашу проблему.

для минимального ресурса (spark.dynamicAllocation.minExecutors)

для максимального ресурса (spark.dynamicAllocation.maxExecutors)

...