У меня есть распределенная система, работающая на экземплярах AWS EC2.В моем кластере около 2000 узлов.Я хочу представить потоковую модель обработки, которая может обрабатывать метаданные, периодически публикуемые каждым узлом (использование процессора, использование памяти, ввод-вывод и т. Д.).Моя система заботится только о последних данных.Это также нормально с отсутствием пары точек данных, когда модель обработки не работает.Таким образом, я выбрал hazelcast-jet - модель обработки в памяти с отличной производительностью.Здесь у меня есть пара вопросов относительно модели:
- Каков наилучший способ развертывания hazelcast-jet на нескольких экземплярах ec2?
- Как получать данные из тысяч источников?Источники отправляют данные, а не извлекают.
- Как настроить клиент так, чтобы он знал, куда отправлять задачи?
Было бы очень полезно, если бы был исчерпывающий пример, гдеЯ могу учиться у.