Мы работаем над тем, как выполнить динамическое масштабирование заданий Flink.Задача о том, чтобы прочитать потоковую тему в теме Кафки и выполнить ... затем погрузиться в другую тему Кафки.Мы знаем, что задача flink должна быть сначала остановлена, чтобы изменить параллелизм, а это не то, что нам нужно.
Поскольку мы не можем динамически добавлять ресурсы к задачам без остановки заданий flink, можем ли мы продублировать задания flink (которые потребляются через тот же groupid из раздела kafka) для повышения производительности?Кроме того, возможно ли использовать пряжу или kubernetes для управления этими заданиями и достичь псевдодинамического масштабирования для такой задачи на лету (с kafka)?