Я планирую динамически увеличивать / уменьшать приложение Flink.Приложение использует события от Kafka, используя соединитель kafka-flink.
Поскольку "прогрев" приложения занимает несколько минут (кэширование ...), а изменение уровня параллелизма включает перезапуски, я предпочитаю отправлять (масштабироватьup) или альтернативно убивать (уменьшать) задачи вместо изменения уровня параллелизма.
Интересно, с точки зрения производительности, логики и плана выполнения, есть ли различия между этим подходом и встроенным параллельным выполнением Flink?
Другими словами, каковы будут различия между 10 одинаковыми задачами Flink и одной задачей с уровнем параллелизма = 10 (env.setParallelism (10))?