У меня есть 3 шага потока данных в конвейере потока данных.
- Читает из pubsub, сохраняет в таблице и разбивает на несколько событий (помещает в контекстный вывод).
- Для каждого разбиения запрашивает дБ и украшает событие дополнительными данными.
- Публикация в другой теме pubsub для дальнейшей обработки.
ПРОБЛЕМА:
После шага 1 его разбивают на события с 10K до 20K.
Теперь на шаге 2 заканчиваются соединения с базой данных. (У меня есть статический пул соединений Hikari).
Работает абсолютно нормально, будет меньше данных. Я использую машину n1-standard-32.
Что я должен сделать, чтобы ограничить ввод следующим шагом? Так что параллелизм ограничен или задушить события следующим шагом.