У меня есть сценарий использования, когда мне нужно опрашивать API каждые 1 сек c (в основном бесконечно, пока l oop). Опрос будет инициирован пользователем динамически через внешнюю систему. Это значит, что одновременно может быть запущено несколько опросов. Опрос будет завершен, когда API вернет 400. В любом случае, моя текущая реализация выглядит примерно так:
- Flask APP развернуто на heroku.
- Flask APP имеет конечную точку какая внешняя система вызывает, чтобы начать опрос.
- Эта конечная точка flask добавит сообщение в очередь и, как только работник получит его, начнет опрос. Я использую Heroku Redis для Go дополнений. Под капотом используется python -rq и redis.
Проблема в том, что когда какой-то процесс опроса продолжается в течение длительного времени, другой процесс просто находится в очереди. Я хочу иметь возможность выполнять все опросы в параллельном процессе.
Каков наилучший подход для решения этой проблемы? Запустить несколько рабочих?
Что если потенциально может быть более 100 одновременных процессов.