У нас есть система, которая отправляет данные тегов через Open Automation Software в экземпляр Azure IOT HUB, а затем в Azure Stream Analytics, который затем выводит в SQL Azure SQL.
Система работает правильно (то есть - SA выводит все входные события) до 26 тэгов данных (события данных малы, .16 КБ) каждые 30 секунд.
При 27 тегах данных SA начинает выходить из строя на выходах с самого начала тестового прогона. Все входные события от IOT HUB принимаются, однако SA подает на SQL DW только подмножество этих событий. SU% Использование только 10, так что есть много доступной памяти. По результатам расследования, по-видимому, нет возможности разделить выходные данные SA, поскольку целью является та, которая автоматически управляется Azure.
Диаграмма заданий SA действительно показывает входные события, которые иногда оказываются заблокированными, но разница между этим количеством и количеством выходных событий далеко не одинакова. Журнал активности показывает отсутствие записи или другие ошибки.
Чего нам не хватает, что могло бы исправить это и позволить платформе правильно масштабироваться?