Итак, мы используем JMetter для нагрузочного тестирования нашего приложения. Если я правильно понимаю, JMetter использует тривиальный лог c для расчета времени выполнения запроса. Получается разница между временем начала и завершения запроса.
Итак, если мой процессор очень занят, это время увеличивается. Но сервер размещен на другой машине.
Для теста я написал программу, которая генерирует много потоков и выполняет в ней некоторые вычисления. Затем я запускаю тесты JMetter на пустой системе и системе с расширением. моя программа работает.
Время в агрегированном графике сильно отличается.
Есть какие-нибудь решения? Или нам следует переписать наши тесты на других инструментах (например, Gatling)?