Мы используем клиент Guzzle в нашем PHP-приложении для получения нескольких тысяч файлов из Amazon S3 с использованием параллельных запросов (с параллелизмом 25)
Мы выполняем это на экземпляре Amazon EC2.Я заметил, что увеличение размера экземпляра приводит к незначительным улучшениям производительности, и при дальнейшей проверке одно из ядер ЦП насыщается без использования других.
Я бы ожидал, что наличие 25 параллельных потоков запросов будет означать25 потоков, которые затем можно распределить по ядрам, но кажется, что все они обрабатываются одним и тем же ядром.
Есть ли причина, по которой это работает так?