У нас есть гусеничный двигатель, обслуживающий около 500 000 посетителей в месяц.На данный момент мы используем curl для получения веб-страниц.Недавно мы использовали multi-exec с curl для одновременного сканирования страниц.Мы настроили сканирование на 20 страниц одновременно.
Теперь в процессе получения веб-страниц скручивание полностью остановится, пока не будут получены все 20 страниц, и только затем перейдет к следующим 20. Это похоже на медленную выборку одной страницы, а затем скручивание.будет ждать загрузки этой страницы, пока она не перейдет к следующему циклу, в котором я получу следующие 20 страниц.
Есть ли другой способ преодолеть это?Я надеюсь, что мой вопрос ясен.
Позже
Под преодолением я подразумеваю только скручивание изображения, получающее 20 страниц одновременно.Те, которые извлекаются, мгновенно заменяются новыми, чтобы их можно было получить, не дожидаясь окончания всех 20?Очистить