Вы не предоставили достаточно информации, чтобы сделать разумный ответ.Безусловно, наибольшим преимуществом станет эффективное кэширование контента - но вам, вероятно, нужно взглянуть не только на заголовки, которые вы отправляете, - вам, вероятно, нужно начать настраивать имена файлов (или часть запроса в URL), чтобы эффективно разрешитьбраузер для использования более нового контента вместо кэшированного (и не просроченного) контента.
У меня есть ряд файлов, которые запрашиваются при каждой загрузке страницы.В среднем 20 файлов.
Это все php-скрипты?На все ли они ссылается HTML-страница?
Каждый файл должен быть прочитан разобранным, если они изменились
Вы имеете в виду, что они должны быть прочитаны и проанализированы на сервере??Зачем?Прочтите этот пост , чтобы узнать, как идентифицировать и предоставлять новые версии кэшируемого статического контента.
Рассматривали ли вы кэширование на стороне сервера?Это не так сложно:
<?php
$cached=md5($_SERVER['REQUEST_URI']);
$lastmod=time() - @mtime($cache_dir . $cached)
if ((file_exists($cache_dir . $cached)) && (60 < $lastmod)) {
print file_get_contents($cache_dir . $cached);
exit;
} else {
ob_start();
... do slow expensive stuff
$output=ob_get_contents();
print $output;
file_put_contents($output, $cache_dir . $cached);
}
?>
Обратите внимание, что кэширование на стороне сервера не так эффективно, как кэширование на стороне клиента.
Как только вы получите оптимальное кэширование, вам необходимоПосмотрите, как обслуживать ваш контент с нескольких имен хостов - даже если они все указывают на один и тот же сервер - браузер ограничивает количество подключений к каждому имени хоста , поэтому запросы фактически ставятся в очередь, когда они могут выполняться параллельно.
Для дальнейшего решения вашей проблемы нам нужно знать намного больше о вашем приложении.
C.