Прямо сейчас, мой sitemap.xml
состоит из нескольких SQL-запросов, которые выбирают все ресурсы и предоставляют их соответствующие URL.Плюсы этого метода в том, что sitemap.xml
выглядит одинаково на всех серверах приложений.Дело в том, что он создает ненужную нагрузку на базу данных при каждом запросе.
Поэтому я думаю о планировании задания, которое выполняет тот же код и сохраняет сгенерированный sitemap.xml
на удаленный сервер (AWS) каждый раз.Х часов.Затем в моем robots.txt
я мог бы указать URL-адрес sitemap.xml
, размещенного на AWS.
Это звучит разумно?Если нет, то как мне создать статическую карту сайта, которая обслуживается несколькими серверами приложений?