Файлы Sitemap на нескольких интерфейсных серверах, использующих обработчик http, это хорошая идея? - PullRequest
1 голос
/ 30 марта 2010

Вопрос 1

Мы хотели бы создать карту сайта для нашего сайта CMS

У нас есть несколько серверов переднего плана с около миллиона статей.

Окружающая среда

  • несколько серверов MS SQL
  • несколько серверов переднего плана (с балансировкой нагрузки)
  • ASP.net - и IIS 6
  • Windows 2003

Физически на картах сайта (файле индекса карты сайта и файлах карты сайта) на серверах переднего плана операции станут кошмаром и подвержены ошибкам.

Таким образом, мы рассматриваем возможность использования обработчиков http, чтобы не важно, какой сервер получает запрос, он сможет обслуживать правильный файл XML.

Вопрос 2

Если мы пингуем Google каждый раз, когда публикуем новую статью, это будет негативно влиять на нас, если это происходит чаще одного раза в час.

Спасибо!

1 Ответ

2 голосов
/ 30 марта 2010

Я бы сгенерировал XML, когда что-то меняется, а не по требованию Google. Это означает, что он обновляется только так быстро, как это необходимо.

Я бы хранил это централизованно. Если у вас есть CDN, поднимите его и перенаправьте на него. Вы можете возразить, что это кошмар, но разве это хуже, чем то, что все ваши интерфейсы создают собственную версию карты сайта? Ответ: Нет, это намного эффективнее.

Если у вас нет CDN, я бы исследовал способ перенаправления запроса с одного узла на другой. Возможно, вы даже сможете управлять этим с помощью своего балансировщика нагрузки, чтобы определенные строки пользовательского агента направлялись прямо к вашему узлу создания карты сайта.


Что касается Вопроса 2 ... Google заявляет, что они автоматически свяжутся с вами, как только узнают, как быстро обновляется ваш сайт. Первые несколько раз я обновляю вручную, а затем Google должен знать, на какой скорости продолжать движение.

Но пока вы не отправляете 20 пингов в час, я сомневаюсь, что они будут слишком возражать. Это не так, как будто это меняет вашу производительность SERP.

...