Похоже, нам скоро придется начать балансировку нагрузки наших веб-серверов.
У нас есть запрос функции для динамического редактирования robots.txt, что не является проблемой для одного хоста - однако, как только мы включим наш балансировщик нагрузки и он будет работать - похоже, мне придется перенести файл на другой хостов (s).
Это звучит крайне «плохо». Как бы вы справились с этой ситуацией?
Я уже позволил клиенту редактировать метатег 'robots', который (imo) должен эффективно делать то же самое, что он хочет от редактирования robots.txt, но я действительно не очень много знаю о SEO.
Может быть, есть совершенно другой способ справиться с этим?
UPDATE
похоже, что мы пока сохраним его в s3 и запишем его на передней стороне ...
КАК МЫ ДЕЛАЕМ СЕЙЧАС
поэтому мы используем merb..Я сопоставил маршрут с нашим robots.txt следующим образом:
match('/robots.txt').to(:controller => 'welcome', :action => 'robots')
тогда соответствующий код выглядит так:
def robots
@cache = MMCACHE.clone
begin
robot = @cache.get("/robots/robots.txt")
rescue
robot = S3.get('robots', "robots.txt")
@cache.set("/robots/robots.txt", robot, 0)
end
@cache.quit
return robot
end