Сначала пусть будет ясно:
Цитата
Динамическое изменение файла robots.txt такжеплохая идея в таком случаеБольшинство сканеров кэшируют файл robots.txt в течение определенного времени и продолжают использовать его, пока не обновят кэш.Если они кешируют его в нужное время, они могут ползти нормально весь день.Если они кешируют его в «неправильное» время, они вообще перестанут сканировать (и, возможно, даже удалят проиндексированные URL из своего индекса).Например, Google, как правило, кэширует файл robots.txt на день, а это означает, что изменения в течение дня не будут видны роботу Googlebot.ответил 22 января '11 в 14:25 Джон Мюллер
В течение недели я пытался выполнить работу хрон, переименовывая файл robot.txt.Как выключатель.Он работает, скажем, каждый понедельник в полночь переименовывает «robot.txt» в «def-robot.txt», который теперь не блокирует сканеры.Я разрешаю два-три дня, затем у меня есть другое задание по расписанию, чтобы переименовать его обратно в «robot.txt» для «def-robot.txt», который теперь начинает блокировать любой сканер от доступа к моим сайтам.Так что это долгий способ сделать это, но первое упомянутое именно то, что происходит со мной.
У меня было значительное снижение, если не все, в моих проиндексированных ссылках, потому что робот GoogleBot не смог проверить ссылку на неподвижноебыть правильным, потому что "robot.txt блокирует доступ Google к моему сайту пол недели. Простой. Планирование работы Chron для изменения файла на нужные вам настройки может сработать кое-что. Это единственный найденный способ настроить robot.txt назапланированное время базы.