Создайте файл robots.txt со следующим содержимым:
User-agent: *
Disallow: /
Поместите этот файл где-нибудь на вашем промежуточном сервере; Ваш корневой каталог - отличное место для этого (например, /var/www/html/robots.txt
).
Добавьте следующее в файл httpd.conf:
# Exclude all robots
<Location "/robots.txt">
SetHandler None
</Location>
Alias /robots.txt /path/to/robots.txt
Директива SetHandler
, вероятно, не требуется, но может потребоваться, если вы используете, например, такой обработчик, как mod_python.
Этот файл robots.txt теперь будет обслуживаться для всех виртуальных хостов на вашем сервере, переопределяя любой файл robots.txt, который вы можете иметь для отдельных хостов.
(Примечание: мой ответ, по сути, тот же, что и ответ ceejayoz, который вам предлагается, но мне пришлось потратить несколько дополнительных минут, чтобы выяснить все особенности, чтобы заставить его работать. ради других, кто может наткнуться на этот вопрос.)