Я думаю, что один из моих сайтов недавно был исключен из Google, потому что он нашел и начал индексировать мой сайт разработчика. это в основном копия моего основного сайта. (dev.site.com & site.com)
В любом случае, существует ли способ создать один robot.txt, который предотвратит индексацию любого трафика на dev.site.com, оставив site.com по-прежнему полностью проиндексированным.
я знаю, что я мог бы просто иметь отдельные файлы роботов для каждого, но было бы проще иметь тот, который охватывает оба. тем более, что я работаю со всеми сайтами, на которых есть сайты разработчиков, и хотел бы иметь простой рабочий процесс и не менять файлы роботов, когда я запускаю новые версии сайта.