Есть ли причина, по которой вы не можете просто иметь 3 разных файла robots.txt, по одному для каждого хоста?
Если вам нужно обработать это автоматически, я бы предложил HTTPHandler
, который обрабатывает запросы для robots.txt. Если Request.Url.Host
это www.example.com, верните robots.allow.txt, если нет, верните robots.deny.txt.
Если вы заинтересованы в этой идее и вам нужен пример кода, чтобы начать, сообщите мне.