Правильный ответ, как отметили два других человека, заключается в создании файла robots.txt, чтобы роботы с хорошим поведением не загружали роботов.
Однако это важнознать, что не все роботы ведут себя хорошо, и что robots.txt является лишь рекомендательным.Если у вас есть страницы, которые не являются общедоступными, не указывайте их в файле robots.txt, чтобы «защитить» их, поскольку некоторые роботы с особенно плохим поведением на самом деле сканируют файл, чтобы увидеть, какие интересные URL-адреса могут быть, о которых они еще не знают.