Рассматривали ли вы использование файла robots.txt , чтобы минимизировать нежелательный трафик от автоматизированных инструментов паутинга?
Вы можете иметь несколько строк Disallow для каждого пользовательского агента (т. Е. Для каждого паука). Вот пример более длинного файла robots.txt:
User-agent: *
Disallow: /images/
Disallow: /cgi-bin/
User-agent: Googlebot-Image
Disallow: /
Вот пример, который запрещает все , кроме google
User-agent: *
Disallow: /
User-agent: Googlebot
allow: /
Слово предупреждения: Этот метод не гарантирует прекращения доступа запрещенных агентов к вашему сайту, он просто запрашивает их стандартным способом, понятным большинству этих инструментов.