Лучший способ избежать индексирования некоторых ваших материалов сканерами - это файл robots.txt в корне вашего сайта.
Вот пример:
User-agent: *
Allow: /
Crawl-delay: 5
User-agent: *
Disallow: /cgi-bin
Disallow: /css
Disallow: /img
Disallow: /js
В первом блоке я говорю гусеницу, что он может просматривать все.
Второй блок содержит список папок, которые я хочу, чтобы он избегал.
Это не безопасный способ действительно защитить его, так как некоторые сканеры его не уважают.
Если вы действительно хотите защитить его, лучше всего иметь файл .htaccess в этих папках для принудительной аутентификации.