Я недавно начал использовать Инструменты Google для веб-мастеров .
Я был очень удивлен, увидев, сколько ссылок пытается проиндексировать Google.
http://www.example.com/?c=123
http://www.example.com/?c=82
http://www.example.com/?c=234
http://www.example.com/?c=991
Это все кампании, которые существуют как ссылки с партнерских сайтов.
Пока что все они запрещены моим файлом роботов, пока сайт не будет заполнен - как и КАЖДАЯ страница на сайте.
Мне интересно, каков наилучший подход к таким ссылкам - прежде чем я сделаю свой файл robots.txt менее ограничительным.
Я обеспокоен тем, что они будут рассматриваться как разные URL-адреса и начнут появляться в результатах поиска Google. Все они соответствуют одной странице - дать или взять. Я не хочу, чтобы люди находили их такими, какие они есть, и нажимали на них.
Лучшей идеей на данный момент является визуализация страницы, содержащей строку запроса, следующим образом:
// DO NOT TRY THIS AT HOME. See edit below
<% if (Request.QueryString != "") { %>
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
<% } %>
Мне нужно это сделать? Это лучший подход?
Редактировать: Получается НЕ БЫТЬ ХОРОШИМ ПОДХОДОМ . Оказывается, Google видит NOINDEX на странице, которая имеет такое же содержание, что и другая страница, на которой нет NOINDEX. Очевидно это показывает, что они - то же самое, и NOINDEX имеет приоритет. Мой сайт полностью исчез из Google в результате. Предостережение: это могло быть что-то еще, что я сделал в то же время, но я бы не стал рисковать таким подходом.