Будет ли использование! # Ajax при сканировании на не-JS доступном сайте генерировать дублированный контент в поисковых системах? - PullRequest
0 голосов
/ 10 ноября 2011

У меня есть сайт, который работает как с JS, так и с выключенным. Все ссылки на странице имеют обычный формат вида <a href="/pagename">, но если посетитель достигает его с помощью JS, они будут изменены на <a href="#/pagename"> и обработаны с использованием события hahshchange.

В результате получается 2 возможных URL-адреса, указывающих на один и тот же контент (www.site.com/pagename и www.site.com/#/pagename).

Примечание: Если вы достигнете www.site.com/pagename с включенным JS, вы будете автоматически перенаправлены на www.site.com/#/pagename

Теперь мне интересно, должен ли я реализовать формат hashbang (www.site.com/#!/pagename) или нет, поскольку я не знаю, приведет ли это к дублированию контента при сканировании ботами? Часто задаваемые вопросы Google не сильно помогли по этому конкретному вопросу.

1 Ответ

0 голосов
/ 10 ноября 2011

Это , вероятно, вызовет проблемы с дублирующимся контентом, но трудно сказать наверняка, поскольку Crawlable Ajax - это новая вещь. Но вы можете легко решить эту проблему, используя канонические URL .

...