Контекстно-зависимые хлебные крошки с php-сессиями - будут ли поисковые системы индексировать каждую вариацию? - PullRequest
0 голосов
/ 12 мая 2010

Некоторые страницы на моем сайте отображаются по-разному в зависимости от того, где был пользователь, используя сеансы php.

например, с сухарями:

стандартная настройка крошки:

Все книги -> Художественная литература -> Властелин Мухи

если посетитель только что был на «странице Уильяма Голдинга», то будет создана сессия, чтобы сказать, что этот посетитель предоставлен автором, поэтому я бы проверил

if( $_SESSION['browsing by] == 'author' ):

и хлебные крошки (для той же страницы, что и раньше) теперь будут:

Авторы -> Уильям Голдинг -> Лорд Мухи

для суммирования:

Таким образом, для каждой книги существует 1 страница, но в зависимости от того, откуда пришел пользователь, на странице будут отображаться различные хлебные крошки.

вопросы:

  1. Могут ли поисковые системы создать мою 'просматривающую' сессию?
  2. Будут ли они индексировать одну и ту же страницу несколько раз (для каждого изменение)

Ответы [ 3 ]

0 голосов
/ 12 мая 2010

Чтобы убедиться, что все проиндексировано, создайте карту сайта со ссылками на все страницы.

Я бы обнаружил пауков через $_SERVER['HTTP_USER_AGENT'] и относился бы к ним иначе, чем к обычным пользователям, всегда показывая навигацию по умолчанию.

0 голосов
/ 12 мая 2010

Я пишу это как другой ответ, потому что вы можете предпочесть его как альтернативное решение:

Поисковые системы на самом деле не различают видимый и невидимый контент. Итак, одна вещь, которую вы могли бы рассмотреть, это всегда использовать самый подробный список хлебных крошек ... как:

Все книги -> Авторы -> Уильям Голдинг -> Художественная литература -> Повелитель мух

Это покажет все о книге и позволит лучше сканировать вашу страницу. Но с точки зрения визуальных стилей вы делаете то, что скрываете все нерелевантные ссылки, поэтому в одном случае у вас есть:

Все книги -> Художественная литература -> Повелитель мух

а в другом у вас есть:

Авторы -> Уильям Голдинг -> Повелитель мух

Таким образом, ссылки всегда есть, но пользователи будут видеть только то, что имеет значение, в то время как поисковая система будет видеть все хлебные крошки, поэтому она будет сканировать и сканировать страницу правильно.

0 голосов
/ 12 мая 2010

Не совсем - поисковая система, вероятно, увидит различные хлебные крошки, но она будет индексировать только одну версию страницы.

Способ сканирования поисковыми системами заключается в нажатии на каждую доступную ссылку для URL, которые не были просканированы, и просмотре содержимого этого URL. Он может снова попасть на страницу и заметить другой контент, но он поймет, что это просто изменение страницы, а не привязка к конкретному пути.

Лучший способ добиться того, чего вы хотите, - это попытаться использовать URL-адрес. Таким образом, сканер будет считать страницу совершенно другой страницей и снова сканирует ее с другим контентом.

Например.

  1. Пользователь переходит на страницу с книгами, (http://www.mysite.com/books)
  2. Пользователь нажимает на ссылку "Повелитель мух", (http://www.mysite.com/books/LordOfTheFlies)

против.

  1. Пользователь переходит на страницу авторов, (http://www.mysite.com/authors)
  2. Пользователь нажимает ссылку Уильяма Голдинга, (http://www.mysite.com/authors/WilliamGolding)
  3. Пользователь нажимает на ссылку "Властелин мух", (http://www.mysite.com/authors/WilliamGolding/LordOfTheFlies)

Способ, которым вы можете сделать это, используя mod_rewrite и изменяя URL-адрес с:

http://www.mysite.com/?authors=WilliamGolding&book=LordOfTheFlies и переписать это: http://www.mysite.com/authors/WilliamGolding/LordOfTheFlies

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...