SEO и AJAX (в стиле Twitter) - PullRequest
3 голосов
/ 30 марта 2011

Хорошо, я пытаюсь что-то выяснить. Я нахожусь на стадии планирования сайта и хочу реализовать «выборку данных при прокрутке» через JQuery, так же как Facebook и Twitter, чтобы я не извлекал все данные из БД сразу.

Но у меня есть некоторые проблемы, связанные с SEO, как Google сможет увидеть все данные? Поскольку страница будет автоматически извлекать больше данных при прокрутке пользователя, я не могу включить ссылки в стиле «перейти на страницу 2», я хочу, чтобы Google просто проиндексировал эту страницу.

Есть идеи для простого и умного решения?

Ответы [ 3 ]

3 голосов
/ 30 марта 2011

Поместите ссылки на страницу 2.

Используйте JavaScript, чтобы удалить их, если вы обнаружите, что ваш автозагрузочный код будет работать.

Прогрессивное улучшение простохорошая практика

0 голосов
/ 30 марта 2011

Вы можете использовать PHP (или другой серверный скрипт) для обнаружения пользовательского агента веб-сканеров, на которых вы конкретно хотите ориентироваться, таких как Googlebot.

В случае веб-сканера вам придется использовать не-JavaScript-методы для снятия содержимого базы данных и макета страницы.Я бы рекомендовал не разбивать на страницы контент, предназначенный для поисковых систем, при условии, что вы не разбиваете на страницы "человеческую" версию.URL-адреса, обнаруженные веб-сканером, должны совпадать с теми, которые посетят ваши (люди) посетители.На мой взгляд, страница должна отличаться от «человеческой» версии, поскольку больше контента извлекается из БД за один раз.

Список веб-сканеров и их пользовательских агентов (включая Google) находится здесь:

http://www.useragentstring.com/pages/Crawlerlist/

И да, как утверждают другие, не отвечайте на JavaScript за контент, который вы хотите видеть в поисковых системах.Фактически, это довольно часто используется, когда разработчик не видит что-то в поисковых системах.

Все это идет с гонщиком, который предполагает, что вы вообще не разбиваетесь на страницы.Если да, то вы должны использовать серверный скрипт, чтобы разбить страницы на страницы, чтобы они были подобраны поисковыми системами.Кроме того, не забудьте наложить разумные ограничения на объем вашей БД, который вы используете для поисковой системы.Вы не хотите, чтобы время ожидания превышало время ожидания страницы.

0 голосов
/ 30 марта 2011

Создайте учетную запись Google для веб-мастеров , создайте карту сайта для своего сайта (вручную, автоматически или с помощью cronjob - в зависимости от того, что подходит) и сообщите об этом инструментам Google для веб-мастеров.Обновляйте карту сайта, когда ваш сайт получает новый контент.Google просканирует это и проиндексирует ваш сайт.

Карта сайта гарантирует, что весь ваш контент будет доступен для обнаружения, а не только то, что находится на главной странице при посещении роботом Google.

Учитывая, чтоВаш вопрос в основном касается SEO, я настоятельно рекомендую вам прочитать этот пост от Джеффа Этвуда о важности карт сайта для Stackoverflow и о том, как это повлияло на трафик Google.

Вам следуеттакже добавьте постраничные ссылки, которые скрыты вашей таблицей стилей и являются запасным вариантом, когда ваша бесконечная прокрутка отключена кем-то, кто не использует javascript.Если вы правильно строите сайт, это будут просто части, которые ваш бесконечный свиток загружает в любом случае, так что легко убедиться, что они на странице.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...