как отложить сканирование Google, пока страница не будет готова - PullRequest
1 голос
/ 23 марта 2012

Я знаю, что это зависит от Google, но, поскольку сеть эволюционировала, я подумал, что там что-то есть.

Вот проблема.

У меня есть jQuery.ajax({}) на jQuery.ready(...), как только страница загружена, я заполняю содержимое некоторыми данными json.

Я просто подумал, что может быть параметр, позволяющий Google знать, когда они сканируют, существует запрос ajax, который заполняет содержимое страницы.

Причина ... SEO Мне нужен лучший шанс, чем иметь please wait...

Ответы [ 4 ]

4 голосов
/ 23 марта 2012

Большинство сканеров не интерпретируют JavaScript. Я не знаю наверняка, есть ли у Google разумная поддержка для этого, но я предполагаю, что, если они вообще поддерживают какую-либо JS, это будет очень ограничено. Таким образом, загрузка вашего основного контента с помощью AJAX по своей сути плохая идея.

Вместо этого вы должны распечатать большую часть или весь контент в HTML, прежде чем отправлять его в браузер.

Отредактировано Мое решение ... так же просто (на PHP)

<?php $cont = json_decode(file_get_contents('http://gdata.youtube.com/feeds/api/users/[USERNAME]/uploads/?v=2&alt=json')); ?>
1 голос
/ 23 марта 2012

Какая польза от загрузки основного контента через javascript?

Задержка загрузки, как это иногда делается для воспринимаемой скорости. Но вы делаете это для вторичного контента, поэтому основной контент загружается первым.

Это также иногда используется, чтобы сделать одну страницу динамической и загрузить несколько страниц контента без перезагрузки. Здесь есть преимущество. В этом случае я чувствую, что лучшая структура - это «прогрессивное улучшение». Создайте свой веб-сайт, используя базовые HTML-ссылки и загрузку, затем добавьте JavaScript сверху, чтобы он динамически загружался и создавал расширенные возможности. Тогда сканеры все еще видят контент, а пользователи получают более быстрый и кулер.

1 голос
/ 23 марта 2012

смотри это.robots.txt является наиболее часто используемым методом.

http://antezeta.com/news/avoid-search-engine-indexing
0 голосов
/ 04 апреля 2014

Если весь ваш контент извлекается через ajax, то вам нужно использовать подход URL-адреса hashbang, чтобы перенаправить сканеры в место, где вы предоставляете html-снимки загруженного контента.Вот хороший сайт для изучения деталей этого подхода: http://ajax.rswebanalytics.com/seo-for-ajax/ И сообщение от Google: http://googlewebmastercentral.blogspot.com/2009/10/proposal-for-making-ajax-crawlable.html

По сути, когда вы переходите на страницу с фрагментом hashbang (! #)в URL, Google и др.будет знать, чтобы перенаправить на другую страницу, чтобы найти снимок HTML-контента для индексации.Таким образом, URL-адрес, такой как: http://url.com/ajax/#!ajax-crawling-scheme

перенаправит сканер на: http://url.com/ajax?_escaped_fragment_=ajax-crawling-scheme

В этом месте вам будет предоставлен HTML-снимок, который вы хотите проиндексировать (это можно сгенерировать напролетите мимо сервера, используя браузер без головы и возвращая состояние страницы после загрузки ajax или просто имея статические дампы этих страниц).

Вот служба (я не аффилирована и не использовала ее)который обслуживает эти снимки для вас, хотя вы должны настроить URL-адреса и маршрутизацию hashbang, я считаю:

https://ajaxsnapshots.com/

...