Есть ли способ, который более эффективен, чем карта сайта, для добавления / принудительного повторного сканирования / удаления записей индекса вашего сайта в Google? - PullRequest
1 голос
/ 23 января 2011

В значительной степени это вопрос.Есть ли способ, который более эффективен, чем стандартный sitemap.xml, для [добавления / принудительного повторного сканирования / удаления], например, для управления индексными записями вашего сайта в Google?

Я помню, как несколько лет назад я читал статьюнеизвестный блогер, который говорил, что когда он пишет новости на своем веб-сайте, URL-адрес новостей сразу же появляется в результатах поиска Google.Я думаю, что он упоминал о чем-то особенном.Я не помню точно, что ..какая-то автоматическая система повторного сканирования, которую предлагает Google?Однако я не уверен в этом.Поэтому я спрашиваю, не думаете ли вы, что я ошибаюсь и нет другого способа управления содержимым индекса, кроме sitemap.xml?Мне просто нужно быть уверенным в этом.

Спасибо.

Ответы [ 2 ]

1 голос
/ 24 января 2011

Я не думаю, что вы найдете тот волшебный ответ "серебряная пуля", который вы ищете, но вот некоторые дополнительные сведения и советы, которые могут помочь:

  • Глубина сканирования и скоростьcrawl напрямую зависит от PageRank (одна из немногих вещей, на которые он влияет).Таким образом, увеличение количества и качества обратных ссылок на домашнюю страницу и внутренние страницы поможет вам.
  • QDF - этот фактор алгоритма Google, «Query заслуживает свежести», оказывает реальное влияние и является одной из основных причининфраструктурный проект Google Caffeine, позволяющий намного быстрее находить свежий контент.Это одна из основных причин того, что блоги и сайты, такие как SE, работают хорошо - потому что контент «свежий» и соответствует запросу.
  • XML sitemaps do помогают с индексацией, но они выигралине приводит к лучшему ранжированию.Используйте их, чтобы помочь поисковым роботам находить контент, который глубоко вписывается в вашу архитектуру.
  • Пинг, особенно в блогах, к сервисам, которые отслеживают изменения сайта, такие как ping-o-matic, может действительно помочь в отправке уведомления о вашем новомсодержание - это также может гарантировать, что поисковые системы сразу узнают об этом.
  • Бюджет сканирования - помните, что поисковая система тратит время поисковой системы на части вашего сайта, которые не меняются или не заслуживают места виндекс - используя robots.txt и метатеги robots, можно объединить поисковые роботы с различными частями вашего сайта (используйте с осторожностью, чтобы не удалять контент с высокой ценностью).

Многие из этих темрассматриваются в Интернете, но есть и другие присущие ему вещи, такие как навигационная структура, внутренние ссылки, архитектура сайта и т. д., которые также вносят такой же вклад, как любой «трюк» или «устройство».

0 голосов
/ 23 января 2011

Получение большого количества ссылок с хороших сайтов на ваш сайт заставит "пауков" Google быстрее попасть на ваш сайт.

Также ссылки с социальных сайтов, таких как Twitter, могут помочь сканерам посетить ваш сайт (хотя Twitterссылки не проходят через «сок ссылок» - пауки все равно проходят через них).

И последнее: регулярно обновляйте свой контент, думайте о контенте как о «Google Spider Food».Если пауки придут на ваш сайт и не найдут новую еду, они не вернутся снова скоро, если каждый раз, когда они приходят, появляется новая еда, их будет много.Например, каталоги статей индексируются несколько раз в день.

...