вот краткое и очень упрощенное описание того, как Google обрабатывает ваш сайт (ы)
discovery -> crawling -> indexing -> ranking (->feedback)
discovery : это процесс поиска страниц вашего сайта в Google.), это можно сделать либо по ссылкам в html, либо через sitemap.xml (и URL-адреса в фидах на странице javascript, rss или atom, ... практически любой URL-адрес, который может найти Google)
сканирование: процесс Google, извлекающий содержимое обнаруженного URL-адреса (и помещающий вновь найденные URL-адреса в очередь обнаружения)
индексирование : сохранение обнаруженного и просканированного содержимого в их базе данных иделая его доступным для поиска
ранжирование : сопоставление индексированного содержимого с запросом пользователя и - если это достаточно важно - возвращение его в виде видимой выдачи SERP для пользователя.
обратная связь на основе поведения щелчка / отсутствия щелчка и данных, собранных из других источников (предполагаемые данные ISDN и панель инструментов Google, отчеты браузера Chrome и т. Д.)но поведение пользователя в его serp (и после щелчка).
- между каждым шагом - множество показателей качества (последний шаг - просто этап сбора показателей качества).
- каждый шаг возвращает к предыдущим шагам.
, поэтому, в принципе, даже если вы сообщаете все свои URL-адреса в Google (т. Е. Через sitemap.xml), Google не обязательно сканирует все ваши URL-адреса.или индексировать или оценивать их как видимые.
хорошо, так что же это за низко висящие фрукты , чтобы получить больше страниц в индексе (где они, по крайней мере, имеют шанс что-то оценить)?
- передает ровно один URL на страницу (используйте перенаправления http 301, канонический тег и убирайте все ссылки в Интернете)
- сделайте ваш сайт быстрее (огромное влияние)
- сделать его более легким в КБ (приятный эффект, в основном потому, что он тоже быстрее)
- размещать больше уникального контента на ваших страницах.
- предотвращать дублирование контента
- внешний (от другихвеб-сайты) ссылки наваши страницы (важно не общее количество, а стабильный рост во времени)
ps: просто как примечание - шаг сканирования является необязательным.даже не просканированные URL-адреса (т. е. если они были заблокированы с помощью robots.txt) могут быть проиндексированы (и ранжированы), но это не очень распространено