Плохо ли использовать хлебные крошки и подкатегории для аналогичного контента? - PullRequest
0 голосов
/ 20 января 2012

Я строю новую навигационную систему с использованием хлебных крошек на основе категорий и подкатегорий.

Пример 1:

Having url like this:
http://mywebsite.com/listings-in-london-hatchback-car-for-sale-red-vauxhall

Having breadcrumbs like this:
Home Page > Listings > London > For Sale > Car > Hatchback > Vauxhall > Red

На этой странице 10 красных машин.

Пример 2:

Having another url like this:
http://mywebsite.com/listings-in-london-hatchback-car-for-sale-vauxhall

Having another breadcrumbs like this:
Home Page > Listings > London > For Sale > Car > Hatchback > Vauxhall

Эта страница имеет те же 10 автомобилей, но пользователи могут добавлять в будущем автомобили, которые не красного цвета.

Пример 3:

Having another url like this:
http://mywebsite.com/listings-in-london-hatchback-car-for-sale

Having another breadcrumbs like this:
Home Page > Listings > London > For Sale > Car > Hatchback

На этой странице слишком 10 автомобилей, но пользователи могут добавлять в будущем автомобили, которые не являются Vauxhall.

Могут быть аналогичные ситуации для других категорий. Это плохая практика? Может ли это быть причиной штрафов за дублированный контент? Что я должен сделать, чтобы избежать штрафов?

Ответы [ 2 ]

1 голос
/ 21 января 2012

Проблема дублирующегося контента, о которой вы говорите, - это фильтр, а не штраф.

Google, вероятно, будет думать, что все эти страницы в настоящее время одинаковы, потому что они очень похожи. Таким образом, Google будет отображать только один из них в результатах поиска. Тот, который он считает наиболее важным.

Это потому, что Google считает, что не в интересах пользователей видеть десять результатов поиска, которые в конечном итоге будут отображать одну и ту же информацию. Поэтому Google отфильтровывает эти дубликаты из конкретных результатов поиска.

Со временем страницы станут более уникальными, нацелены на разные ключевые слова и, как мы надеемся, окажутся в результатах поиска, основанных на их собственных достоинствах, и не будут вытеснять друг друга.

Сказать, что ...

Обновление Googles Panda было связано с удалением веб-сайтов с высоким процентом страниц низкого качества. Если дублирования слишком много, особенно если другие веб-сайты используют одну и ту же копию, есть вероятность, что веб-сайт может вызвать Panda!

Еще один небольшой минус в том, что Google создает больше страниц для сканирования, что означает, что может потребоваться больше времени для обнаружения новых или измененных страниц.

1 голос
/ 20 января 2012

Нет, я думаю, что с навигацией все в порядке, я сомневаюсь, что любые штрафы за дублирование контента могут быть назначены, просто удалите крошки на страницах продукта, так как это может немного раздражать.Ознакомьтесь с хорошим руководством по передовой практике навигации здесь .Вы также можете ознакомиться с официальным руководством '1003 * здесь: 1004 *'

...