Проблема дублирующегося контента, о которой вы говорите, - это фильтр, а не штраф.
Google, вероятно, будет думать, что все эти страницы в настоящее время одинаковы, потому что они очень похожи. Таким образом, Google будет отображать только один из них в результатах поиска. Тот, который он считает наиболее важным.
Это потому, что Google считает, что не в интересах пользователей видеть десять результатов поиска, которые в конечном итоге будут отображать одну и ту же информацию. Поэтому Google отфильтровывает эти дубликаты из конкретных результатов поиска.
Со временем страницы станут более уникальными, нацелены на разные ключевые слова и, как мы надеемся, окажутся в результатах поиска, основанных на их собственных достоинствах, и не будут вытеснять друг друга.
Сказать, что ...
Обновление Googles Panda было связано с удалением веб-сайтов с высоким процентом страниц низкого качества. Если дублирования слишком много, особенно если другие веб-сайты используют одну и ту же копию, есть вероятность, что веб-сайт может вызвать Panda!
Еще один небольшой минус в том, что Google создает больше страниц для сканирования, что означает, что может потребоваться больше времени для обнаружения новых или измененных страниц.