Джон Мюллер, сотрудник Google, во время последней видеовстречи для вебмастеров рассказал, что страницы с похожими URL могут расцениваться как дубликаты. Это может нанести вред страницам с уникальным контентом. И вот почему.
Когда Google сканирует страницы с похожими шаблонами URL и видит, что они содержат одинаковый контент, то система может решить, что все другие страницы с этим шаблоном URL также имеют тот же контент.
В результате страницы с уникальным контентом, но похожими URL, могут обозначаться как дубликаты и удаляться из индекса Google.
Сейчас Google использует несколько уровней для определения дублированного контента: первый уровень рассматривает непосредственное содержимое страниц, на следующем анализирует их URL.
В последнем случае речь идёт о более широком прогнозном подходе, когда также анализируется структура сайта. То есть, Google пытается предсказать, когда страницы могут содержать похожий или повторяющийся контент, на основе их URL-адресов.
Зачастую такая проблема может возникать в случае, когда контент ориентирован на разные города: сайт содержит большое количество похожего контента, но с указанием разных городов.
В этом случае прогнозный метод выявления дубликатов может влиять на сайты мероприятий, а также на другие ресурсы.
Для решения этой проблемы Мюллер предлагает самостоятельно посмотреть, где на сайте действительно используется дублированный контент, и попытаться по максимуму его сократить – чтобы из-за этих страниц не пострадали страницы с уникальным содержимым, но похожими URL.
Пока что санкций за дублированный контент в Google нет, но учитывая серьезную работу направленную на выявление дубликатов, предупреждение Мюллера можно счесть подготовкой к разработке подобных санкций.
Опубликовано редакцией Yagla