Чем опасен дублированный контент

Одним из обязательных и наиболее трудоемких пунктов в тз по исправлению технических ошибок на сайте является дублированный контент. Его наличие на сайте негативно оценивается как читателями, так и поисковыми системами.

Если на заре сео на дубли ругались роботы ПС, но сайты, содержащие копии контента, адресов и других элементов, все-таки пробирались в топ, то сегодня такая ситуация невозможна.

С внедрением новых алгоритмов ранжирования, загоняющих оптимизацию в жесткие рамки, специалистам, задействованным в области создания и оптимизации веб-ресурсов, остается только делать "идеальные" сайты. В таких ресурсах должны органично сочетаться качество контента, его уникальность, полезность.

Сайты, у которых одно и то же содержание доступно по нескольким разным адресам, могут не рассчитывать на топ-10 или какие-либо другие высокие позиции. Поэтому перед началом грандиозного продвижения на первые страницы выдачи ПС по высоко-, средне- или низкочастотным запросам, обязательно следует провести детальный анализ сайта на внутренний дубляж, и исправлять его в рамках внутренней оптимизации.

 

Почему дублированный контент вреден

  • страницы с неуникальным содержимым не участвуют в ранжировании
  • они не передают вес
  • падает доверие к сайту как к источнику полезной качественной информации

 

Есть несколько разновидностей повторяющегося контента

Страницы сортировки - обычная ситуация для коммерческих многостраничников, продающих похожие товары. Чтобы не быть пессимизированным ПС за одинаковый текст на страницах о, скажем, телефонах одной модели, отличающихся только цветом, нужно связывать их атрибутом rel="canonical". Сюда можно отнести и пагинацию, которую также нужно отладить, чтобы устранить дубль первой страницы.

Технический  контент - генерация копий, которая происходит в следствии работы CMS. Здесь поможет правильная настройка работы панели управления сайтом.

Типичной проблемой сайтов, пришедших на продвижение, является доступность зеркал с www. и без него. Здесь безусловным решением является настройка постоянного перенаправления в .htaccess. Важно также закрепить все директивами в файле robots, которые будут приняты во внимание роботами во время следующего сканирования.

 

Причины образования дублей:

  1. Доступность материала несколькими путями. Например, к странице товара "telefon1" можно добраться через  http://site.com/telefon1  и http://site.com/catalog/telefon1
  2. Таких возможностей быть не должно.
  3. Доступность нескольких зеркал сайта.
  4. Некорректная установка https - защищенного протокола, значение которого для ПС сегодня значительно возросло.
  5. Идентификаторы сессий, которые присваиваются url-у страницы в качестве уникальной пометки посетителя. Такой адрес может попасть в индекс, образовав дубль. Устранить его можно путем удаления id из адреса, если это невозможно, то применяют canonical.

Обнаружение и устранение дублей - обязательное условие грамотной внутренней оптимизации.

Не пропустите

Комментарии закрыты.