К основному контенту

Дубли страниц, как они влияют на позиции самого сайта

Борьба с дублированием страниц - один из действенных способов повышения рейтинга сайта. Это объясняется отрицательным воздействием дублей на эффективность работы проекта и негативным отношением со стороны поисковиков.

Что такое дубль страницы

Под дублями понимают страницы, содержимое которых полностью или частично копирует данные, представленные в других частях ресурса или на других сайтах. Повторение в пределах одного ресурса называют внутренними дублями, совпадения с другими сайтами - внешними.
В зависимости от процента идентичности подразделяются на два типа:
  1. Полные - точные копии страниц, содержащих идентичный контент.
  2. Неполные - частично повторяющиеся данные, размещённые на нескольких страницах.

Причины появления

Неполные дубли появляются из-за упрощений и недоработок, связанных с наполнением сайта. Как правило, разработчик сознательно копирует отдельные элементы ввиду отсутствия аналогичных уникальных.
Присутствие полных дублей может стать сюрпризом даже для владельца сайта. К их появлению приводят следующие факторы:
  • система управления контентом (CMS), создающая ситуации, когда одна и та же запись имеет отношение к двум и более рубрикам, чьи домены входят в состав адреса записи;
  • наличие резервного доменного имени с www при условии, что по обоим адресам открываются одинаковые страницы;
  • присутствие пагинации, подразумевающей постраничную демонстрацию содержимого;
  • смена дизайна, следствием которой стала корректировка адресов.

Негативное влияние

При подробном рассмотрении проблемы внутренних и внешних дублей, получаем следующие неблагоприятные факторы:
  • ухудшение позиций в поисковой выдаче вплоть до полного исключения сайта из рейтинга;
  • отрицательное влияние на продвижение товара или услуги, которую описывает страница;
  • снижение рейтинга из-за потери уникальности - внешние дубли признаются неуникальными на 100%, внутренние - на 50% (при наличии одной копии);
  • падение веса главных страниц, которые были выбраны в качестве объектов продвижения, в связи с тем, что значение веса делится на общее количество страниц;
  • увеличение времени на индексацию элементов ресурса поисковыми роботами.

Способы борьбы

Для решения проблемы предусмотрено два варианта:

Полное удаление повторяющегося содержимого

Этот способ основан на принципе «одна ссылка - одна страница». От всех остальных ссылок, ведущих к аналогичному содержимому, нужно отказаться. Оптимальным и безболезненным для пользователей решением является автоматическая переадресация. Настройки редиректа чаще всего прописываются в размещённом на сервере файле .htacess.

Запрет на индексацию дублей поисковыми роботами


Второй вариант предусматривает создание инструкции для поисковиков, которая прописывается в файле robots.txt. Содержимое файла чётко указывает поисковым машинам какие элементы они должны проиндексировать, а какие обойти стороной.
Кстати нашел интересную вакансию программиста .

Комментарии

Популярные сообщения из этого блога

Файл robots.txt и для чего он используется

Ранжирование сайтов в выдаче поисковиков происходит на основании индексирования содержимого поисковыми роботами. Результат индексации - списки URL, которые регулярно проверяются на предмет качества и соответствия контента. При обнаружении новой ссылки робот добавляет её в список и страница становится доступной в результатах поиска. Назначение и содержание Robots.txt  - инструкция, которую разработчики сайта оставляют для поисковых роботов. При индексации ресурса они в первую очередь обращаются к этому файлу за указаниями к действию по отношению к тем или иным страницам. Содержание текстового документа robots.txt определяет следующие действия роботов: Разрешение или запрет на индексацию определённых элементов - разделов или страниц. Указание адреса актуальной зеркальной ссылки сайта. Устанавливает интервал времени, предназначенный для скачивания контента. Отсутствие файла robots.txt с инструкциями фактически означает разрешение на индексирование полного объёма содержи