Разработка любого ресурса включает применение различных методов, которые позволят увеличить поисковую привлекательность web-площадки. В компании infounion.com.ua одним из обязательных действий является периодическая проверка собственного сайта на присутствие в нем дублей страниц. По сути, с точки зрения поискового робота, адреса http://s***20.com и http://20***s.com выглядят одинаковыми. На основании этого поисковикам, типа Google, Bing и Yandex, сложно разобраться и выдать в поиске наиболее релевантный канонический адрес страницы, имеющий копию.

Потому в 2011 году известной поисковой системой был разработан алгоритм (фильтр), которому присвоили название GooglePanda. Данная программа проверяет весь контент, находящийся на площадке. Попадание в область действия этого фильтра любой ресурс заметно теряет поисковый трафик.

Виды дублей

Дублирующие страницы бывают двух типов: полными и частичными. Первые собой представляют абсолютные копии одной страницы/контента, которые размещаются в других местах ресурса. Хотя в случае с частичными дублируется лишь какая-то часть контента, из-за чего такие копии не считаются копиями. Обычно данные страницы называют «зеркалами».

Чтобы понять, как они выглядят, опишем простой пример. Допустим, имеется адрес главной страницы ресурса – http://miresurs.com/index, а вот зеркало будет выглядеть как http://miresurs.com/index/. Если присмотреться, то разница заключается лишь в последнем слеше (косой черточке). Но бывают случаи, когда url пишется с www или без такового.

Основной недостаток появления дублей

Поисковые системы в ходе формирования выдачи, как правило, ищут оригинальные, полезные и максимально-уникальные статьи, где основное внимание уделяется последнему параметру, то есть уникальности текстов. Иногда непорядочные люди просто копируют чужой контент, не внося в него каких-либо изменений. Поисковые роботы расценивают такие тексты как плагиат. Понимая, что нарушены авторские права, рейтинг рассматриваемой страницы существенно падает, как собственно и позиции поисковой выдачи.

Варианты поиска дубликатов на Google Webmaster Tools

Критично к таким страницам относятся все поисковые системы, одни более жестко, другие не очень, но чтобы была возможность их найти, были разработаны специальные сервисы и программы, путем настройки которых показываются найденные результаты. Расскажем о принципе использования Google Webmaster Tools. Зайдя на площадку сервиса, находим раздел «Оптимизация», дальше делаем клик на «Оптимизация html». Так ищутся повторения тега title и мета-описаний.