Некоторые SEO ошибки критично опасны и могут свести все усилия на нет. Одна из таких - дубли страниц. Они крайне негативно воспринимаются поисковыми роботами и существенно усложняют поисковое продвижение сайта. Поэтому важно убрать дубли страниц на сайте как можно быстрее.
Когда на веб-сайте есть две одинаковых страницы, поисковики не могут понять, какую из них нужно показывать пользователям по релевантному запросу. И даже учитывая, что боты изучают и другие параметры, им все равно трудно решить, какой из дублей нужно выбирать.
Поэтому нужно найти и закрыть дубли страниц сайта, иначе вы столкнетесь с проблемами:
Чтобы эффективно искать дубли страниц и избавляться от них, нужно знать, каких видов они бывают.
Существует два типа:
Это может быть:
Они обычно появляются из-за особенностей системы управления сайтом, и найти их сложнее.
Чаще всего это:
Можно проверить сайт на ошибки несколькими способами:
Это метод, позволяющий проверить дубли страниц сайта вручную. Выдачу, отфильтрованную оператором, нужно изучить визуально и выявить копии.
Существуют разные инструменты для вебмастеров, позволяющие быстро просканировать веб-сайт. Это может быть проверка сайта на дубли страниц онлайн или с помощью десктопных программ. Они выгрузят полный список адресов, который можно будет затем отсортировать и найти дубликаты.
Google Search Console отображает список повторов мета-описаний и тэгов. Они могут быть признаками копий.
Первый и самый очевидный метод - удалить дубли страниц со слешем и другими частями URL адреса, которые создают копии. Также можно запретить роботам индексировать дубликаты, дописав условия в файл “robots.txt”. Это сработает со служебными страницами, которые повторяют содержимое основных.
Еще одно решение - настроить 301 редирект со страницы-дубля на соответствующую корректную страницу сайта. Это поможет с ошибками в иерархии разделов и reff-метками. Также можно проставить тэг “rel=canonical”, что решит проблему с фильтрами, сортировками и пагинацией. А если у вас на веб-сайте есть версии для печати, блоки с отзывами и другой информацией, воспользуйтесь тегом meta name="robots" content="noindex, nofollow". Это позволит скрыть подобные блоки от поисковых ботов.
Чаще всего копии создаются самой системой управления сайтом, поэтому лучше, чтобы выявлением дубликатов и их устранением занимался опытный специалист. Наша команда веб-студии RetsCorp обладает большим опытом и крепкими знаниями в поисковой оптимизации и продвижении сайтов. Мы сможем обнаружить все ошибки, которые мешают раскрутке вашего ресурса, и исправить их. Также мы составим эффективную стратегию продвижения, которая позволит быстро добиться желаемых результатов.
Оценок: 450 (средняя 5 из 5)
Что такое дубли страниц сайта? Как их найти и удалить из выдачи? {descr}