Seo оптимизация страниц пагинации

Seo оптимизация страниц пагинации

На сегодняшний день seo-оптимизаторы используют разные методы при работе со страницами пагинации. Какого-то универсального или на 100% правильного метода в данном случае быть не может – всё зависит от ресурса и целей данных страниц.

Для начала немного терминологии:

В веб-дизайне под пагинацией понимают постраничный вывод информации, показ ограниченной части информации на одной (веб)-странице.

Страницы с пагинацией – это страницы с параметрами, которые ограничивают вывод количества результатов по умолчанию. Например, 10 результатов поиска на странице или вывод 30 карточек товаров на странице категории интернет-магазина.

Страницы пагинации

Для чего нужна пагинация?

Пагинация способствует юзабилити сайта и упрощает его использование. Представим себе ситуацию, когда на странице каталога интернет-магазина представлен весь ассортимент, то есть десятки тысяч товаров. Технически это возможно, но насколько данная страница будет юзабельна? Будет ли пользователю удобно «работать» с данной страницей? Ответ – определенно нет. Также не стоит забывать, что скорость интернет-соединения на данный момент ограничена, следовательно, чем больше товаров на странице, тем дольше она будет прогружаться в браузере пользователя.

Какие проблемы могут возникнуть при неправильной настройке пагинации?

  1. Дублирование контента.
  2. Смена релевантных страниц в поисковой выдаче.
  3. Присутствие в выдаче нерелевантных или неактуальных страниц.
  4. Затруднение индексирования и расход краулингового бюджета сайта.
  5. Увеличение нагрузки на сервер сайта при его сканировании поисковыми ботами.

Давайте рассмотрим некоторые пути решения данных проблем:

Метод 1. Закрытие страниц пагинации в файле robots.txt

К примеру, Disallow: /*?

Минусы данного метода: в случае отсутствия карты сайта возможны проблемы с индексированием контента. Также теряем ссылочный вес с внешних ресурсов (в случае их наличия). Передача некоторых показателей, важных для поисковой системы Яндекс, со страниц пагинации не будет производиться.

Метод 2. Закрытие страниц пагинации через метатег name="robots"

Варианты:

  1. <meta name="robots" content="noindex, nofollow" /> Минусы данного метода все те же, что и при закрытии страниц через robots.txt
  2. <meta name="robots" content="noindex, follow" /> Минусы – потеря ссылочного веса с внешних ресурсов в случае их наличия на странице пагинации, передача некоторых показателей (важных для поисковых систем) со страниц пагинации не будет производиться, с индексированием контента в данном случае проблем не будет.
  3. <meta name="robots" content="noindex" /> = <meta name="robots" content="noindex, follow" />
  4. <meta name="robots" content="none" /> = <meta name="robots" content="noindex, nofollow" />

В данных метатегах параметр noindex запрещает к индексации содержимое страницы. Параметр nofollow запрещает переходить по ссылкам на данной странице.

Метод 3. Уникализация страниц пагинации через теги, метатеги и написание для данных страниц дополнительных уникальных текстов

Минусы метода: заточка разных страниц пагинации под разные запросы работала лет 5 назад. На данный момент, по нашим наблюдениям, это неэффективно и может привести к пессимизации ресурса. Также для выполнения данного метода необходимы большие объемы дополнительных работ, которые в будущем не принесут нужного результата.

Как в таком случае поступать с данными страницами? Давайте посмотрим, что нам рекомендуют поисковые системы:

  1. Google: рекомендации для вебмастеров тут и тут.
  2. Яндекс: к сожалению, в справке нет данных о том, как поступать со страницами пагинации. Но зато есть информация в официальном блоге для интернет-магазинов тут и общая информация в справке об атрибуте rel="canonical" тут.

Ознакомившись с данной информацией, мы сделали вывод, что Яндекс рекомендует нам настроить атрибут rel="canonical" на первую страницу сайта. А Google же говорит, что так делать не совсем верно – и у них есть для этого специальный атрибут rel="next" и rel="prev", который поможет поисковой системе определить, что данные страницы связаны между собой.

И если мы внимательно прочитаем комментарии в блоге Яндекса от Платона Щукина, то узнаем:

Комментарий Платона Щукина

Похоже, что это наиболее подходящий вариант как для Яндекса, так и для Google.

Исходя из вышесказанного, получаем четвертый вариант оптимизации:

Метод 4. Настроить атрибут rel="canonical" на страницы «Показать всё»

Это идеальный вариант, который подойдет и для Яндекс, и для Google.

Но вновь он не устроит многих вебмастеров и пользователей сайтов с большим количеством подборок (статей, товаров, объявлений), так как подобные страницы будут загружаться крайне долго, а желательная загрузка страницы должна быть не более 5-7 секунд. И чем быстрее, тем лучше (не путать с временем ответа сервера – оно должно быть не более 0,2 секунд). Есть вариант – подключить бесконечную прокрутку, но вновь могут возникнуть проблемы со стороны поисковых систем. До сих пор ПС сложно обрабатывают js и ajax-элементы, периодически возникают проблемы с индексацией содержимого и при сборе данных систем аналитики.

Метод 5. Отдача разного содержимого в зависимости от заходящего поискового бота

Подробного описания данного метода предоставлять не буду, так как он попадает под определение «маскировка» у Google (подробнее) и под определение «клоакинг» у Яндекса (подробнее).

Но реализация предоставляет что-то наподобие следующего:

<?php
if ( strstr($_SERVER['HTTP_USER_AGENT'], 'Yandex') )
{echo 'Выводим канонический url';}
elseif ( strstr($_SERVER['HTTP_USER_AGENT'], 'Googlebot') )
{echo 'Выводим rel="next" и rel="prev"';}
else
{
{echo 'Можно ничего не выводить';}
}
?>

В результате получаем:

  • Для Яндекс:

    Яндекс

  • Для Google:

    Google

  • И то, что выведет пользователям браузер:

    Браузер

Вариант составлен по первой рекомендации в справке Google:

Справка Google

P.S. Не рекомендую использовать данный метод.

Метод 6. Выбрать приоритетную поисковую систему Яндекс или Google и следовать её рекомендациям

По опыту замечено, если ставить rel="canonical" на первую страницу, ничего критичного с Google не происходит: позиции, приходящиеся на данные страницы, либо не проседают, либо восстанавливаются в течение 2-3 недель. Поэтому на этом методе остановимся более подробно.

Кстати, при реализации на сайте rel="canonical" с тегом <base href=""> производить никаких действий не надо, хотя многие рекомендуют. Это совершенно два разных тега с разными функциями. Тег Base предназначен для браузеров с управлением контентом, в которых используется относительный адрес. Никакого отношения к индексации или поисковым системам он не имеет.

Реализация canonical на первую страницу без параметров на MODX Revolution (для Yandex)

Вариант № 1:

Установить Canonical snippet.

Вариант № 2:

Вручную проставить канонические адреса.

Для начала необходимо проверить, что [<!-- -->[*alias]<!-- -->] отрабатывает нормально, дружественные Url у нас включены.

Далее переходим на главную страницу, смотрим поле «Псевдоним» на главной странице. Как правило, это будет либо index, либо glavnaya по умолчанию.

Данный канонический адрес для главной страницы нас не устраивает.

Псевдоним главной

Самое простое решение – это скопировать шаблон и подменить в нем чанк head.

Копируем код шаблона (html) в Шаблон для главной, создаем чанк с содержимым [<!-- -->[$headg]<!-- -->], заменяем в шаблоне для главной [<!-- -->[$head]<!-- -->] на [<!-- -->[$headg]<!-- -->], назначаем созданный шаблон для главной страницы.

В чанк [<!-- -->[$headg]<!-- -->] добавляем <link rel"canonical" href="[<!-- -->[!++site_url]<!-- -->]"/>

чанк headg

В чанк для [<!-- -->[$head]<!-- -->] добавляем

<link rel="canonical" href="[<!-- -->[++site_url]<!-- -->][<!-- -->[*uri]<!-- -->]"/> если ваш url имеет окончание / или .html

чанк head

В случае если закрывающий слеш отсутствует или производится редирект средствами .htaccess, то можно использовать конструкцию

<link rel="canonical" href="[<!-- -->[++site_url]<!-- -->][<!-- -->[~[<!-- -->[*parent:is=`0`:then=``:else=`[<!-- -->[*parent]<!-- -->]`]<!-- -->]]<!-- -->][<!-- -->[*alias]<!-- -->]"/>

чанк head

После произведенных действий проверяем канонический адрес на всех страницах сайта.

Если страниц у сайта много, рекомендую воспользоваться программой для ПК ComparseR. В деморежиме она позволяет отпарсить до 150 страниц сайта – как правило, для большинства сайтов этого хватает.

После проверки удаляем из файла robots.txt правила, если они есть:

Disallow: /?
Disallow: /*?
Disallow: /index.php

За удаление дублированного контента теперь будет ответственен атрибут rel="canonical"

Настройка атрибутов тега link rel="canonical", rel="prev" и rel="next"

В данном случае canonical у нас должен вести на страницу, на которой находится поисковый бот, к примеру, https://site.com/podborka/?page=3 – это избавляет нас от дублирования контента с доп. параметрами.

rel="prev" https://site.com/podborka/?page=2 говорит поисковому боту о том, что есть предыдущая часть этой страницы.

rel="next" https://site.com/podborka/?page=4 подает сигнал поисковому боту о том, что есть продолжение этой страницы (в случае её существования).

Заключение

В данной статье мы постарались рассмотреть все возможные плюсы и минусы реализации оптимизации страниц пагинации. Сказать, что какой-то из случаев именно ваш, нельзя. Каждый сайт индивидуален, у каждого сайта свои цели, и исходя из этих целей будет зависеть, какой вид реализации подойдет именно вашему сайту. Если хотите, чтобы наши специалисты посмотрели ваш сайт, то вам сюда.

Оценок: 912 (средняя 5 из 5)

Seo оптимизация страниц пагинации {descr}
Рекомендуем также