Поиск дублей страниц
Приветствуем вас на нашем онлайн сервисе. С помощью него можно быстро найти дубли страниц. Для начала работы введите необходимые URL в поле ввода и нажмите на кнопку 'Отправить'.
- Что такое дубли страниц?
Дубли страниц — это ненужные страницы, которые полностью копируют содержимое целевой страницы, но доступны по другим URL.
Например, дублями главной страницы https://site.ru/ могут быть:
- http://site.ru/
- https://www.site.ru/
- https://site.ru/index.php
- и т.д.
- Почему важно определять и устранять дублирующие страницы?
Наличие на сайте дублей может:
- негативно отразиться на индексировании проекта (расход краулингового бюджета, когда вместо нужных страниц, поисковые системы индексируют никому ненужные дубликаты);
- привести к снижению трафика за счет размытия релевантности и неверного распределения внутренней и внешней ссылочной массы;
- повлечь санкции поисковых систем Google и Яндекс.
- Как проверить сайт на дубли?
Для проверки сайта на наличие дублирующих страниц необходимо:
- Выбрать типовые страницы, это могут быть:
- главная страница, например: https://wowmebli.com/ ;
- страница категории, например: https://wowmebli.com/ru/od/kuhni/ ;
- страница товара/услуги;
- служебная страница, например: https://wowmebli.com/ru/o-proekte/ ;
- страница блога/новости: https://wowmebli.com/ru/news/vozmozhnost-dobavleniya-kompanii-v-profile-polzovatelya/ ;
- и т.д.
- Добавить их в поле ввода (не более 5 URL за одну проверку) и нажать кнопку «Отправить запрос»
- Через несколько секунд на экране появятся результаты:
- Выбрать типовые страницы, это могут быть:
- Со страницами каких CMS работает сервис?
Для сервиса нет никакой разницы страницы сайтов каких CMS проверять. Вы можете вводить URL на базе WordPress, Joomla, Битрикс, ModX, OpenCart и других систем.
- Как убрать дублирование страниц?
Избавиться от дублирования можно с помощью 301-х редиректов или настройки сервера, таким образом, чтобы ненужные страницы отдавали 404-й код ответа сервера. В некоторых случаях рекомендовано использовать инструкции robots.txt, meta robots или canonical.
Если у вас есть сложности с этим, то рекомендуем обратиться к опытному seo-специалисту, который поможет составить рекомендации.