Добрый день! Если вы маркетолог или предприниматель это статья для вас. Быстро и кратко расскажу что за ошибка Найдены страницы-дубли с GET-параметрами.
Начиная с лета 2021 года Яндекс.Вебмастер стал информировать всех у кого сайт добавлен в панель о наличии на сайтах страниц-дублей с GET-параметрами, причем помечается эта проблема как критичная, что многих маркетологов и владельцев бизнеса приводит это в ужас. Случается на любой админке битрикс, вордпресс.
Скажу сразу переживать не стоит! Ошибка пустяковая и тупа попадает 1-2 страницы. Исправить легко.
GET-параметр — это динамический параметр в URL, с помощью которого возможно изменение содержимого документа. Самым частым примером URL с GET-параметром в интернет магазинах являются страницы пагинации, например, site/category?page=2 или сортировки, например, site/category?sotr=abc. page и sort являются параметрами. Таких параметров может быть бесконечное множество. Они могут генерироваться как изнутри самим сайтом (CMS), так и снаружи, например, добавляя UTM-метки для рекламных компаний вы создаете дубли страниц для поисковых систем.
Как решить проблему дублей GET параметров?
Первый метод Clean-param
В файл robots.txt добавить директиву Clean-param с перечислением всех возможных GET-параметров через амперсанд, например, для страниц site/category?page=2 и site/category?sotr=abc Clean-param: page&sort
Второй метод rel=canonical
Проставлять на страницах с GET-параметром атрибут с указанием URL канонической страницы, например, для site/category?page=2 тег будет выглядеть так <link rel=»canonical» href=»site/category» />
Третий метод Disallow
В файле robots.txt прописать директиву Disallow: *?*, чтобы закрыть от индексации абсолютно все страницы с GET-параметрам. Более жесткое правило для поисковых роботов, поэтому достаточно эффективно убирает дубли страниц из поисковой выдачи.
ВЫВОД
Я рекомендую закрывать через robots txt. Считаю более эффективно. Вам осталось попросить вашего разработчика прописать всё это дело и проблема пропадёт через некоторое время.