Директива clean-param для исключения дублей с get-параметрами
Гарантия возврата денег, если товар не подойдёт
Описание
Добавление параметров Clean-param в Robots.txt. Clean-param — это директива файла robots.txt, которую поддерживают роботы Яндекса. Она позволяет сообщить динамические параметры, которые присутствуют в url-адресе страницы, но не изменяют ее содержание. Это могут быть идентификаторы пользователя, сессии, параметры сортировки товаров и другие элементы.
Услуга требуется, если в панели Яндекс. Вебмастера появилась критическая ошибка "Найдены страницы-дубли с GET-параметрами" и рекомендуется использовать директиву Clean-param в robots.txt.
Описание из "Вебмастер. Справка":
Новый параметр, не влияющий на контент страницы, может привести к появлению страниц-дублей, которые не должны попасть в поиск. Из-за большого количества таких страниц робот медленнее обходит сайт. А значит, важные изменения дольше не попадут в результаты поиска.
Робот Яндекса, используя эту директиву, не будет многократно перезагружать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.
2 тарифа:
Данные, требующие для выполнения заказа:
Внимание: Сдача и приемка заказа происходит не дожидаясь окончания процесса замены ссылок в индексе. Замена ссылок из индекса происходит постепенно, по мере переобхода сайта роботом Яндекса. Ошибка исчезает не мгновенно. После исправления необходимо отправить на проверку, которая длиться около 14 дней.