Директива clean-param для исключения дублей с get-параметрами

Гарантия возврата денег, если товар не подойдёт

Описание Добавление параметров Clean-param в Robots.txt. Clean-param — это директива файла robots.txt, которую поддерживают роботы Яндекса. Она позволяет сообщить динамические параметры, которые присутствуют в url-адресе страницы, но не изменяют ее содержание. Это могут быть идентификаторы пользователя, сессии, параметры сортировки товаров и другие элементы. Услуга требуется, если в панели Яндекс. Вебмастера появилась критическая ошибка "Найдены страницы-дубли с GET-параметрами" и рекомендуется использовать директиву Clean-param в robots.txt. Описание из "Вебмастер. Справка": Новый параметр, не влияющий на контент страницы, может привести к появлению страниц-дублей, которые не должны попасть в поиск. Из-за большого количества таких страниц робот медленнее обходит сайт. А значит, важные изменения дольше не попадут в результаты поиска. Робот Яндекса, используя эту директиву, не будет многократно перезагружать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер. 2 тарифа: Данные, требующие для выполнения заказа: Внимание: Сдача и приемка заказа происходит не дожидаясь окончания процесса замены ссылок в индексе. Замена ссылок из индекса происходит постепенно, по мере переобхода сайта роботом Яндекса. Ошибка исчезает не мгновенно. После исправления необходимо отправить на проверку, которая длиться около 14 дней.

Комментарии

Популярные объявления