Эта статья является зеркальной статьёй машинного перевода, пожалуйста, нажмите здесь, чтобы перейти к оригиналу.

Вид: 8730|Ответ: 2

[SEO] Поисковая система Яндекс robots.txt конфигурацию Clean-param

[Скопировать ссылку]
Опубликовано 02.04.2022 20:12:51 | | | |
Сегодня я получил письмо от Яндекс.Вебмастера со следующим текстом:


Некоторые страницы с параметрами GET в URL на вашем сайтеhttps://down.itsvse.comдублировать содержимое других страниц (без параметров GET). Напримерhttps://example.com/tovary?from=mainpageДубликатыhttps://example.com/tovary.Поскольку обе страницы обходятся, добавление информации о важных страницах в поисковую базу может занять больше времени. Это может повлиять на статус поиска сайта.

Вот примеры страниц и их дублирующих страниц с незначительными параметрами GET:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Если эти страницы дублируются, мы рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначительные параметры GET и комбинировал сигналы с идентичных страниц на заглавная страница.
Перевод ниже:

Ваш сайтhttps://down.itsvse.comНекоторые страницы с параметром GET в URL на странице копируют содержимое других страниц (без параметра GET). Напримерhttps://example.com/tovary?from=mainpageиhttps://example.com/tovaryПовторять. Поскольку обе страницы были обсканированы, добавление информации о важных страницах в поисковую базу может занять больше времени. Это может повлиять на статус поиска вашего сайта.

Вот примеры страниц с параметрами GET, которые не имеют значения, и их дублирующих страниц:

ВозвратUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ВозвратUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ВозвратUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ВозвратUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ВозвратUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Если эти страницы дублируются, мы рекомендуем использовать директиву Clean-param в robots.txt, чтобы бот игнорировал нерелевантные параметры GET и объединял сигналы с той же страницы на главной странице.
Общая идея в том, что существует множество страниц с значениями параметров, указывающими на ссылки A, а затем обнаруживающимиНезависимо от того, как меняется значение параметра, страница ссылки A всегда показывает одно и то же содержимоеНапример, когда страница кликает и нужно перейти на страницу входа, мы хотим иметь возможность перейти на исходную страницу после успешного входа.

Поисковая система Яндекса хочет, чтобы мы добавили директиву Clean-param к таким URL-ссылкам, документации:Вход по гиперссылке виден.

Синтаксис clean-param следующий:


В первом поле перечислите параметры, которые бот должен игнорировать, разделённые символом &. Во втором поле укажите префикс пути страницы, к которой должно применяться это правило.

Примеры включают:

В итоге мы корректируем robots.txt согласно формату и примерам следующим образом:

(Конец)





Предыдущий:ASP.NET Core (XIII), чтобы определить, является ли это запросом Ajax
Следующий:[Поворот]. NET 6 Новая функция Enumerable.chunk()
Опубликовано 04.04.2022 11:36:58 |
Учитесь учиться
 Хозяин| Опубликовано 15.03.2023 20:07:00 |
Изменено на:

Отказ:
Всё программное обеспечение, программные материалы или статьи, публикуемые Code Farmer Network, предназначены исключительно для учебных и исследовательских целей; Вышеуказанный контент не должен использоваться в коммерческих или незаконных целях, иначе пользователи несут все последствия. Информация на этом сайте взята из Интернета, и споры по авторским правам не имеют отношения к этому сайту. Вы должны полностью удалить вышеуказанный контент с компьютера в течение 24 часов после загрузки. Если вам нравится программа, пожалуйста, поддержите подлинное программное обеспечение, купите регистрацию и получите лучшие подлинные услуги. Если есть нарушение, пожалуйста, свяжитесь с нами по электронной почте.

Mail To:help@itsvse.com