Тази статия е огледална статия за машинен превод, моля, кликнете тук, за да преминете към оригиналната статия.

Изглед: 8730|Отговор: 2

[SEO] Търсачката на Yandex robots.txt конфигурация Clean-param

[Копирай линк]
Публикувано в 2.04.2022 г. 20:12:51 ч. | | | |
Днес получих имейл от Yandex.Webmaster със следния текст:


Някои страници с GET параметри в URL адреса на вашия сайтhttps://down.itsvse.comдублират съдържанието на други страници (без GET параметри). Напримерhttps://example.com/tovary?from=mainpageДубликатиhttps://example.com/tovary.Тъй като и двете страници се обхождат, може да отнеме повече време, докато информацията за важни страници бъде добавена в базата данни за търсене. Това може да повлияе на статуса на търсене на сайта.

Ето примери за страници и техните дублиращи се страници с незначителни GET параметри:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Ако тези страници са дублиращи, препоръчваме да се използва директивата Clean-param в robots.txt, така че роботът да игнорира незначителните GET параметри и да комбинира сигнали от идентични страници на Главна страница.
Преведено по следния начин:

Вашият сайтhttps://down.itsvse.comНякои страници с параметъра GET в URL адреса на страницата копират съдържанието на другите страници (без параметъра GET). Напримерhttps://example.com/tovary?from=mainpageиhttps://example.com/tovaryПовтарям. Тъй като и двете страници са обхождани, може да отнеме повече време да се добави информация за важни страници в базата данни за търсене. Това може да повлияе на статуса на търсене на вашия уебсайт.

Ето примери за страници с GET параметри, които нямат значение, и техните дублиращи се страници:

ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Ако тези страници са дублиращи, препоръчваме да се използва директивата Clean-param в robots.txt, за да може ботът да игнорира нерелевантните GET параметри и да слива сигнали от същата страница на началната страница.
Общата идея е, че има много страници с параметри, които сочат към A връзки и след това откриватБез значение как се променя стойността на параметъра, страницата с линк A винаги показва едно и също съдържаниеНапример, когато страница кликне и трябва да премине към страницата за вход, искаме да можем да преминем към оригиналната страница след успешното влизане.

Търсачката на Yandex иска да добавим директивата Clean-param към такива URL връзки, документация:Входът към хиперлинк е видим.

Синтаксисът за чист параметр е следният:


В първото поле изброете параметрите, които ботът трябва да игнорира, разделени с символа &. Във второто поле посочете префикса за пътя на страницата, към която трябва да се приложи правилото.

Примери включват:

В крайна сметка коригираме robots.txt според формата и примерите по следния начин:

(Край)





Предишен:ASP.NET Core (XIII), за да определи дали е заявка на Ajax или не
Следващ:[Завърти]. NET 6 Нова функция Enumerable.chunk()
Публикувано в 4.04.2022 г. 11:36:58 ч. |
Научи се да учиш
 Хазяин| Публикувано в 15.03.2023 г. 20:07:00 ч. |
Модифицирано на:

Отричане:
Целият софтуер, програмни материали или статии, публикувани от Code Farmer Network, са само за учебни и изследователски цели; Горното съдържание не трябва да се използва за търговски или незаконни цели, в противен случай потребителите ще понесат всички последствия. Информацията на този сайт идва от интернет, а споровете за авторски права нямат нищо общо с този сайт. Трябва напълно да изтриете горното съдържание от компютъра си в рамките на 24 часа след изтеглянето. Ако ви харесва програмата, моля, подкрепете оригинален софтуер, купете регистрация и получете по-добри услуги. Ако има нарушение, моля, свържете се с нас по имейл.

Mail To:help@itsvse.com