Ця стаття є дзеркальною статтею машинного перекладу, будь ласка, натисніть тут, щоб перейти до оригінальної статті.

Вид: 8730|Відповідь: 2

[SEO] Пошукова система Yandex robots.txt конфігурація Clean-param

[Копіювати посилання]
Опубліковано 02.04.2022 20:12:51 | | | |
Сьогодні я отримав електронного листа від Yandex.Webmaster з таким текстом:


Деякі сторінки з параметрами GET у URL на вашому сайтіhttps://down.itsvse.comдублювати вміст інших сторінок (без параметрів GET). Наприкладhttps://example.com/tovary?from=mainpageДублікатівhttps://example.com/tovary.Оскільки обидві сторінки скануються, може знадобитися більше часу, щоб інформація про важливі сторінки була додана до бази пошуку. Це може вплинути на статус пошуку сайту.

Ось приклади сторінок та їхніх дублікатів із незначними параметрами GET:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Якщо ці сторінки є дублікатами, ми рекомендуємо використовувати директиву Clean-param у robots.txt, щоб робот ігнорував незначні параметри GET і комбінував сигнали з ідентичних сторінок на Головна сторінка.
Перекладено так:

Ваш сайтhttps://down.itsvse.comДеякі сторінки з параметром GET у URL на сторінці копіюють вміст інших сторінок (без параметра GET). Наприкладhttps://example.com/tovary?from=mainpageіhttps://example.com/tovaryПовторити. Оскільки обидві сторінки були скановані, додавання інформації про важливі сторінки до бази пошуку може зайняти більше часу. Це може вплинути на статус пошуку на вашому сайті.

Ось приклади сторінок із параметрами GET, які не мають значення, та їхніх дублікатів сторінок:

Адреса повернення:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
Адреса повернення:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
Адреса повернення:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
Адреса повернення:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
Адреса повернення:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Якщо ці сторінки є дублікатами, ми рекомендуємо використовувати директиву Clean-param у robots.txt, щоб бот ігнорував нерелевантні параметри GET і об'єднував сигнали з тієї ж сторінки на головній сторінці.
Загальна ідея полягає в тому, що існує багато сторінок із значеннями параметрів, які вказують на посилання A, а потім відкриваютьНезалежно від того, як змінюється значення параметра, сторінка посилання A завжди відображає той самий контентНаприклад, коли сторінка натискає і потребує перейти на сторінку входу, ми хочемо мати можливість перейти на оригінальну сторінку після успішного входу.

Пошукова система Yandex хоче, щоб ми додали директиву Clean-param до таких URL-посилань, документації:Вхід за гіперпосиланням видно.

Синтаксис clean-param виглядає так:


У першому полі перелічіть параметри, які бот має ігнорувати, розділені символом &. У другому полі вкажіть префікс шляху сторінки, до якої слід застосувати правило.

Прикладами є:

Наприкінці ми коригуємо robots.txt відповідно до формату та прикладів так:

(Кінець)





Попередній:ASP.NET Core (XIII), щоб визначити, чи є це запитом Ajax
Наступний:[Поворот]. NET 6 Нова функція Enumerable.chunk()
Опубліковано 04.04.2022 11:36:58 |
Вчитися вчитися
 Орендодавець| Опубліковано 15.03.2023 20:07:00 |
Модифіковано на:

Застереження:
Усе програмне забезпечення, програмні матеріали або статті, опубліковані Code Farmer Network, призначені лише для навчання та досліджень; Вищезазначений контент не повинен використовуватися в комерційних чи незаконних цілях, інакше користувачі несуть усі наслідки. Інформація на цьому сайті надходить з Інтернету, і спори щодо авторських прав не мають до цього сайту. Ви повинні повністю видалити вищезазначений контент зі свого комп'ютера протягом 24 годин після завантаження. Якщо вам подобається програма, будь ласка, підтримуйте справжнє програмне забезпечення, купуйте реєстрацію та отримайте кращі справжні послуги. Якщо є будь-яке порушення, будь ласка, зв'яжіться з нами електронною поштою.

Mail To:help@itsvse.com