Acest articol este un articol oglindă al traducerii automate, vă rugăm să faceți clic aici pentru a sări la articolul original.

Vedere: 8730|Răspunde: 2

[SEO] Configurația motorului de căutare Yandex robots.txt Clean-param

[Copiază linkul]
Postat pe 02.04.2022 20:12:51 | | | |
Astăzi am primit un e-mail de la Yandex.Webmaster cu următorul text:


Unele pagini cu parametrii GET în URL-ul site-ului tăuhttps://down.itsvse.comduplică conținutul altor pagini (fără parametrii GET). De exempluhttps://example.com/tovary?from=mainpageDuplicatehttps://example.com/tovary.Deoarece ambele pagini sunt crawlate, poate dura mai mult până când informațiile despre paginile importante sunt adăugate în baza de date de căutare. Acest lucru poate afecta starea de căutare a site-ului.

Iată exemple de pagini și pagini duplicate cu parametri GET nesemnificativi:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Dacă aceste pagini sunt duplicate, recomandăm utilizarea directivei Clean-param în robots.txt, astfel încât robotul să ignore parametrii GET nesemnificativi și să combine semnale de la pagini identice pe Pagina principală.
Tradus astfel:

Site-ul tăuhttps://down.itsvse.comUnele pagini cu parametrul GET în URL-ul paginii copiază conținutul celorlalte pagini (fără parametrul GET). De exempluhttps://example.com/tovary?from=mainpageșihttps://example.com/tovaryRepeta. Deoarece ambele pagini au fost căutate, poate dura mai mult să se adauge informații despre paginile importante în baza de date de căutare. Acest lucru poate afecta statusul de căutare al site-ului tău.

Iată exemple de pagini cu parametri GET care nu contează și pagini duplicate:

ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Dacă aceste pagini sunt duplicate, recomandăm folosirea directivei Clean-param în robots.txt astfel încât botul să ignore parametrii GET irelevante și să fuzioneze semnale de pe aceeași pagină pe pagina principală.
Ideea generală este că există multe pagini cu valori ale parametrilor care indică către linkuri A și apoi descoperăIndiferent cum se schimbă valoarea parametrului, pagina de link A afișează întotdeauna același conținutDe exemplu, când o pagină dă click și trebuie să sară la pagina de autentificare, vrem să putem sări la pagina originală după ce autentificarea este reușită.

Motorul de căutare Yandex dorește să adăugăm directiva Clean-param la astfel de linkuri URL și documentație:Autentificarea cu hyperlink este vizibilă.

Sintaxa clean-param este următoarea:


În primul câmp, listează parametrii pe care botul ar trebui să-i ignore, separați după caracterul & . În al doilea câmp, indică prefixul de cale al paginii căreia trebuie aplicată regula.

Exemple includ:

Ajustăm robots.txt la final conform formatului și exemplelor, după cum urmează:

(Sfârșit)





Precedent:ASP.NET Core (XIII) pentru a determina dacă este o cerere Ajax sau nu
Următor:[Întoarce]. NET 6 Funcționalitate Nouă Enumerable.Chunk()
Postat pe 04.04.2022 11:36:58 |
Învață să înveți
 Proprietarul| Postat pe 15.03.2023 20:07:00 |
Modificat pentru:

Disclaimer:
Tot software-ul, materialele de programare sau articolele publicate de Code Farmer Network sunt destinate exclusiv scopurilor de învățare și cercetare; Conținutul de mai sus nu va fi folosit în scopuri comerciale sau ilegale, altfel utilizatorii vor suporta toate consecințele. Informațiile de pe acest site provin de pe Internet, iar disputele privind drepturile de autor nu au legătură cu acest site. Trebuie să ștergi complet conținutul de mai sus de pe calculatorul tău în termen de 24 de ore de la descărcare. Dacă îți place programul, te rugăm să susții software-ul autentic, să cumperi înregistrarea și să primești servicii autentice mai bune. Dacă există vreo încălcare, vă rugăm să ne contactați prin e-mail.

Mail To:help@itsvse.com