Dit artikel is een spiegelartikel van machinevertaling, klik hier om naar het oorspronkelijke artikel te gaan.

Bekijken: 8730|Antwoord: 2

[SEO] Yandex zoekmachine robots.txt Clean-param configuratie

[Link kopiëren]
Geplaatst op 02-04-2022 20:12:51 | | | |
Vandaag ontving ik een e-mail van Yandex.Webmaster met de volgende tekst:


Sommige pagina's met GET-parameters in de URL op je sitehttps://down.itsvse.comdupliceer de inhoud van andere pagina's (zonder GET-parameters). Bijvoorbeeldhttps://example.com/tovary?from=mainpageDuplicatenhttps://example.com/tovary.Omdat beide pagina's worden gecrawld, kan het langer duren voordat de informatie over belangrijke pagina's aan de zoekdatabase wordt toegevoegd. Dit kan de zoekstatus van de site beïnvloeden.

Hier zijn voorbeelden van pagina's en hun dubbele pagina's met onbeduidende GET-parameters:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Als deze pagina's duplicaten zijn, raden we aan om de Clean-param-richtlijn in robots.txt te gebruiken, zodat de robot onbeduidende GET-parameters negeert en signalen van identieke pagina's op de hoofdpagina.
Vertaald, als volgt:

Jouw sitehttps://down.itsvse.comSommige pagina's met de GET-parameter in de URL op de pagina kopiëren de inhoud van de andere pagina's (zonder de GET-parameter). Bijvoorbeeldhttps://example.com/tovary?from=mainpageenhttps://example.com/tovaryHerhalen. Omdat beide pagina's zijn gecrawld, kan het langer duren om informatie over belangrijke pagina's aan de zoekdatabase toe te voegen. Dit kan de zoekstatus van je website beïnvloeden.

Hier zijn voorbeelden van pagina's met GET-parameters die er niet toe doen en hun dubbele pagina's:

ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Als deze pagina's duplicaten zijn, raden we aan om de Clean-param-richtlijn in robots.txt te gebruiken, zodat de bot irrelevante GET-parameters negeert en signalen van dezelfde pagina op de homepage samenvoegt.
Het algemene idee is dat er veel pagina's zijn met parameterwaarden die naar A-links wijzen en dan ontdekkenOngeacht hoe de parameterwaarde verandert, toont de A-linkpagina altijd dezelfde inhoudBijvoorbeeld, wanneer een pagina klikt en naar de inlogpagina moet springen, willen we na het succesvol inloggen naar de originele pagina kunnen springen.

De Yandex-zoekmachine wil dat we de Clean-param-richtlijn toevoegen aan zulke URL-links, documentatie:De hyperlink-login is zichtbaar.

De clean-param syntaxis is als volgt:


In het eerste veld vermeld je de parameters die de bot moet negeren, gescheiden door het &-teken. In het tweede veld geef je het padprefix aan van de pagina waarop de regel moet worden toegepast.

Voorbeelden zijn:

We passen de robots.txt uiteindelijk aan volgens het formaat en de voorbeelden als volgt:

(Einde)





Vorig:ASP.NET Core (XIII) om te bepalen of het een Ajax-verzoek is of niet
Volgend:[Draai]. NET 6 Nieuwe Functie Enumerable.Chunk()
Geplaatst op 04-04-2022 11:36:58 |
Leer leren
 Huisbaas| Geplaatst op 15-03-2023 20:07:00 |
Aangepast tot:

Disclaimer:
Alle software, programmeermaterialen of artikelen die door Code Farmer Network worden gepubliceerd, zijn uitsluitend bedoeld voor leer- en onderzoeksdoeleinden; De bovenstaande inhoud mag niet worden gebruikt voor commerciële of illegale doeleinden, anders dragen gebruikers alle gevolgen. De informatie op deze site komt van het internet, en auteursrechtconflicten hebben niets met deze site te maken. Je moet bovenstaande inhoud volledig van je computer verwijderen binnen 24 uur na het downloaden. Als je het programma leuk vindt, steun dan de echte software, koop registratie en krijg betere echte diensten. Als er sprake is van een inbreuk, neem dan contact met ons op via e-mail.

Mail To:help@itsvse.com