Este artículo es un artículo espejo de traducción automática, por favor haga clic aquí para saltar al artículo original.

Vista: 8730|Respuesta: 2

[SEO] Configuración del motor de búsqueda Yandex robots.txt Clean-param

[Copiar enlace]
Publicado en 2/4/2022 20:12:51 | | | |
Hoy he recibido un correo electrónico de Yandex.Webmaster con el siguiente texto:


Algunas páginas con parámetros GET en la URL de tu sitiohttps://down.itsvse.comduplicar el contenido de otras páginas (sin parámetros GET). Por ejemplohttps://example.com/tovary?from=mainpageDuplicadoshttps://example.com/tovary.Como ambas páginas se rastrean, puede tardar más en añadir la información sobre páginas importantes a la base de datos de búsqueda. Esto puede afectar al estado de búsqueda del sitio.

Aquí tienes ejemplos de páginas y sus páginas duplicadas con parámetros GET insignificantes:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Si estas páginas son duplicadas, recomendamos usar la directiva Clean-param en robots.txt, de modo que el robot ignore parámetros GET insignificantes y combine señales de páginas idénticas en el portada.
Traducido de la siguiente manera:

Tu sitiohttps://down.itsvse.comAlgunas páginas con el parámetro GET en la URL de la página copian el contenido de las otras páginas (sin el parámetro GET). Por ejemplohttps://example.com/tovary?from=mainpageyhttps://example.com/tovaryRepetir. Como ambas páginas han sido rastreadas, puede tardar más en añadir información sobre páginas importantes a la base de datos de búsqueda. Esto puede afectar al estado de búsqueda de tu sitio web.

Aquí tienes ejemplos de páginas con parámetros GET que no importan y sus páginas duplicadas:

ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Si estas páginas son duplicadas, recomendamos usar la directiva Clean-param en robots.txt para que el bot ignore parámetros GET irrelevantes y fusione señales de la misma página en la página principal.
La idea general es que hay muchas páginas con valores de parámetros que apuntan a enlaces A y luego descubrenNo importa cómo cambie el valor del parámetro, la página de enlace A siempre muestra el mismo contenidoPor ejemplo, cuando una página hace clic y necesita saltar a la página de inicio de sesión, queremos poder saltar a la página original después de que el inicio de sesión sea exitoso.

El motor de búsqueda Yandex quiere que añadamos la directiva Clean-param a estos enlaces URL y documentación:El inicio de sesión del hipervínculo es visible.

La sintaxis del parámetro limpio es la siguiente:


En el primer campo, lista los parámetros que el bot debe ignorar, separados por el carácter & . En el segundo campo, indica el prefijo de camino de la página a la que debe aplicarse la regla.

Ejemplos incluyen:

Al final ajustamos la robots.txt según el formato y los ejemplos de la siguiente manera:

(Fin)





Anterior:ASP.NET Core (XIII) para determinar si es una solicitud Ajax o no
Próximo:[Gira]. NET 6 Nueva Funcionalidad Enumerable.Chunk()
Publicado en 4/4/2022 11:36:58 |
Aprende a aprender
 Propietario| Publicado en 15/3/2023 20:07:00 |
Renuncia:
Todo el software, materiales de programación o artículos publicados por Code Farmer Network son únicamente para fines de aprendizaje e investigación; El contenido anterior no se utilizará con fines comerciales o ilegales; de lo contrario, los usuarios asumirán todas las consecuencias. La información de este sitio proviene de Internet, y las disputas de derechos de autor no tienen nada que ver con este sitio. Debes eliminar completamente el contenido anterior de tu ordenador en un plazo de 24 horas desde la descarga. Si te gusta el programa, por favor apoya el software genuino, compra el registro y obtén mejores servicios genuinos. Si hay alguna infracción, por favor contáctanos por correo electrónico.

Mail To:help@itsvse.com