Este artigo é um artigo espelhado de tradução automática, por favor clique aqui para ir para o artigo original.

Vista: 8730|Resposta: 2

[SEO] Configuração do motor de busca Yandex robots.txt Clean-param

[Copiar link]
Publicado em 02/04/2022 20:12:51 | | | |
Hoje recebi um e-mail do Yandex.Webmaster com o seguinte texto:


Algumas páginas com parâmetros GET na URL do seu sitehttps://down.itsvse.comduplicar o conteúdo de outras páginas (sem parâmetros GET). Por exemplohttps://example.com/tovary?from=mainpageDuplicatashttps://example.com/tovary.Como ambas as páginas são rastreadas, pode levar mais tempo para que as informações sobre páginas importantes sejam adicionadas ao banco de dados de busca. Isso pode afetar o status de busca do site.

Aqui estão exemplos de páginas e suas páginas duplicadas com parâmetros GET insignificantes:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Se essas páginas forem duplicadas, recomendamos o uso da diretiva Clean-param em robots.txt, para que o robô ignore parâmetros GET insignificantes e combine sinais de páginas idênticas no Página principal.
Traduzido da seguinte forma:

Seu sitehttps://down.itsvse.comAlgumas páginas com o parâmetro GET na URL da página copiam o conteúdo das outras páginas (sem o parâmetro GET). Por exemplohttps://example.com/tovary?from=mainpageehttps://example.com/tovaryRepetir. Como ambas as páginas foram rastreadas, pode levar mais tempo para adicionar informações sobre páginas importantes ao banco de dados de busca. Isso pode afetar o status de busca do seu site.

Aqui estão exemplos de páginas com parâmetros GET que não importam e suas páginas duplicadas:

ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Se essas páginas forem duplicadas, recomendamos usar a diretiva Clean-param em robots.txt para que o bot ignore parâmetros GET irrelevantes e mesture sinais da mesma página na página inicial.
A ideia geral é que há muitas páginas com valores de parâmetros apontando para links A e depois descobrindoNão importa como o valor do parâmetro mude, a página do link A sempre exibe o mesmo conteúdoPor exemplo, quando uma página clica e precisa pular para a página de login, queremos poder pular para a página original depois que o login for bem-sucedido.

O mecanismo de busca Yandex quer que adicionemos a diretiva Clean-param a tais links de URL, documentação:O login do hiperlink está visível.

A sintaxe clean-param é a seguinte:


No primeiro campo, liste os parâmetros que o bot deve ignorar, separados pelo caractere & . No segundo campo, indique o prefixo path da página à qual a regra deve ser aplicada.

Exemplos incluem:

Ajustamos a robots.txt no final de acordo com o formato e os exemplos da seguinte forma:

(Fim)





Anterior:ASP.NET Core (XIII) para determinar se é uma requisição Ajax ou não
Próximo:[Virar]. NET 6 Nova Funcionalidade Enumerable.Chunk()
Publicado em 04/04/2022 11:36:58 |
Aprenda a aprender
 Senhorio| Publicado em 15/03/2023 20:07:00 |
Modificado para:

Disclaimer:
Todo software, material de programação ou artigos publicados pela Code Farmer Network são apenas para fins de aprendizado e pesquisa; O conteúdo acima não deve ser usado para fins comerciais ou ilegais, caso contrário, os usuários terão todas as consequências. As informações deste site vêm da Internet, e disputas de direitos autorais não têm nada a ver com este site. Você deve deletar completamente o conteúdo acima do seu computador em até 24 horas após o download. Se você gosta do programa, por favor, apoie um software genuíno, compre o registro e obtenha serviços genuínos melhores. Se houver qualquer infração, por favor, entre em contato conosco por e-mail.

Mail To:help@itsvse.com