Questo articolo è un articolo speculare di traduzione automatica, clicca qui per saltare all'articolo originale.

Vista: 8730|Risposta: 2

[SEO] Configurazione del motore di ricerca Yandex robots.txt Clean-param

[Copiato link]
Pubblicato su 02/04/2022 20:12:51 | | | |
Oggi ho ricevuto un'email da Yandex.Webmaster con il seguente testo:


Alcune pagine con parametri GET nell'URL del tuo sitohttps://down.itsvse.comduplicare il contenuto di altre pagine (senza parametri GET). Per esempiohttps://example.com/tovary?from=mainpageDuplicatihttps://example.com/tovary.Poiché entrambe le pagine sono scansionate, potrebbe volerci più tempo perché le informazioni sulle pagine importanti vengano aggiunte al database di ricerca. Questo può influire sullo stato di ricerca del sito.

Ecco esempi di pagine e delle loro pagine duplicate con parametri GET insignificanti:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Se queste pagine sono duplicate, consigliamo di utilizzare la direttiva Clean-param in robots.txt, in modo che il robot ignori parametri GET insignificanti e combini segnali provenienti da pagine identiche sul Pagina principale.
Tradotto come segue:

Il tuo sitohttps://down.itsvse.comAlcune pagine con il parametro GET nell'URL sulla pagina copiano il contenuto delle altre pagine (senza il parametro GET). Per esempiohttps://example.com/tovary?from=mainpageehttps://example.com/tovaryRipetere. Poiché entrambe le pagine sono state scansionate, potrebbe volerci più tempo per aggiungere informazioni sulle pagine importanti al database di ricerca. Questo può influenzare lo stato di ricerca del tuo sito web.

Ecco esempi di pagine con parametri GET che non contano e le loro pagine duplicate:

ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Se queste pagine sono duplicate, consigliamo di utilizzare la direttiva Clean-param in robots.txt in modo che il bot ignori i parametri GET irrilevanti e unga i segnali della stessa pagina sulla homepage.
L'idea generale è che ci siano molte pagine con valori di parametri che puntano a link A e poi scopronoIndipendentemente da come cambi il valore del parametro, la pagina del link A mostra sempre lo stesso contenutoAd esempio, quando una pagina clicca e deve saltare alla pagina di login, vogliamo poter saltare alla pagina originale dopo che il login è riuscito.

Il motore di ricerca Yandex ci chiede di aggiungere la direttiva Clean-param a tali link URL, documentazione:Il login del link ipertestuale è visibile.

La sintassi clean-param è la seguente:


Nel primo campo, elenca i parametri che il bot dovrebbe ignorare, separati dal carattere & . Nel secondo campo, indica il prefisso path della pagina a cui la regola deve essere applicata.

Esempi includono:

Alla fine modifichiamo il robots.txt secondo il formato e gli esempi come segue:

(Fine)





Precedente:ASP.NET Core (XIII) per determinare se si tratta di una richiesta Ajax o meno
Prossimo:[Gira]. NET 6 Nuova Funzionalità Enumerable.Chunk()
Pubblicato su 04/04/2022 11:36:58 |
Impara a imparare
 Padrone di casa| Pubblicato su 15/03/2023 20:07:00 |
Modificato in:

Disconoscimento:
Tutto il software, i materiali di programmazione o gli articoli pubblicati dalla Code Farmer Network sono destinati esclusivamente all'apprendimento e alla ricerca; I contenuti sopra elencati non devono essere utilizzati per scopi commerciali o illegali, altrimenti gli utenti dovranno sostenere tutte le conseguenze. Le informazioni su questo sito provengono da Internet, e le controversie sul copyright non hanno nulla a che fare con questo sito. Devi eliminare completamente i contenuti sopra elencati dal tuo computer entro 24 ore dal download. Se ti piace il programma, ti preghiamo di supportare software autentico, acquistare la registrazione e ottenere servizi autentici migliori. In caso di violazione, vi preghiamo di contattarci via email.

Mail To:help@itsvse.com