Ten artykuł jest lustrzanym artykułem tłumaczenia maszynowego, kliknij tutaj, aby przejść do oryginalnego artykułu.

Widok: 8730|Odpowiedź: 2

[SEO] Wyszukiwarka Yandex robots.txt konfiguracja czysta parametrów

[Skopiuj link]
Opublikowano 02.04.2022 20:12:51 | | | |
Dziś otrzymałem e-mail od Yandex.Webmaster z następującym tekstem:


Niektóre strony z parametrami GET w URL-ie Twojej witrynyhttps://down.itsvse.comduplikować zawartość innych stron (bez parametrów GET). Na przykładhttps://example.com/tovary?from=mainpageDuplikatyhttps://example.com/tovary.Ponieważ obie strony są indeksowane, może zająć więcej czasu, zanim informacje o ważnych stronach zostaną dodane do bazy wyszukiwania. Może to wpłynąć na status wyszukiwania strony.

Oto przykłady stron i ich duplikatów z nieistotnymi parametrami GET:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Jeśli te strony są duplikatami, zalecamy stosowanie dyrektywy Clean-param w robots.txt, aby robot ignorował nieistotne parametry GET i łączył sygnały z identycznych stron na Strona główna.
Tłumaczenie następujące:

Twoja stronahttps://down.itsvse.comNiektóre strony z parametrem GET w URL-ie na stronie na stronie kopiują zawartość innych stron (bez parametru GET). Na przykładhttps://example.com/tovary?from=mainpageihttps://example.com/tovaryPowtórzyć. Ponieważ obie strony zostały przeindeksowane, dodanie informacji o ważnych stronach do bazy wyszukiwania może zająć więcej czasu. Może to wpłynąć na status wyszukiwania Twojej strony.

Oto przykłady stron z parametrami GET, które nie mają znaczenia, oraz ich zduplikowanymi stronami:

ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Jeśli te strony są duplikatami, zalecamy stosowanie dyrektywy Clean-param w robots.txt, aby bot ignorował nieistotne parametry GET i łączył sygnały z tej samej strony na stronie głównej.
Ogólna idea jest taka, że istnieje wiele stron z wartościami parametrów wskazującymi na linki A, a następnie odkrywająBez względu na zmianę wartości parametru, strona linku A zawsze wyświetla tę samą treśćNa przykład, gdy strona kliknie i musi przejść na stronę logowania, chcemy móc przejść do oryginalnej strony po pomyślnym zalogowaniu.

Wyszukiwarka Yandex chce, abyśmy dodali dyrektywę Clean-param do takich linków URL, dokumentację:Logowanie do linku jest widoczne.

Składnia clean-param wygląda następująco:


W pierwszym polu wymień parametry, które bot powinien zignorować, oddzielone znakiem &. W drugim polu wskaż prefiks ścieżki strony, do której należy zastosować regułę.

Przykładami:

Ostatecznie dostosowujemy robots.txt do formatu i przykładów w następujący sposób:

(Koniec)





Poprzedni:ASP.NET Core (XIII), aby określić, czy jest to żądanie Ajax, czy nie
Następny:[Skręć]. Nowa funkcja NET 6 Enumerable.Chunk()
Opublikowano 04.04.2022 11:36:58 |
Naucz się uczyć
 Ziemianin| Opublikowano 15.03.2023 20:07:00 |
Zmodyfikowane do:

Zrzeczenie się:
Całe oprogramowanie, materiały programistyczne lub artykuły publikowane przez Code Farmer Network służą wyłącznie celom edukacyjnym i badawczym; Powyższe treści nie mogą być wykorzystywane do celów komercyjnych ani nielegalnych, w przeciwnym razie użytkownicy ponoszą wszelkie konsekwencje. Informacje na tej stronie pochodzą z Internetu, a spory dotyczące praw autorskich nie mają z nią nic wspólnego. Musisz całkowicie usunąć powyższą zawartość z komputera w ciągu 24 godzin od pobrania. Jeśli spodoba Ci się program, wspieraj oryginalne oprogramowanie, kup rejestrację i korzystaj z lepszych, autentycznych usług. W przypadku naruszenia praw prosimy o kontakt mailowy.

Mail To:help@itsvse.com