Ez a cikk egy tükör gépi fordítás, kérjük, kattintson ide, hogy ugorjon az eredeti cikkre.

Nézet: 8730|Válasz: 2

[SEO] Yandex keresőmotor robots.txt Clean-param konfiguráció

[Linket másol]
Közzétéve 2022. 04. 02. 20:12:51 | | | |
Ma kaptam egy e-mailt a Yandex.Webmastertől, amely a következő szöveggel írt:


Vannak oldalak, ahol GET paraméterek vannak az URL-ben az oldalonhttps://down.itsvse.commásolják más oldalak tartalmát (GET paraméterek nélkül). Példáulhttps://example.com/tovary?from=mainpageIsmétlődésekhttps://example.com/tovary.Mivel mindkét oldal be van bemásolva, tovább tarthat, mire a fontos oldalakról szóló információk felkerülnek a keresőadatbázisba. Ez befolyásolhatja az oldal keresési státuszát.

Íme példák olyan oldalakra és azok duplikált oldalaira, amelyek GET paraméterei jelentéktelenek:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Ha ezek az oldalak duplikátumok, javasoljuk a Clean-param direktívát robots.txt-ben, hogy a robot figyelmen kívül hagyja a jelentéktelen GET paramétereket, és egyesítse az azonos oldalakról érkező jeleket a Főoldal.
Fordítva a következőkép:

Az oldaladhttps://down.itsvse.comNéhány oldal, ahol az URL-ben a GET paraméter található, lemásolják a többi oldal tartalmát (a GET paraméter nélkül). Példáulhttps://example.com/tovary?from=mainpageéshttps://example.com/tovaryIsmétel. Mivel mindkét oldalt feltérképezték, tovább tarthat, mire fontos oldalakról szóló információk hozzáadódnak a keresőadatbázisba. Ez befolyásolhatja a weboldalad keresési állapotát.

Íme példák olyan oldalakra, amelyeknek GET paraméterei nem számítanak, és azok duplikált oldalai:

ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Ha ezek az oldalak duplikátok, javasoljuk, hogy a Clean-param direktívát használd robots.txt-ben, hogy a bot figyelmen kívül hagyja az irreleváns GET paramétereket, és összevonja a jeleket ugyanarról az oldalról a kezdőlapon.
Az általános elképzelés az, hogy sok oldal van paraméterértékekkel, amelyek A linkekre mutatnak, majd felfedezikBármennyire is változik a paraméterérték, az A link oldal mindig ugyanazt a tartalmat jeleníti megPéldául, amikor egy oldal rákattint, és ugrani kell a bejelentkezési oldalra, akkor azt szeretnénk, ha a bejelentkezés sikeres lett volna, hogy az eredeti oldalra is ugorhassunk.

A Yandex keresőmotor azt szeretné, ha hozzáadnánk a Clean-param utasítást az ilyen URL-linkekhez, dokumentációhoz:A hiperlink bejelentkezés látható.

A clean-param szintaxisa a következő:


Az első mezőben sorold fel azokat a paramétereket, amelyeket a botnak figyelmen kívül kell hagynia, és az & karakterrel választva el. A második mezőben jelöld meg az oldal út előtagját, amelyre a szabályt alkalmazni kell.

Példák:

A robots.txt végén a formátum és a példák alapján módosítjuk a következőket:

(Vége)





Előző:ASP.NET Core (XIII) hogy megállapítsam, Ajax kérés-e vagy sem
Következő:[Fordulás]. NET 6 Új funkció: Enumerable.Chunk()
Közzétéve 2022. 04. 04. 11:36:58 |
Tanulj meg
 Háziúr| Közzétéve 2023. 03. 15. 20:07:00 |
Lemondás:
A Code Farmer Network által közzétett összes szoftver, programozási anyag vagy cikk kizárólag tanulási és kutatási célokra szolgál; A fenti tartalmat nem szabad kereskedelmi vagy illegális célokra használni, különben a felhasználók viselik az összes következményet. Az oldalon található információk az internetről származnak, és a szerzői jogi vitáknak semmi köze ehhez az oldalhoz. A fenti tartalmat a letöltés után 24 órán belül teljesen törölni kell a számítógépéről. Ha tetszik a program, kérjük, támogassa a valódi szoftvert, vásároljon regisztrációt, és szerezzen jobb hiteles szolgáltatásokat. Ha bármilyen jogsértés történik, kérjük, vegye fel velünk a kapcsolatot e-mailben.

Mail To:help@itsvse.com