이 글은 기계 번역의 미러 문서이며, 원본 기사로 바로 이동하려면 여기를 클릭해 주세요.

보기: 8730|회답: 2

[SEO] Yandex 검색 엔진 robots.txt 클린 파라럼 구성

[링크 복사]
게시됨 2022. 4. 2. 오후 8:12:51 | | | |
오늘 Yandex.Webmaster로부터 다음과 같은 내용의 이메일을 받았습니다:


사이트 URL에 GET 매개변수가 있는 페이지 중 일부는https://down.itsvse.com다른 페이지의 내용을 중복(GET 매개변수 제외)을 사용하세요. 예를 들어https://example.com/tovary?from=mainpage중복https://example.com/tovary.두 페이지 모두 크롤링되기 때문에 중요한 페이지에 대한 정보가 검색 데이터베이스에 추가되는 데 시간이 더 걸릴 수 있습니다. 이로 인해 사이트의 검색 상태에 영향을 줄 수 있습니다.

다음은 GET 매개변수가 미미한 페이지와 중복 페이지의 예시입니다:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
만약 이 페이지들이 중복된 경우, robots.txt에서 Clean-param 지시를 사용하는 것을 권장합니다. 이는 로봇이 중요하지 않은 GET 매개변수를 무시하고 동일한 페이지의 신호를 결합하도록 하기 때문입니다. 메인 페이지.
번역:

당신의 사이트https://down.itsvse.com페이지 내 URL에 GET 파라미터가 있는 일부 페이지는 GET 파라미터 없이 다른 페이지의 내용을 복사합니다. 예를 들어https://example.com/tovary?from=mainpage그리고https://example.com/tovary반복하다. 두 페이지 모두 크롤링되었기 때문에 중요한 페이지에 대한 정보를 검색 데이터베이스에 추가하는 데 시간이 더 걸릴 수 있습니다. 이는 웹사이트의 검색 상태에 영향을 줄 수 있습니다.

다음은 중요하지 않은 GET 파라미터를 가진 페이지와 그 중복 페이지의 예시입니다:

반환URL:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
반환URL:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
반환URL:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
반환URL:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
반환URL:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
만약 이 페이지들이 중복된 경우, robots.txt에서 Clean-param 지침을 사용하여 봇이 관련 없는 GET 매개변수를 무시하고 홈페이지 내 동일 페이지의 신호를 병합하도록 권장합니다.
일반적인 아이디어는 매개변수 값이 A를 가리키는 여러 페이지가 있고, 그 후에 발견된다는 것입니다매개변수 값이 어떻게 변하든, A 링크 페이지는 항상 동일한 내용을 표시합니다예를 들어, 페이지가 클릭되어 로그인 페이지로 이동해야 할 때, 로그인이 성공한 후 원래 페이지로 바로 이동할 수 있어야 합니다.

Yandex 검색 엔진은 이러한 URL 링크와 문서에 Clean-param 지침을 추가하길 원합니다:하이퍼링크 로그인이 보입니다.

클린 파라럼 구문은 다음과 같습니다:


첫 번째 필드에는 봇이 무시해야 할 매개변수를 & 문자로 구분하여 나열하세요. 두 번째 필드에는 규칙이 적용되어야 할 페이지의 경로 접두사를 표시하세요.

예시는 다음과 같습니다:

마지막으로 형식과 예제에 따라 robots.txt을 다음과 같이 조정합니다:

(끝)





이전의:ASP.NET Core(XIII)를 통해 Ajax 요청인지 여부를 판단할 수 있습니다
다음:[돌기]. NET 6 신규 기능 Enumerable.Chunk()
게시됨 2022. 4. 4. 오전 11:36:58 |
배우기 위해 배우세요
 집주인| 게시됨 2023. 3. 15. 오후 8:07:00 |
면책 조항:
Code Farmer Network에서 발행하는 모든 소프트웨어, 프로그래밍 자료 또는 기사는 학습 및 연구 목적으로만 사용됩니다; 위 내용은 상업적 또는 불법적인 목적으로 사용되지 않으며, 그렇지 않으면 모든 책임이 사용자에게 부담됩니다. 이 사이트의 정보는 인터넷에서 가져온 것이며, 저작권 분쟁은 이 사이트와는 관련이 없습니다. 위 내용은 다운로드 후 24시간 이내에 컴퓨터에서 완전히 삭제해야 합니다. 프로그램이 마음에 드신다면, 진짜 소프트웨어를 지원하고, 등록을 구매하며, 더 나은 진짜 서비스를 받아주세요. 침해가 있을 경우 이메일로 연락해 주시기 바랍니다.

Mail To:help@itsvse.com