Artikel ini adalah artikel cermin dari terjemahan mesin, silakan klik di sini untuk melompat ke artikel aslinya.

Melihat: 8730|Jawab: 2

[SEO] Mesin pencari Yandex robots.txt Konfigurasi Clean-param

[Salin tautan]
Diposting pada 02/04/2022 20.12.51 | | | |
Hari ini saya menerima email dari Yandex.Webmaster dengan teks berikut:


Beberapa halaman dengan parameter GET di URL di situs Andahttps://down.itsvse.commenduplikasi konten halaman lain (tanpa parameter GET). Misalnyahttps://example.com/tovary?from=mainpageDuplikathttps://example.com/tovary.Karena kedua halaman dirayapi, mungkin perlu waktu lebih lama untuk menambahkan informasi tentang halaman penting ke database pencarian. Hal ini dapat memengaruhi status pencarian situs.

Berikut adalah contoh halaman dan halaman duplikatnya dengan parameter GET yang tidak signifikan:

ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
ReturnUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Jika halaman-halaman ini duplikat, sebaiknya gunakan direktif Clean-param di robots.txt, sehingga robot mengabaikan parameter GET yang tidak signifikan dan menggabungkan sinyal dari halaman yang identik pada halaman utama.
Diterjemahkan, sebagai berikut:

Situs Andahttps://down.itsvse.comBeberapa halaman dengan parameter GET di URL pada halaman menyalin konten halaman lain (tanpa parameter GET). Misalnyahttps://example.com/tovary?from=mainpagedanhttps://example.com/tovaryMengulangi. Karena kedua halaman telah dirayapi, mungkin perlu waktu lebih lama untuk menambahkan informasi tentang halaman penting ke database pencarian. Hal ini dapat memengaruhi status pencarian situs web Anda.

Berikut adalah contoh halaman dengan parameter GET yang tidak penting dan halaman duplikatnya:

KembaliUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/Index?ReturnUrl=%2FUser%2FCollect
KembaliUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... %2FUser%2FResources
KembaliUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... oadLoading%2Fkzkalr
KembaliUrl:
https://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... Fitem%2Fawljnq.html
KembaliUrl:
https ://down.itsvse.com/Account/Index
https://down.itsvse.com/Account/ ... loadLoading%2F11820
Jika halaman ini duplikat, sebaiknya gunakan direktif Clean-param di robots.txt sehingga bot mengabaikan parameter GET yang tidak relevan dan menggabungkan sinyal dari halaman yang sama di beranda.
Ide umumnya adalah bahwa ada banyak halaman dengan nilai parameter yang menunjuk ke tautan A dan kemudian menemukanApa pun perubahan nilai parameter, halaman Tautan A selalu menampilkan konten yang samaMisalnya, ketika halaman diklik dan perlu melompat ke halaman login, kita ingin dapat melompat ke halaman asli setelah login berhasil.

Mesin pencari Yandex ingin kami menambahkan direktif Clean-param ke tautan URL tersebut, dokumentasi:Login hyperlink terlihat.

Sintaks clean-param adalah sebagai berikut:


Di bidang pertama, cantumkan parameter yang harus diabaikan oleh bot, dipisahkan oleh karakter & . Di bidang kedua, tunjukkan awalan jalur halaman tempat aturan harus diterapkan.

Contohnya meliputi:

Kami menyesuaikan robots.txt pada akhirnya sesuai dengan format dan contoh sebagai berikut:

(Akhir)





Mantan:ASP.NET Core (XIII) untuk menentukan apakah itu permintaan Ajax atau tidak
Depan:[Berputar]. NET 6 Fitur Baru Enumerable.Chunk()
Diposting pada 04/04/2022 11.36.58 |
Belajar belajar
 Tuan tanah| Diposting pada 15/03/2023 20.07.00 |
Dimodifikasi menjadi:

Sanggahan:
Semua perangkat lunak, materi pemrograman, atau artikel yang diterbitkan oleh Code Farmer Network hanya untuk tujuan pembelajaran dan penelitian; Konten di atas tidak boleh digunakan untuk tujuan komersial atau ilegal, jika tidak, pengguna akan menanggung semua konsekuensi. Informasi di situs ini berasal dari Internet, dan sengketa hak cipta tidak ada hubungannya dengan situs ini. Anda harus sepenuhnya menghapus konten di atas dari komputer Anda dalam waktu 24 jam setelah pengunduhan. Jika Anda menyukai program ini, harap dukung perangkat lunak asli, pembelian pendaftaran, dan dapatkan layanan asli yang lebih baik. Jika ada pelanggaran, silakan hubungi kami melalui email.

Mail To:help@itsvse.com