Artikel ini adalah artikel cermin dari terjemahan mesin, silakan klik di sini untuk melompat ke artikel aslinya.

Melihat: 13134|Jawab: 0

[Pengetahuan Membangun Situs Web] Robot pintar untuk menghindari lubang hitam laba-laba

[Salin tautan]
Diposting pada 23/10/2014 22.44.58 | | |

Untuk mesin pencari Baidu, lubang hitam laba-laba mengacu pada situs web yang membuat sejumlah besar parameter dengan biaya yang sangat rendah, dan URL dinamis dengan konten yang serupa tetapi parameter spesifik yang berbeda, seperti loop tak terbatas dari "lubang hitam" yang menjebak laba-laba, Baiduspider membuang-buang banyak sumber daya untuk merayapi halaman web yang tidak valid.
       Misalnya, banyak situs web memiliki fungsi pemfilteran, dan halaman web yang dihasilkan oleh fungsi pemfilteran sering dirayapi oleh mesin pencari, dan sebagian besar dari mereka memiliki nilai pencarian yang rendah, seperti "menyewa rumah dengan harga antara 500-1000", pertama-tama, pada dasarnya tidak ada sumber daya yang relevan di situs web (termasuk pada kenyataannya), dan kedua, tidak ada kebiasaan pencarian seperti itu untuk pengguna di situs dan pengguna mesin pencari. Halaman web semacam ini dirayapi oleh mesin pencari dalam jumlah besar, yang hanya dapat menempati kuota perayapan yang berharga di situs web. Jadi bagaimana ini bisa dihindari?
       Mari kita ambil situs web pembelian kelompok di Beijing sebagai contoh untuk melihat bagaimana situs web tersebut menggunakan robot untuk dengan cerdik menghindari lubang hitam laba-laba ini:

Untuk halaman hasil filter normal, situs memilih untuk menggunakan link statis, seperti http://bj.XXXXX.com/category/zizhucan/weigongcun
       Di halaman hasil filter bersyarat yang sama, ketika pengguna memilih kondisi pengurutan yang berbeda, tautan dinamis dengan parameter berbeda akan dibuat, dan bahkan jika kriteria pengurutan yang sama (misalnya, semuanya dalam urutan penjualan menurun), parameter yang dihasilkan berbeda. Misalnya: http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

Untuk jaringan pembelian grup, hanya mesin pencari yang dapat merayapi halaman hasil filter, sedangkan halaman penyortiran hasil dengan berbagai parameter ditolak oleh mesin pencari melalui aturan robot.
       robots.txt memiliki aturan dalam penggunaan file: Dilarang: /*?*, yang melarang mesin telusur mengakses semua halaman dinamis di situs web. Dengan cara ini, situs web memprioritaskan halaman berkualitas tinggi dan memblokir halaman berkualitas rendah untuk Baiduspider, memberi Baiduspider struktur situs web yang lebih ramah dan menghindari pembentukan lubang hitam.






Mantan:Mesin virtual VMware diinstal di MAC OSX Mountain Lion
Depan:Instal Mac OS X10.9 di bawah Win sistem Tutorial Apple Hitam
Sanggahan:
Semua perangkat lunak, materi pemrograman, atau artikel yang diterbitkan oleh Code Farmer Network hanya untuk tujuan pembelajaran dan penelitian; Konten di atas tidak boleh digunakan untuk tujuan komersial atau ilegal, jika tidak, pengguna akan menanggung semua konsekuensi. Informasi di situs ini berasal dari Internet, dan sengketa hak cipta tidak ada hubungannya dengan situs ini. Anda harus sepenuhnya menghapus konten di atas dari komputer Anda dalam waktu 24 jam setelah pengunduhan. Jika Anda menyukai program ini, harap dukung perangkat lunak asli, pembelian pendaftaran, dan dapatkan layanan asli yang lebih baik. Jika ada pelanggaran, silakan hubungi kami melalui email.

Mail To:help@itsvse.com