Ta članek je zrcalni članek strojnega prevajanja, kliknite tukaj za skok na izvirni članek.

Pogled: 13134|Odgovoriti: 0

[Znanje o ustvarjanju spletne strani] Pametni roboti za izogibanje črnim luknjam pajkov

[Kopiraj povezavo]
Objavljeno na 23. 10. 2014 22:44:58 | | |

Za iskalnik Baidu pajkova črna luknja pomeni, da spletna stran ustvarja veliko število parametrov po zelo nizkih stroških in dinamične URL-je s podobno vsebino, a drugačnimi specifičnimi parametri, podobno kot neskončna zanka "črnih lukenj", ki ujamejo pajke, Baiduspider zapravlja veliko virov za iskanje neveljavnih spletnih strani.
       Na primer, veliko spletnih strani ima funkcijo filtriranja, spletne strani, ki jih ustvari ta funkcija, pa so pogosto preiskovane s strani iskalnikov, velik del pa ima nizko vrednost iskanja, na primer "najem hiše s ceno med 500 in 1000". Najprej, na spletni strani praktično ni nobenih relevantnih virov (tudi v resnici), in drugič, ni takšne navade iskanja za uporabnike na spletni strani in za uporabnike iskalnikov. Tovrstne spletne strani množično pregledujejo iskalniki, kar lahko zasede le dragoceno kvoto za iskanje na spletni strani. Kako se temu torej lahko izognemo?
       Vzemimo za primer spletno stran za skupinski nakup v Pekingu, da vidimo, kako spletna stran uporablja robote, da se pametno izogne tej pajkovi črni luknji:

Za običajne strani z rezultati filtrov stran izbere uporabo statičnih povezav, kot so http://bj.XXXXX.com/category/zizhucan/weigongcun
       Na isti strani rezultatov pogojnega filtra, ko uporabniki izberejo različne pogoje razvrščanja, se generirajo dinamične povezave z različnimi parametri, in tudi če so kriteriji razvrščanja enaki (npr. vsi v padajočem vrstnem redu prodaj), so generirani parametri različni. Na primer: http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

Za skupinsko nakupovalno mrežo lahko le iskalnik pregleduje stran z rezultati filtra, medtem ko stran za razvrščanje rezultatov z različnimi parametri iskalnik zavrne prek pravil robotov.
       robots.txt ima pravilo glede uporabe datotek: Disallow: /*?*, ki iskalnikom prepoveduje dostop do vseh dinamičnih strani na spletni strani. Na ta način spletna stran daje prednost visokokakovostnim stranem in blokira strani nizke kakovosti za Baiduspider, kar Baiduspiderju omogoča bolj prijazno strukturo spletne strani in preprečuje nastanek črnih lukenj.






Prejšnji:VMware virtualni stroji so nameščeni na MAC OSX Mountain Lion
Naslednji:Namestite Mac OS X10.9 pod Win System Black Apple vodič
Disclaimer:
Vsa programska oprema, programski materiali ali članki, ki jih izdaja Code Farmer Network, so namenjeni zgolj učnim in raziskovalnim namenom; Zgornja vsebina ne sme biti uporabljena v komercialne ali nezakonite namene, sicer uporabniki nosijo vse posledice. Informacije na tej strani prihajajo z interneta, spori glede avtorskih pravic pa nimajo nobene zveze s to stranjo. Zgornjo vsebino morate popolnoma izbrisati z računalnika v 24 urah po prenosu. Če vam je program všeč, podprite pristno programsko opremo, kupite registracijo in pridobite boljše pristne storitve. Če pride do kakršne koli kršitve, nas prosimo kontaktirajte po elektronski pošti.

Mail To:help@itsvse.com