架构师_程序员_码农网

K Parooli taastamine
Registreeri

QQ登录

Ainult üks samm, et alustada

Otsi
View:8779|Reply: 0
打印 上一主题 下一主题

[Veebileht Teadmised]Ämblikute mustade aukude vältimine robotitega

[kopeeri link]
L 跳转到指定楼层
hoone omanikule
发表于 2014-10-23 22:44:58|只看该作者回帖奖励|ReverseBrowse|Read Mode

Sest Baidu otsingumootor, ämblik must auk viitab veebilehe kaudu väga madala hinnaga luua suur hulk parameetreid liiga palju, ja sisu sama, kuid konkreetsed parameetrid erinevate dünaamiliste URL, nagu lõputu silmus "must auk" on ämblik lõksus, Baiduspider raisata suur hulk ressursse roomata on kehtetu veebilehe.
Näiteks paljud veebilehed on sõelumisfunktsioon, läbi sõelumisfunktsiooni veebilehe on sageli suur hulk otsingumootori roomata, ja suur osa otsingu väärtus ei ole kõrge, nagu "500-1000 hinnad vahel rent", esiteks, veebileht (sealhulgas tegelikkus) kohta põhilised ei ole asjakohased ressursid, ja teiseks, veebileht (sealhulgas tegelik ) ei ole põhimõtteliselt mingeid asjakohaseid ressursse, ja teiseks ei ole saidi kasutajatel ja otsingumootori kasutajatel seda otsinguharjumust. Selline veebileht on suur hulk otsingumootori roomamise, saab ainult võtta saidi väärtuslik roomamise kvoot. Nii et kuidas vältida seda olukorda?
Me võtame näide grupi ostmise saidi Pekingis, et näha, kuidas sait on robotite kasutamine targalt vältida seda ämblik musta auku:


Tavalise sõelumise tulemuste lehel otsustas sait kasutada staatilisi linke, näiteks: http://bj.XXXXX.com/category/zizhucan/weigongcun Sama tingimus sõelumise tulemuste lehel, kui kasutaja valib erinevad sorteerimistingimused, loob see dünaamilise lingi erinevate parameetritega. dünaamilised lingid ja isegi samad sorteerimistingimused (nt: on müügi järgi kahanevas järjekorras), genereeritud parameetrid on erinevad.
Näiteks: http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek http://bj.XXXXX.com/category/zizhucan/ weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

Selle grupi ostuvõrgustiku jaoks, ainult laske otsingumootoril sõelumise tulemuste lehte roomata ja igasuguseid parameetritega tulemusi sorteerimislehe kaudu robotite reeglite keelduda otsingumootorile pakkuda.
robots.txt faili kasutamisel on selline reegel: Disallow: /*? *, st keelata otsingumootoritele juurdepääs kõigile saidi dünaamilistele lehekülgedele. Sel viisil on sait täpselt Baiduspider prioriteet näidata kvaliteetseid lehekülgi, blokeeritud madala kvaliteediga lehekülgi, et Baiduspider pakkuda sõbralikumat saidi struktuuri, et vältida mustade aukude tekkimist.






Eelmine artikkel: VMware virtuaalne masin paigaldada MAC OSX Mountain Lion
Järgmine: Installige Mac OS X10.9 Black Apple Tutorial Win süsteemi
Esimest korda nägin seda, kui ma seda ekraanil nägin ja see oli suurepärane võimalus seda ekraanil näha.
Sa pead sisse logima, enne kui saad tagasi postitada Logi sisse | Registreeru

S ee versioon integraalseid reegleid


KINNITUS: Kõik Code Farmeri avaldatud tarkvara, programmeerimismaterjalid või artiklid on mõeldud ainult õppe- ja teadustööks; eespool nimetatud sisu ei tohi kasutada kaubanduslikel või ebaseaduslikel eesmärkidel, vastasel juhul kannavad kõik tagajärjed kasutajad ise. See sait teavet võrgu, autoriõiguse vaidlus ei ole midagi pistmist selle saidi. Te peate eespool nimetatud sisu täielikult eemaldama oma arvutist 24 tunni jooksul pärast allalaadimist. Kui teile meeldib programm, palun toetage ehtsat tarkvara, ostke registreerimine ja saada paremat ehtsat teenust. Kui esineb rikkumine, võtke meiega ühendust e-posti teel, et sellega tegeleda.

Mail To:help@itsvse.com

QQ| ( 鲁ICP备14021824号-2)|Sitemap

GMT+8, 2024-9-17 14:06

Kiire vastusTagasi ülesTagasi nimekirja