Tämä artikkeli on konekäännöksen peiliartikkeli, klikkaa tästä siirtyäksesi alkuperäiseen artikkeliin.

Näkymä: 13134|Vastaus: 0

[Verkkosivujen rakentamisen tietoa] Älykkäät robotit välttämään hämähäkkimustia aukkoja

[Kopioi linkki]
Julkaistu 23.10.2014 22.44.58 | | |

Baidu-hakukoneessa hämähäkkimusta aukko tarkoittaa verkkosivustoa, joka luo suuren määrän parametreja hyvin edullisesti, ja dynaamisia URL-osoitteita, joissa on samankaltainen sisältö mutta erilaiset tarkat parametrit, aivan kuten loputon "mustan aukon" vangitseva hämähäkki, Baiduspider tuhlaa paljon resursseja virheellisten verkkosivujen indeksointiin.
       Esimerkiksi monilla verkkosivuilla on suodatustoiminto, ja suodatustoiminnon tuottamat verkkosivut indeksoidaan usein hakukoneiden toimesta, ja suuri osa niistä on matalalla hakuarvolla, kuten "vuokraa talo hinnalla 500–1000", ensinnäkin sivustolla ei käytännössä ole relevantteja resursseja (mukaan lukien todellisuudessa), ja toiseksi sivustolla tai hakukoneiden käyttäjillä ei ole tällaista hakutottumusta. Tämän tyyppisiä verkkosivuja indeksoidaan hakukoneiden toimesta suurissa määrin, mikä vie vain arvokasta indeksointikiintiötä sivustolla. Miten tämä siis voidaan välttää?
       Otetaan esimerkkinä ryhmäostosivusto Pekingissä nähdäksemme, miten sivusto käyttää robotteja välttääkseen tämän hämähäkkimustan aukon:

Normaaleilla suodatintulossivuilla sivusto käyttää staattisia linkkejä, kuten http://bj.XXXXX.com/category/zizhucan/weigongcun
       Samalla ehdollisen suodattimen tulossivulla, kun käyttäjät valitsevat eri lajitteluehdot, generoidaan dynaamisia linkkejä eri parametreilla, ja vaikka lajittelukriteerit olisivat samat (esim. kaikki myyntien laskevassa järjestyksessä), generoidut parametrit ovat erilaisia. Esimerkiksi: http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

Ryhmäostoverkossa vain hakukone voi indeksoida suodatintulossivun, kun taas hakukoneen eri parametreilla varustettu hakukone hylkää robottien sääntöjen kautta.
       robots.txt on sääntö tiedostojen käytössä: Salli: /*?*, joka estää hakukoneita pääsemästä kaikille verkkosivuston dynaamisille sivuille. Näin verkkosivusto priorisoi korkealaatuisia sivuja ja estää huonolaatuiset sivut Baiduspiderille, tarjoten Baiduspiderille ystävällisemmän verkkosivustorakenteen ja välttäen mustien aukkojen muodostumisen.






Edellinen:VMware-virtuaalikoneet on asennettu MAC OSX Mountain Lionille
Seuraava:Asenna Mac OS X10.9 Win-järjestelmän alla Black Apple -opas
Vastuuvapauslauseke:
Kaikki Code Farmer Networkin julkaisemat ohjelmistot, ohjelmamateriaalit tai artikkelit ovat tarkoitettu vain oppimis- ja tutkimustarkoituksiin; Yllä mainittua sisältöä ei saa käyttää kaupallisiin tai laittomiin tarkoituksiin, muuten käyttäjät joutuvat kantamaan kaikki seuraukset. Tämän sivuston tiedot ovat peräisin internetistä, eikä tekijänoikeuskiistat liity tähän sivustoon. Sinun tulee poistaa yllä oleva sisältö kokonaan tietokoneeltasi 24 tunnin kuluessa lataamisesta. Jos pidät ohjelmasta, tue aitoa ohjelmistoa, osta rekisteröityminen ja hanki parempia aitoja palveluita. Jos rikkomuksia ilmenee, ota meihin yhteyttä sähköpostitse.

Mail To:help@itsvse.com