Denne artikkelen er en speilartikkel om maskinoversettelse, vennligst klikk her for å hoppe til originalartikkelen.

Utsikt: 11657|Svare: 0

[Kunnskap om nettsidebygging] Hvordan blokkere søkemotorer fra å gjennomsøke nettsider?

[Kopier lenke]
Publisert på 13.01.2016 10:16:38 | | |

Når vi driver med nettsidedrift, spesielt optimalisering av nettsiderangering, tenker vi alltid på hvordan vi kan veilede søkemotor-spiders til å gjennomsøke nettsider og inkludere dem. Men mange ganger ønsker ikke noen nettsteder å bli støttet av søkemotorer på grunn av ulike brukergrupper og målgrupper, hvordan løser vi dette problemet? La oss studere det med forfatteren Xiao Dan i dag!   

Når vi ser at vi vil blokkere crawling, tenker de fleste SEO-er på robots.txt filer. For i vår kognisjon kan robotfiler effektivt søke gjennom visse sider ved hjelp av Dujie-søkemotoren. Men du vet, selv om denne metoden er veldig god, mener Xiaodan at den passer bedre for nettsider som ikke er ferdige, for å unngå død lenke eller undersøkelsesperiode i fremtiden.   

Hvis vi bare vil blokkere en søkemotor fra å krype, trenger vi ikke å belaste plassen, bare bruke litt kode. For eksempel ønsker vi å blokkere Baidu-edderkopper fra å krype

Det er det. Selvfølgelig er dette bare en måte å blokkere Baidu-crawling på, hvis du vil ha en hvilken som helst søkemotor, erstatt bare Baiduspider med en edderkopp som endrer søkemotoren.   

Vanlige søkemotor-edderkoppnavn er som følger:   

1. BaiduSpider Baidus omfattende indeksedderkop   

2. Googlebot Google Spider   

3. Googlebot-Image er en edderkopp spesielt brukt til å hente bilder      

4. Mediapartners – Google Annonse-Affiliate Code Spider   

5. Yahoo Slurp Yahoo Spider   

6、Yahoo! Slup China Yahoo China Spider   

7. Yahoo!-AdCrawler Yahoo Annonsespider   

8. YodaoBot NetEase-edderkopp   

9. Sosospider Tencent SOSO integrert edderkopp   

10. Sogou Edderkopp Sogou omfattende edderkopp   

11. MSNBot Live integrert edderkopp   

Men hvis du vil blokkere alle søkemotorer, bruk en robotfil:

På dette tidspunktet burde mange venner forstå at kommandoen som forbyr opprettelse av websnapshots i koden er noarchive. Derfor, hvis vi har restriksjoner på søkemotorer, kan vi legge koden direkte til nettsiden i henhold til våre forbudte snapshot-objekter; Tvert imot, uten å legge til en eneste kode, kan du sikre at store søkemotorer kan få tilgang til nettsiden normalt og lage øyeblikksbilder.     

(Vennligst angik gjenutgivelsen fra: www.wangzhan.net.cn/news/n1913.htm, takk!) Å verdsette fruktene av andres arbeid er å respektere seg selv! )




Foregående:Linux bruker ofte chmod-kommandoer
Neste:Apple ISO APP for å crawle HTTPS-pakker
Ansvarsfraskrivelse:
All programvare, programmeringsmateriell eller artikler publisert av Code Farmer Network er kun for lærings- og forskningsformål; Innholdet ovenfor skal ikke brukes til kommersielle eller ulovlige formål, ellers skal brukerne bære alle konsekvenser. Informasjonen på dette nettstedet kommer fra Internett, og opphavsrettstvister har ingenting med dette nettstedet å gjøre. Du må fullstendig slette innholdet ovenfor fra datamaskinen din innen 24 timer etter nedlasting. Hvis du liker programmet, vennligst støtt ekte programvare, kjøp registrering, og få bedre ekte tjenester. Hvis det foreligger noen krenkelse, vennligst kontakt oss på e-post.

Mail To:help@itsvse.com