Dit artikel is een spiegelartikel van machinevertaling, klik hier om naar het oorspronkelijke artikel te gaan.

Bekijken: 11657|Antwoord: 0

[Website-ontwikkeling Kennis] Hoe blokkeer je zoekmachines om webpagina's te crawlen?

[Link kopiëren]
Geplaatst op 13-01-2016 10:16:38 | | |

Bij het uitvoeren van website-operaties, vooral het optimaliseren van websiteranking, denken we altijd na over hoe we zoekmachine-spiders kunnen begeleiden om webpagina's te crawlen en op te nemen. Toch willen sommige websites vaak niet door zoekmachines gepatroniseerd worden vanwege de verschillende gebruikersgroepen en doelgebieden; hoe lossen we dit probleem op? Laten we het vandaag bestuderen met de auteur Xiao Dan!   

Als we zien dat we crawling willen blokkeren, denken de meeste SEO's aan robots.txt bestanden. Omdat robotbestanden in onze cognitie bepaalde pagina's effectief kunnen doorzoeken via de Dujie-zoekmachine. Maar weet je, hoewel deze methode erg goed is, denkt Xiaodan dat het geschikter is voor een website die niet is voltooid, om een dood links of een onderzoeksperiode in de toekomst te vermijden.   

Als we alleen een zoekmachine willen blokkeren zodat deze kan crawlen, hoeven we de ruimte niet te belasten, we gebruiken gewoon een beetje code. We willen bijvoorbeeld Baidu-spinnen tegenhouden om te kruipen

Dat is het. Natuurlijk is dit gewoon een manier om Baidu-crawling te blokkeren; als je een zoekmachine wilt, vervang Baiduspider dan door een spin die de zoekmachine verandert.   

Veelvoorkomende zoekmachine-spidernamen zijn als volgt:   

1. BaiduSpider Baidu's uitgebreide indexspin   

2. Googlebot Google Spider   

3. Googlebot-Image is een spin die speciaal wordt gebruikt om afbeeldingen te verzamelen      

4. Mediapartners-Google Ad Affiliate Code Spider   

5. Yahoo Slurp Yahoo Spider   

6、Yahoo! Slup China Yahoo China Spider   

7. Yahoo!-AdCrawler Yahoo Ad Spider   

8. YodaoBot NetEase spin   

9. Sosospider Tencent SOSO geïntegreerde spin   

10. Sogou Spin Sogou uitgebreide spin   

11. MSNBot Live geïntegreerde spin   

Als je echter alle zoekmachines wilt blokkeren, gebruik dan een robotbestand:

Op dit punt zouden veel vrienden moeten begrijpen dat het commando dat het maken van websnapshots in de code verbiedt noarchive is. Daarom kunnen we, als we beperkingen hebben op zoekmachines, de code direct aan de webpagina toevoegen volgens onze verboden snapshot-objecten; Integendeel, zonder ook maar één stukje code toe te voegen, kun je ervoor zorgen dat grote zoekmachines normaal toegang krijgen tot de website en snapshots kunnen maken.     

(Geef alstublieft de herdruk aan van: www.wangzhan.net.cn/news/n1913.htm, dank u wel!) De vruchten van andermans arbeid koesteren betekent respect voor jezelf! )




Vorig:Linux gebruikt vaak chmod-commando's
Volgend:Apple ISO APP om HTTPS-pakketten te crawlen
Disclaimer:
Alle software, programmeermaterialen of artikelen die door Code Farmer Network worden gepubliceerd, zijn uitsluitend bedoeld voor leer- en onderzoeksdoeleinden; De bovenstaande inhoud mag niet worden gebruikt voor commerciële of illegale doeleinden, anders dragen gebruikers alle gevolgen. De informatie op deze site komt van het internet, en auteursrechtconflicten hebben niets met deze site te maken. Je moet bovenstaande inhoud volledig van je computer verwijderen binnen 24 uur na het downloaden. Als je het programma leuk vindt, steun dan de echte software, koop registratie en krijg betere echte diensten. Als er sprake is van een inbreuk, neem dan contact met ons op via e-mail.

Mail To:help@itsvse.com