Søgemaskine-crawlere: gode bots, dårlige bots Spiderbots, også kendt som webspiders eller søgemaskinecrawlere, er værktøjer, der automatiserer gentagne opgaver på internettet. De læser næsten alt på den crawlede webside. De data, som robotter indsamler, behandles og anvendes på forskellige måder, så robotter er et tveægget sværd. De kan give store fordele, forbedre internettets funktionalitet og forretningsdrift, men de kan også være skadelige og udgøre sikkerhedsrisici og etiske bekymringer, afhængigt af hvordan og til hvilket formål de bruges.
Talrige webcrawlere og bots, såsom Googlebot, Bingbot, Baiduspider, Slurp bot (Yahoo bot), Yandexbot, Sogou bot, Alexa crawler, DuckDuckBot, Slackbot, Facebook bot, GPTBot osv., søger konstant på internettet.
Whitelist søgemaskinecrawlere (bots) i firewalls:Hyperlink-login er synlig. |