Søkemotor-crawlere: gode roboter, dårlige roboter Spiderbots, også kjent som nettedderkopper eller søkemotorcrawlere, er verktøy som automatiserer repeterende oppgaver på internett. De leser nesten alt på den gjennomsøkte nettsiden. Dataene som samles inn av roboter behandles og brukes på ulike måter, så roboter er et tveegget sverd. De kan gi store fordeler, forbedre internettfunksjonalitet og forretningsdrift, men de kan også være skadelige og utgjøre sikkerhetsrisikoer og etiske bekymringer, avhengig av hvordan og til hvilket formål de brukes.
Tallrike nettcrawlere og boter, som Googlebot, Bingbot, Baiduspider, Slurp bot (Yahoo bot), Yandexbot, Sogou bot, Alexa crawler, DuckDuckBot, Slackbot, Facebook bot, GPTBot osv., søker konstant på internett.
Hviteliste søkemotorcrawlere (bots) i brannmurer:Innloggingen med hyperkoblingen er synlig. |