WEB ROBOT ou WEB CRAWLER ou WEB SPIDER

MOTEURS DE RECHERCHE

  • Écrit par 
  • Brigitte SIMONNOT
  •  • 4 126 mots
  •  • 3 médias

Dans le chapitre « Le repérage et la collecte des pages Web »  : […] La collecte des pages repose sur le principe du Web qui associe à chaque document publié une adresse URL ( uniform resource locator ). Elle est réalisée par un « robot », un programme informatique (appelé spider ou crawler en anglais) qui, à partir d'une liste initiale d'adresses, visite les pages Web correspondantes et y collecte les adresses mentionnées dans les liens. De proche en proche, ce […] Lire la suite