Abonnez-vous à Universalis pour 1 euro

INTELLIGENCE ARTIFICIELLE (IA)

Article modifié le

Évolution de l’intelligence artificielle

Discipline encore jeune, l’intelligence artificielle a déjà connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès – avec en particulier la réalisation en 1956 du Logic Theorist, un programme informatique développé par Allen Newell (1927-1992) et Herbert Simon (1916-2001) qui démontra automatiquement 38 des 52 premiers théorèmes de logique mathématique de l’ouvrage Principia Mathematica (1910) d'Alfred North Whitehead (1861-1947) et Bertrand Russell (1872-1970) –, les chercheurs se sont laissés aller à des déclarations plutôt inconsidérées qui leur seront beaucoup reprochées par la suite. C’est ainsi qu’Herbert Simon – qui recevra en 1978 le prix Nobel d’économie – prédit en 1958 que les machines seront championnes du monde aux échecs dix ans plus tard si elles ne sont pas exclues des compétitions internationales. De même, il affirme que, toujours dans un délai de dix ans, elles démontreront des théorèmes originaux en mathématiques, composeront de la musique douée d’une indéniable valeur esthétique, que les théories psychologiques prendront toutes la forme de programmes informatiques… Même si l’enthousiasme des chercheurs de l’époque se montrait excessif, force est de constater que leurs prédictions se sont progressivement réalisées, mais sur une durée de temps beaucoup plus longue que celle qu’ils avaient prévue. Ainsi, il a fallu attendre 1997 pour qu’un programme informatique l’emporte sur l’un des meilleurs joueurs d’échecs au monde. De même, des ordinateurs aident d’ores et déjà des mathématiciens à faire des démonstrations et des musiciens à composer de la musique. Quant aux théories de psychologies cognitives, beaucoup d’entre elles recourent désormais à des modélisations informatiques… D’ailleurs, les sciences cognitives tiennent justement à de telles modélisations de l’esprit qu’elles assimilent à un système de traitement de l’information.

Les années sombres

À partir du milieu des années 1960, les progrès tant espérés tardent à venir. Et c’est bien le cas en 1965 lorsqu’un enfant de dix ans l’emporte sur un ordinateur au jeu d’échecs. Nous sommes encore loin de voir se réaliser les prophéties de Herbert Simon ! L’année suivante, le rapport du comité ALPAC (Automatic Language Processing Advisory Committee), commandé par le Sénat américain, fait état des limitations des projets de recherche sur la traductionautomatique. Rappelons à cet égard que, dès 1951, avant même que le terme d’intelligence artificielle ne soit inventé, commencent les premiers travaux sur la traduction automatique aux États-Unis, à l’université de Georgetown, ce qui suscite un grand enthousiasme et d’abondants financements. Les méthodes développées reposent sur une traduction mot à mot, avec un dictionnaire qui associe à chaque terme de la langue source et à son contexte dans le texte de départ un équivalent dans la langue cible. Ces travaux ne recourent à aucune connaissance linguistique, qu’elle soit d’ordre syntaxique – à savoir grammaticale –, d’ordre sémantique – c’est-à-dire relative à la signification des expressions –, ou encore d’ordre pragmatique, autrement dit reliée à la fonction communicative des textes. Les résultats dérisoires des premières réalisations suscitent alors chez les linguistes du comité ALPAC de féroces critiques qui conduisent à stopper toutes les recherches en traduction automatique aux États-Unis.

L’intelligence artificielle n’est pas directement concernée par ces critiques, mais elle en subit tout de même le contrecoup. Il s’ensuit qu’elle a mauvaise presse aux États-Unis pendant une dizaine d’années.

L’intelligence artificielle sémantique

Les travaux ne s’interrompent pas pour autant, mais les recherches s’orientent vers de nouvelles directions. On s’intéresse alors à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on cherche à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donne naissance aux techniques de représentation sémantique des connaissances, qui se développent considérablement dans le milieu des années 1970, avec entre autres les réseaux sémantiques, les « cadres de données » et, au début des années 1970, les graphes conceptuels. Ces techniques s’inspirent toutes de la notion de schéma introduite par le psychologue britannique Frederic Charles Bartlett (1886-1969). Elles établissent un parallèle entre l’organisation des connaissances dans la mémoire humaine sous forme d’entités emboîtées les unes dans les autres et des structures de données informatiques agencées hiérarchiquement. Cela conduit aussi à développer des systèmes dits experts ou à base de connaissances, parce qu’ils recourent au savoir d’hommes de métier pour reproduire leurs raisonnements. Ces systèmes susciteront d’énormes espoirs au début des années 1980.

Dès le milieu des années 1970, dans le sillage de ce mouvement, les sciences cognitives prennent leur essor. Elles répondent au besoin qu’éprouvaient certains chercheurs en intelligence artificielle d’en connaître plus sur les mécanismes de l’intelligence, pour essayer de les modéliser. Pour cela, on jette des ponts entre l’intelligence artificielle et différentes disciplines qui étudient les manifestations de l’intelligence, en particulier la psychologie et la linguistique. Avec le temps, les sciences cognitives s’autonomisent et évoluent de manière indépendante, en s’éloignant du cœur de l’intelligence artificielle et en établissant des liens avec d’autres sciences touchant au substrat physiologique de l’intelligence, en particulier avec les neurosciences (étude de la structure et du fonctionnement du système nerveux). Par ailleurs, tout un pan de la philosophie de l’esprit que l’on qualifie de « cognitiviste » dresse un parallèle entre notre esprit et les systèmes de traitement de l’information, ce qui suscite des malentendus et alimente des débats passionnés entre, d’un côté, les sciences cognitives, qui sont des disciplines expérimentales ayant recours à des modélisations informatiques et, de l’autre, les orientations cognitivistes de la philosophie, qui assimilent notre esprit à des systèmes de traitement de l’information, autrement dit à des ordinateurs.

Connexionnisme et apprentissage machine

Au début des années 1980, parallèlement à l’essor de l’intelligence artificielle, les techniques issues de la cybernétique se perfectionnent, s’affranchissent de leurs limitations initiales et font l’objet de multiples formalisations mathématiques. Cela donne naissance à de nombreux développements théoriques, en particulier à des algorithmes d’apprentissage machine pour les réseaux de neurones formels. Rappelons que ces derniers se composent d’automates censés modéliser des neurones biologiques, connectés par des liaisons dites synaptiques, par analogie avec ce qui se produit dans le cerveau, entre les neurones. Ces liaisons sont pondérées par des nombres, les « poids synaptiques », qui modulent la transmission de l’information et qui évoluent dans le temps, ce qui modélise la plasticité synaptique responsable des phénomènes d’apprentissage dans le cerveau. Les algorithmes d’apprentissage automatique dits « à rétropropagation de gradient » simulent cette plasticité en modifiant dynamiquement les poids des connexions synaptiques entre les neurones formels. À cette fin, ils comparent la sortie espérée et la sortie obtenue d’un réseau de neurones formels et propagent le résultat de cette comparaison – ou ce que l’on appelle en termes techniques le gradient – en arrière, sur les liaisons synaptiques, de façon à réduire l’écart entre ce que le réseau calcule et ce que l’on cherche à obtenir. On appelle parfois connexionnisme cette approche, car la simulation de phénomènes d’apprentissage sur des réseaux de neurones formels porte sur la modification du poids de leurs connexions.

Le succès de ces techniques conduit à des applications industrielles, où différentes techniques informatiques se combinent pour donner des systèmes hybrides, faisant côtoyer des approches issues de l’intelligence artificielle, de la recherche opérationnelle, de la cybernétique, de la théorie des systèmes, de la vie artificielle, de l’apprentissage statistique ou de la programmation dynamique.

Abonnez-vous à Universalis pour 1 euro

Le connexionnisme intervient aussi dans les sciences cognitives où, en s’ancrant sur une simulation de la physiologie cérébrale, il constitue une alternative aux philosophies d’orientation cognitiviste qui assimilent l’esprit au psychisme sans référence aux phénomènes biologiques.

De l’intelligence artificielle à l’informatique animiste

À partir de la fin des années 1990, on couple l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents. Ces derniers, qui sont des entités autonomes capables de percevoir leur environnement et d’interagir avec celui-ci, suscitent la projection d’une entité imaginaire. Ainsi un robot chien suggère-t-il la présence d’un chien avec ses affects et ses émotions, même s’il n’a rien de la physiologie d’un chien. Dans cette perspective, les réactions des machines usuelles sont calculées de façon à provoquer en nous, à leur contact, l’illusion d’une conscience les animant, c’est-à-dire d’une âme au sens qu’Aristote (ive siècle av. J.C.) donnait à ce mot, soit un « souffle qui anime ». Cette tendance de l’intelligence artificielle peut éventuellement se caractériser comme une forme d’animisme puisqu’elle s’emploie à susciter la projection d’un souffle de vie sur les objets quotidiens de notre environnement. Cela a donné naissance, entre autres, au « calcul des émotions » (affective computing) qui évalue les réactions d’un sujet ressentant des émotions et qui les reproduit sur une machine.

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter de grandes masses de données (ce que l’on appelle couramment les big data) avec des techniques d’apprentissage machine qui se fondent sur le recours à des réseaux de neurones formels, c’est-à-dire à des techniques relativement anciennes que l’on déploie aujourd’hui sur des architectures de dimensions beaucoup plus importantes qu’auparavant du fait de l’accroissement des capacités des machines. Cela correspond à ce que l’on appelle l’apprentissage profond.

Les fructueuses applications de ces techniques touchent tous les domaines de l’intelligence artificielle : reconnaissance de la parole, de la voix, des visages, vision, compréhension du langage naturel, pilotage automatique de voiture, traduction automatique, génération de textes et d’images, etc. Elles conduisent à parler d’une renaissance de l’intelligence artificielle.

Abonnez-vous à Universalis pour 1 euro

Parmi les développements, on peut mentionner les réseaux de neurones dits « adversariaux » (GAN pour generative adversarial networks). Encore appelés « réseaux antagonistes génératifs », ils sont constitués de deux réseaux concurrents : le générateur, qui produit un objet numérique, par exemple une image ; le discriminateur, qui est conçu pour détecter les erreurs et, le cas échéant, faire un retour au générateur afin qu’il se corrige automatiquement. Il en résulte des « hypertrucages », ce que l’on appelle deep fakes, qui donnent à voir ou à entendre des images, des vidéos et des bandes sonores qui ont été totalement fabriquées.

À partir de 2017, la société Google a développé de nouvelles formes d’apprentissage profond, les transformeurs (transformers), en ayant recourt à des réseaux de neurones formels qui extraient par apprentissage, sur l’équivalent de centaines de milliers d’ouvrages, l’esprit des langues, à savoir l’affinité mutuelle des mots entre eux. Il en résulte des grands modèles de langues (LLM, Large Language Models) utilisables pour les besoins de nombreuses technologies de traitement automatique des langues, comme le résumé ou la génération de textes. Dès novembre 2022, avec ChatGPT, un agent conversationnel en libre accès sur la Toile, le grand public a constaté avec ébahissement la puissance de ces techniques.

Au-delà de la stupéfaction, on assiste à une rupture épistémologique : là où l’intelligence artificielle des origines visait à une mathématisation de la pensée et où, à l’issue du tournant sémantique, elle se centrait sur la modélisation des connaissances, elle porte désormais sur le traitement de très grandes quantités d’informations. Pour donner une idée des ordres de grandeur, on recourt désormais à des pétaoctets (1015 octets) de données, à savoir des millions de milliards d’octets, pour l’entraînement. Quant aux réseaux de neurones formels mis en œuvre pour traiter ces données, ils atteignent des dimensions colossales. Par exemple, les modèles de langage utilisés dans les agents conversationnels comme GPT (Generative Pretrained Transformer, « transformeur génératif préentraîné ») contiennent des centaines de milliards de connexions synaptiques.

Accédez à l'intégralité de nos articles

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrez nos offres

Déjà abonné ? Se connecter

Écrit par

Classification

Médias

Quelques participants de l’école d’été de Dartmouth (États-Unis) - crédits : Photo courtesy of the Minsky family

Quelques participants de l’école d’été de Dartmouth (États-Unis)

Cinquantième anniversaire de l’école d’été de Dartmouth marquant la naissance de l’Intelligence artificielle - crédits : Joseph Mehling/ Courtesy of Dartmouth College Library

Cinquantième anniversaire de l’école d’été de Dartmouth marquant la naissance de l’Intelligence artificielle

Réseau de neurones formels - crédits : Encyclopædia Universalis France

Réseau de neurones formels

Autres références

  • INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE

    • Écrit par
    • 2 716 mots
    • 2 médias

    Le désir de fabriquer des machines capables de générer textes, images et sons, à l’instar d’artistes, remonte bien à avant le développement de l’intelligence artificielle (IA). À titre d’illustration, la Britannique Ada Lovelace (1815-1852) pressentait déjà qu’une machine pourrait,...

  • AGHION PHILIPPE (1956- )

    • Écrit par
    • 1 173 mots
    • 1 média
    ...monde académique, Aghion voit dans celle-ci une source d’efficacité, de profits et donc de développements favorables à l’emploi. À cet égard, il considère l’intelligence artificielle comme une technologie bienvenue que les acteurs économiques ont intérêt à favoriser. De son côté, l’État devrait veiller à...
  • ALGORITHME

    • Écrit par et
    • 5 919 mots
    • 4 médias
    ...imposent une gestion explicite de la mémoire, alors que d’autres non – c’est le cas de Python, l’un des langages les plus employés de nos jours pour le développement d’intelligences artificielles. L’ensemble de ces éléments a mis en exergue l’idée que l’informatique traite de deux notions bien distinctes....
  • ANDERSON JOHN ROBERT (1947- )

    • Écrit par
    • 374 mots

    John Robert Anderson est né à Vancouver (Canada) en 1947. Après des études à l’université de la Colombie-Britannique, il obtient son Ph.D. en 1972 à l’université Stanford, sous la direction de G. Bower. D’abord professeur de psychologie à Yale de 1973 à 1977, il rejoint en 1978 l’université Carnegie-Mellon...

  • APPRENTISSAGE, psychologie

    • Écrit par et
    • 5 940 mots
    • 2 médias
    Ces recherches s’articulent maintenant avec celles qui, enintelligence artificielle, s’appuient sur l’exploitation d’un très grand nombre de données empiriques (big data) : plutôt que d’« instruire » la machine par des règles définies a priori, on cherche à ce que celle-ci se fonde, pour...
  • Afficher les 41 références

Voir aussi