Abonnez-vous à Universalis pour 1 euro

INTELLIGENCE ARTIFICIELLE (IA)

Enfant terrible de l’informatique, l’intelligence artificielle est apparue au milieu des années 1950, soit une dizaine d’années après la fabrication de l’ENIAC (Electronic Numerical Integrator and Computer), premier ordinateur entièrement électronique. À l’origine, elle se proposait de simuler les différentes facultés cognitives constitutives de l’intelligence, qu’elle soit humaine ou animale, sur des ordinateurs, en les programmant avec les techniques du traitement de l’information. Au cours du temps, l’intelligence artificielle a régulièrement défrayé la chronique. C’est surtout le cas depuis les années 2010 où, avec l’accroissement prodigieux de la capacité de stockage des processeurs, l’accélération inouïe de leur vitesse de calcul, la réduction de leur coût et leur miniaturisation, elle a pris une place croissante dans nos sociétés. Elle est ainsi devenue à la fois nécessaire, permettant de traiter les immenses quantités d’information, et déconcertante, en ce qu’elle reproduit beaucoup de facultés cognitives humaines, au point que certains s’inquiètent et se demandent ce qui restera en propre à l’homme. De quoi est-elle capable et jusqu’où ira-t-elle ? Telles sont les questions que beaucoup se posent désormais. Pour y répondre, il convient d’abord de bien préciser les significations que recouvre cette notion d’intelligence artificielle.

Quelques jalons historiques

Quelques participants de l’école d’été de Dartmouth (États-Unis) - crédits : Photo courtesy of the Minsky family

Quelques participants de l’école d’été de Dartmouth (États-Unis)

L’intelligence artificielle est d’abord une discipline scientifique qui a vu officiellement le jour en 1956, au Dartmouth College de Hanover, dans l’État du New Hampshire (États-Unis), lors d’une école d’été organisée par quatre chercheurs américains, John McCarthy (1927-2011), Marvin Minsky (1927-2016), Nathaniel Rochester (1919-2001) et Claude Shannon (1916-2001). Depuis, l'expression « intelligence artificielle », inventée par John McCarthy sans doute pour frapper les esprits, est devenue très populaire au point que plus personne ne l’ignore. Cette composante de l’informatique a pris de plus en plus d’ampleur au fil du temps. Il est vrai que les technologies qui en sont issues ont grandement contribué à changer le monde. À titre d’illustration, le World Wide Web (communément appelé Web), que l’on utilise tous quotidiennement, vient du couplage des réseaux de télécommunication et d’un modèle de mémoire, l’hypertexte, conçu avec des techniques d’intelligence artificielle et publié en 1965 lors d’une conférence sur cette dernière.

Définition et fondement de l’intelligence artificielle

Cinquantième anniversaire de l’école d’été de Dartmouth marquant la naissance de l’Intelligence artificielle - crédits : Joseph Mehling/ Courtesy of Dartmouth College Library

Cinquantième anniversaire de l’école d’été de Dartmouth marquant la naissance de l’Intelligence artificielle

Pour les promoteurs de cette école d’été de 1956, l’intelligence artificielle visait initialement à la simulation, sur des machines, de chacune des différentes facultés de l’intelligence, qu’il s’agisse de l’intelligence humaine, animale, végétale ou sociale. Cette discipline scientifique reposait sur la conjecture selon laquelle toutes les fonctions cognitives, en particulier l’apprentissage, le raisonnement, le calcul, la perception, la mémorisation, le langage, voire la découverte scientifique ou la créativité artistique, peuvent être décrites avec une précision telle qu’il serait possible de les reproduire sur des ordinateurs. Par la suite, et en dépit des progrès considérables qu’elle a enregistrés, l’étude de l’intelligence artificielle a toujours reposé sur la même conjecture que rien, jusqu’à présent, n’a permis ni de démentir ni de démontrer irréfutablement.

Quoi que l’on en pense, les indéniables succès que l’intelligence artificielle a remportés en montrent la fécondité. Pour s’en convaincre, rappelons que l’on regroupe souvent les fonctions cognitives en cinq grandes catégories :

– la perception, c’est-à-dire le passage de la sensation, par exemple de l’information visuelle ou sonore, à une représentation en mémoire ;

– la représentation des connaissances, c’est-à-dire l’organisation des informations en mémoire, et l’apprentissage, autrement dit la construction de nouvelles connaissances à partir des informations stockées en mémoire ;

– le raisonnement, vu comme un calcul sur les connaissances représentées en mémoire ;

– les facultés de communication et d’expression, à savoir l’échange et le dialogue ;

– les facultés dites exécutives de mise en œuvre des décisions.

Même si l’intelligence artificielle n’épuise pas encore, et n’épuisera peut-être jamais, l’ensemble des facultés humaines, beaucoup de facettes de ces différentes fonctions cognitives sont d’ores et déjà simulées par des machines. Songeons à la reconnaissance des visages ou de la parole pour la perception, aux réussites de l’apprentissage profond (ou deep learning), au diagnostic médical pour le raisonnement, aux agents conversationnels, comme ChatGPT, pour les capacités de communication ou, enfin, pour les facultés exécutives, aux robots en général, qui sont capables de mettre en œuvre leur propre décision. Pour illustrer ce dernier point, on peut mentionner le module d’atterrissage Philae, qui s’est posé en novembre 2014 sur la comète 67P/Tchourioumov-Guerassimenko, à 510 millions de kilomètres de la Terre, afin de recueillir seul des informations qu’il nous a ensuite transmises.

Les précurseurs

Réseau de neurones formels - crédits : Encyclopædia Universalis France

Réseau de neurones formels

Cette discipline scientifique qu’est l’intelligence artificielle ne surgit pas de nulle part. Elle a emboîté le pas à la cybernétique, science des systèmes complexes et de leur commande, fondée dans les années 1940 et particulièrement active au début des années 1950. Celle-ci aspirait à modéliser la régulation des systèmes biologiques, psychiques, politiques ou sociaux avec des flux d’information. Les réseaux de neurones formels, qui sont désormais si couramment utilisés en intelligence artificielle, sont issus des travaux sur la cybernétique. Marvin Minsky, l’un des « quatre mousquetaires » à l’origine de l’intelligence artificielle, avait d’ailleurs fait sa thèse sur l’apprentissage dans les réseaux de neurones formels. Rappelons que ces derniers désignent des algorithmes de calcul dont la conception est à l’origine inspirée du fonctionnement des neurones biologiques.

Quant à l’idée selon laquelle l’intelligence pourrait être simulée sur un ordinateur, elle avait déjà été émise dès 1948 par le mathématicien et logicien britannique Alan Turing (1912-1954) dans un article au titre évocateur, « Intelligent Machinery », puis avait été reprise et approfondie, toujours par Alan Turing, dans un autre article paru en 1950 et intitulé « Computing machinery and intelligence ». Malheureusement, ce scientifique est décédé trop tôt pour contribuer à l’essor de l’intelligence artificielle.

<em>A.I. Intelligence artificielle</em>, S. Spielberg - crédits : Amblin/ Dreamworks/ WB / The Kobal Collection / Aurimages

A.I. Intelligence artificielle, S. Spielberg

Enfin, l’idée plus générale selon laquelle les machines pourraient penser est beaucoup plus ancienne encore. Elle provient de la combinaison de deux hypothèses émises depuis longtemps. La première, d’ordre philosophique, formulée d’abord par l’Anglais Thomas Hobbes (1588-1679) puis reprise par l’Allemand Gottfried Wilhelm Leibniz (1646-1716), pose que la pensée résulte d’un calcul. La seconde, qui apparaît évidente depuis la première moitié du xxe siècle, en particulier depuis les travaux d’Alonzo Church (1903-1995) et d’Alan Turing aboutissant à la thèse dite de Church-Turing, affirme que tout calcul peut être effectué sur une machine. Il s’ensuit, si la pensée est un calcul et si les calculs peuvent tous être accomplis par des machines, que la pensée doit pouvoir être simulée sur des machines.

Évolution de l’intelligence artificielle

Discipline encore jeune, l’intelligence artificielle a déjà connu de nombreuses évolutions. On peut les résumer en six étapes.

Le temps des prophètes

Tout d’abord, dans l’euphorie des origines et des premiers succès – avec en particulier la réalisation en 1956 du Logic Theorist, un programme informatique développé par Allen Newell (1927-1992) et Herbert Simon (1916-2001) qui démontra automatiquement 38 des 52 premiers théorèmes de logique mathématique de l’ouvrage Principia Mathematica (1910) d'Alfred North Whitehead (1861-1947) et Bertrand Russell (1872-1970) –, les chercheurs se sont laissés aller à des déclarations plutôt inconsidérées qui leur seront beaucoup reprochées par la suite. C’est ainsi qu’Herbert Simon – qui recevra en 1978 le prix Nobel d’économie – prédit en 1958 que les machines seront championnes du monde aux échecs dix ans plus tard si elles ne sont pas exclues des compétitions internationales. De même, il affirme que, toujours dans un délai de dix ans, elles démontreront des théorèmes originaux en mathématiques, composeront de la musique douée d’une indéniable valeur esthétique, que les théories psychologiques prendront toutes la forme de programmes informatiques… Même si l’enthousiasme des chercheurs de l’époque se montrait excessif, force est de constater que leurs prédictions se sont progressivement réalisées, mais sur une durée de temps beaucoup plus longue que celle qu’ils avaient prévue. Ainsi, il a fallu attendre 1997 pour qu’un programme informatique l’emporte sur l’un des meilleurs joueurs d’échecs au monde. De même, des ordinateurs aident d’ores et déjà des mathématiciens à faire des démonstrations et des musiciens à composer de la musique. Quant aux théories de psychologies cognitives, beaucoup d’entre elles recourent désormais à des modélisations informatiques… D’ailleurs, les sciences cognitives tiennent justement à de telles modélisations de l’esprit qu’elles assimilent à un système de traitement de l’information.

Les années sombres

À partir du milieu des années 1960, les progrès tant espérés tardent à venir. Et c’est bien le cas en 1965 lorsqu’un enfant de dix ans l’emporte sur un ordinateur au jeu d’échecs. Nous sommes encore loin de voir se réaliser les prophéties de Herbert Simon ! L’année suivante, le rapport du comité ALPAC (Automatic Language Processing Advisory Committee), commandé par le Sénat américain, fait état des limitations des projets de recherche sur la traductionautomatique. Rappelons à cet égard que, dès 1951, avant même que le terme d’intelligence artificielle ne soit inventé, commencent les premiers travaux sur la traduction automatique aux États-Unis, à l’université de Georgetown, ce qui suscite un grand enthousiasme et d’abondants financements. Les méthodes développées reposent sur une traduction mot à mot, avec un dictionnaire qui associe à chaque terme de la langue source et à son contexte dans le texte de départ un équivalent dans la langue cible. Ces travaux ne recourent à aucune connaissance linguistique, qu’elle soit d’ordre syntaxique – à savoir grammaticale –, d’ordre sémantique – c’est-à-dire relative à la signification des expressions –, ou encore d’ordre pragmatique, autrement dit reliée à la fonction communicative des textes. Les résultats dérisoires des premières réalisations suscitent alors chez les linguistes du comité ALPAC de féroces critiques qui conduisent à stopper toutes les recherches en traduction automatique aux États-Unis.

L’intelligence artificielle n’est pas directement concernée par ces critiques, mais elle en subit tout de même le contrecoup. Il s’ensuit qu’elle a mauvaise presse aux États-Unis pendant une dizaine d’années.

L’intelligence artificielle sémantique

Les travaux ne s’interrompent pas pour autant, mais les recherches s’orientent vers de nouvelles directions. On s’intéresse alors à la psychologie de la mémoire, aux mécanismes de compréhension, que l’on cherche à simuler sur un ordinateur, et au rôle de la connaissance dans le raisonnement. C’est ce qui donne naissance aux techniques de représentation sémantique des connaissances, qui se développent considérablement dans le milieu des années 1970, avec entre autres les réseaux sémantiques, les « cadres de données » et, au début des années 1970, les graphes conceptuels. Ces techniques s’inspirent toutes de la notion de schéma introduite par le psychologue britannique Frederic Charles Bartlett (1886-1969). Elles établissent un parallèle entre l’organisation des connaissances dans la mémoire humaine sous forme d’entités emboîtées les unes dans les autres et des structures de données informatiques agencées hiérarchiquement. Cela conduit aussi à développer des systèmes dits experts ou à base de connaissances, parce qu’ils recourent au savoir d’hommes de métier pour reproduire leurs raisonnements. Ces systèmes susciteront d’énormes espoirs au début des années 1980.

Dès le milieu des années 1970, dans le sillage de ce mouvement, les sciences cognitives prennent leur essor. Elles répondent au besoin qu’éprouvaient certains chercheurs en intelligence artificielle d’en connaître plus sur les mécanismes de l’intelligence, pour essayer de les modéliser. Pour cela, on jette des ponts entre l’intelligence artificielle et différentes disciplines qui étudient les manifestations de l’intelligence, en particulier la psychologie et la linguistique. Avec le temps, les sciences cognitives s’autonomisent et évoluent de manière indépendante, en s’éloignant du cœur de l’intelligence artificielle et en établissant des liens avec d’autres sciences touchant au substrat physiologique de l’intelligence, en particulier avec les neurosciences (étude de la structure et du fonctionnement du système nerveux). Par ailleurs, tout un pan de la philosophie de l’esprit que l’on qualifie de « cognitiviste » dresse un parallèle entre notre esprit et les systèmes de traitement de l’information, ce qui suscite des malentendus et alimente des débats passionnés entre, d’un côté, les sciences cognitives, qui sont des disciplines expérimentales ayant recours à des modélisations informatiques et, de l’autre, les orientations cognitivistes de la philosophie, qui assimilent notre esprit à des systèmes de traitement de l’information, autrement dit à des ordinateurs.

Connexionnisme et apprentissage machine

Au début des années 1980, parallèlement à l’essor de l’intelligence artificielle, les techniques issues de la cybernétique se perfectionnent, s’affranchissent de leurs limitations initiales et font l’objet de multiples formalisations mathématiques. Cela donne naissance à de nombreux développements théoriques, en particulier à des algorithmes d’apprentissage machine pour les réseaux de neurones formels. Rappelons que ces derniers se composent d’automates censés modéliser des neurones biologiques, connectés par des liaisons dites synaptiques, par analogie avec ce qui se produit dans le cerveau, entre les neurones. Ces liaisons sont pondérées par des nombres, les « poids synaptiques », qui modulent la transmission de l’information et qui évoluent dans le temps, ce qui modélise la plasticité synaptique responsable des phénomènes d’apprentissage dans le cerveau. Les algorithmes d’apprentissage automatique dits « à rétropropagation de gradient » simulent cette plasticité en modifiant dynamiquement les poids des connexions synaptiques entre les neurones formels. À cette fin, ils comparent la sortie espérée et la sortie obtenue d’un réseau de neurones formels et propagent le résultat de cette comparaison – ou ce que l’on appelle en termes techniques le gradient – en arrière, sur les liaisons synaptiques, de façon à réduire l’écart entre ce que le réseau calcule et ce que l’on cherche à obtenir. On appelle parfois connexionnisme cette approche, car la simulation de phénomènes d’apprentissage sur des réseaux de neurones formels porte sur la modification du poids de leurs connexions.

Le succès de ces techniques conduit à des applications industrielles, où différentes techniques informatiques se combinent pour donner des systèmes hybrides, faisant côtoyer des approches issues de l’intelligence artificielle, de la recherche opérationnelle, de la cybernétique, de la théorie des systèmes, de la vie artificielle, de l’apprentissage statistique ou de la programmation dynamique.

Le connexionnisme intervient aussi dans les sciences cognitives où, en s’ancrant sur une simulation de la physiologie cérébrale, il constitue une alternative aux philosophies d’orientation cognitiviste qui assimilent l’esprit au psychisme sans référence aux phénomènes biologiques.

De l’intelligence artificielle à l’informatique animiste

À partir de la fin des années 1990, on couple l’intelligence artificielle à la robotique et aux interfaces homme-machine, de façon à produire des agents intelligents. Ces derniers, qui sont des entités autonomes capables de percevoir leur environnement et d’interagir avec celui-ci, suscitent la projection d’une entité imaginaire. Ainsi un robot chien suggère-t-il la présence d’un chien avec ses affects et ses émotions, même s’il n’a rien de la physiologie d’un chien. Dans cette perspective, les réactions des machines usuelles sont calculées de façon à provoquer en nous, à leur contact, l’illusion d’une conscience les animant, c’est-à-dire d’une âme au sens qu’Aristote (ive siècle av. J.C.) donnait à ce mot, soit un « souffle qui anime ». Cette tendance de l’intelligence artificielle peut éventuellement se caractériser comme une forme d’animisme puisqu’elle s’emploie à susciter la projection d’un souffle de vie sur les objets quotidiens de notre environnement. Cela a donné naissance, entre autres, au « calcul des émotions » (affective computing) qui évalue les réactions d’un sujet ressentant des émotions et qui les reproduit sur une machine.

Renaissance de l’intelligence artificielle

Depuis 2010, la puissance des machines permet d’exploiter de grandes masses de données (ce que l’on appelle couramment les big data) avec des techniques d’apprentissage machine qui se fondent sur le recours à des réseaux de neurones formels, c’est-à-dire à des techniques relativement anciennes que l’on déploie aujourd’hui sur des architectures de dimensions beaucoup plus importantes qu’auparavant du fait de l’accroissement des capacités des machines. Cela correspond à ce que l’on appelle l’apprentissage profond.

Les fructueuses applications de ces techniques touchent tous les domaines de l’intelligence artificielle : reconnaissance de la parole, de la voix, des visages, vision, compréhension du langage naturel, pilotage automatique de voiture, traduction automatique, génération de textes et d’images, etc. Elles conduisent à parler d’une renaissance de l’intelligence artificielle.

Parmi les développements, on peut mentionner les réseaux de neurones dits « adversariaux » (GAN pour generative adversarial networks). Encore appelés « réseaux antagonistes génératifs », ils sont constitués de deux réseaux concurrents : le générateur, qui produit un objet numérique, par exemple une image ; le discriminateur, qui est conçu pour détecter les erreurs et, le cas échéant, faire un retour au générateur afin qu’il se corrige automatiquement. Il en résulte des « hypertrucages », ce que l’on appelle deep fakes, qui donnent à voir ou à entendre des images, des vidéos et des bandes sonores qui ont été totalement fabriquées.

À partir de 2017, la société Google a développé de nouvelles formes d’apprentissage profond, les transformeurs (transformers), en ayant recourt à des réseaux de neurones formels qui extraient par apprentissage, sur l’équivalent de centaines de milliers d’ouvrages, l’esprit des langues, à savoir l’affinité mutuelle des mots entre eux. Il en résulte des grands modèles de langues (LLM, Large Language Models) utilisables pour les besoins de nombreuses technologies de traitement automatique des langues, comme le résumé ou la génération de textes. Dès novembre 2022, avec ChatGPT, un agent conversationnel en libre accès sur la Toile, le grand public a constaté avec ébahissement la puissance de ces techniques.

Au-delà de la stupéfaction, on assiste à une rupture épistémologique : là où l’intelligence artificielle des origines visait à une mathématisation de la pensée et où, à l’issue du tournant sémantique, elle se centrait sur la modélisation des connaissances, elle porte désormais sur le traitement de très grandes quantités d’informations. Pour donner une idée des ordres de grandeur, on recourt désormais à des pétaoctets (1015 octets) de données, à savoir des millions de milliards d’octets, pour l’entraînement. Quant aux réseaux de neurones formels mis en œuvre pour traiter ces données, ils atteignent des dimensions colossales. Par exemple, les modèles de langage utilisés dans les agents conversationnels comme GPT (Generative Pretrained Transformer, « transformeur génératif préentraîné ») contiennent des centaines de milliards de connexions synaptiques.

Applications de l’intelligence artificielle

Garry Kasparov et Deep Blue - crédits : Stan Honda/ AFP

Garry Kasparov et Deep Blue

Beaucoup de réalisations mettant à profit des techniques d’intelligence artificielle dépassent les facultés humaines. Ainsi, l’ordinateur Deep Blue a vaincu en 1997 le Russe Garry Kasparov, alors champion du monde en titre au jeu d’échecs. Depuis, d’autres machines l’ont emporté sur l’un des meilleurs joueurs de go au monde – le Sud-Coréen Lee Sedol (2016) – et sur d’excellents joueurs de poker (2017). Désormais, des ordinateurs démontrent ou aident à démontrer des théorèmes mathématiques et construisent automatiquement des connaissances à partir de masses immenses de données (big data) dont le volume se compte en téraoctets (1012 octets), voire en pétaoctets (1015 octets), avec des techniques dites d’apprentissage machine. Grâce à ces dernières, des automates reconnaissent la parole articulée et la transcrivent, comme les secrétaires dactylographes d’antan, et d’autres identifient avec précision des visages ou des empreintes digitales parmi des dizaines de millions et comprennent des textes écrits en langage naturel. Toujours grâce à ces techniques d’apprentissage machine, des voitures se conduisent seules, des machines diagnostiquent parfois mieux que des dermatologues des mélanomes à partir de photographies de grains de beauté prises par des téléphones portables, des robots font la guerre à la place des hommes et les chaînes de fabrication automatisées se multiplient dans les usines. À cela, il faut ajouter que certains scientifiques utilisent ces techniques d’apprentissage automatique pour déterminer la fonction de macromolécules biologiques, en particulier celle de protéines et de gènes, à partir de la séquence de leurs constituants, acides aminés pour les protéines, nucléotides pour les gènes. Plus généralement, toutes les sciences subissent une rupture épistémologique majeure avec les expérimentations dites in silico, parce qu’elles s’effectuent sur les données massives grâce à des processeurs puissants, et qu’elles s’opposent en cela aux expérimentations in vivo – sur le vivant – et surtout in vitro – dans des éprouvettes de verre.

Mentionnons enfin les applications encore peu explorées de l’intelligence artificielle dite générative parce qu’elle fabrique à volonté images et textes.

Ces applications de l’intelligence artificielle affectent presque tous les domaines d’activités, en particulier les secteurs de l’industrie, de la banque, des assurances, de la santé, de la défense, car de nombreuses tâches routinières sont désormais susceptibles d’être automatisées, ce qui transforme bien des métiers et en supprime certains.

Ambiguïté sur l'expression « intelligence artificielle »

Le succès de l'expression « intelligence artificielle » repose parfois sur un malentendu lorsqu’elle désigne une entité artificielle douée d’intelligence et qui, de ce fait, rivaliserait avec les êtres humains. Cette idée d’une intelligence artificielle venant à dépasser à terme l’ensemble des facultés humaines renvoie à des mythes et des légendes anciennes telle celle du Golem, réactivée pourrait-on dire depuis le milieu des années 2010 par des personnalités comme l’astrophysicien Stephen Hawking (1942-2018), le chef d’entreprise Elon Musk, l’ingénieur Ray Kurzweil ou encore par les tenants de ce que l’on appelle aujourd’hui l’« intelligence artificielle forte » et l’« intelligence artificielle générale ». Notons que, parmi ceux-là, certains (comme Elon Musk) font semblant de s’en inquiéter, alors que d’autres (comme Ray Kurzweil) s’en réjouissent. Cela étant, tous supposent que l’intelligence artificielle excédera la nature humaine, au point de mettre en cause sa suprématie.

Intelligence artificielle forte

La notion d’intelligence artificielle forte a été introduite en 1985 par le philosophe américain John Searle qui souhaitait distinguer l’intelligence artificielle des informaticiens (qu’il appelait weak artificial intelligence, « intelligence artificielle faible ») de celle dont rêvaient certains de ses collègues philosophes d’orientation cognitiviste et qui aurait été, selon eux, en mesure d’accéder à la signification et à la compréhension (strong artificial intelligence, « intelligence artificielle forte »). Or, selon Searle, l’intelligence artificielle des informaticiens ne procède qu’à des manipulations syntaxiques sur des symboles, ce qui ne lui permet pas d’accéder à leur sémantique, autrement dit au sens. De même, contrairement à ce que prétendaient certains philosophes cognitivistes, pour John Searle, l’intelligence artificielle n’accède ni à la conscience ni à l’émotion.

Pourtant, à la fin des années 1980, des roboticiens, dont Hans Moravec, ont prétendu renouveler l’intelligence artificielle en lui permettant de simuler la perception des objets, d’accéder au sens et par là d’ouvrir la voie à la réalisation d’une intelligence artificielle forte. Les succès de l’apprentissage profond depuis le milieu des années 2010 donnent une vigueur renouvelée aux partisans de l’intelligence artificielle forte. Néanmoins, il n’existe ni preuve scientifique ni démonstration expérimentale laissant entendre qu’elle soit réalisable et a fortiori à notre portée.

Intelligence artificielle générale

Depuis la fin des années 1990, certains chercheurs prétendent que l’on peut accéder aux principes généraux de l’intelligence et les programmer sur une machine. Ce courant appelé « intelligence artificielle générale » (artificial general intelligence), expression introduite en 1997, cherche à dégager un principe ultime qui serait au fondement de n’importe quelle intelligence. Ses tenants sont généralement des physiciens qui essaient de trouver une formalisation mathématique générique résumant toutes les facettes de l’intelligence, qu’il s’agisse de l’intelligence humaine ou animale ou encore génétique, voire physique, et qui serait l’équivalent de l’équation de Schrödinger pour la physique. Autrement dit, ils aspirent à trouver une formule mathématique qui rendrait compte de l’ensemble des formes d’intelligence qui existent dans la nature. Si une telle formule existait et si l’on pouvait concevoir une machine qui soit en mesure de l’exploiter, nous pourrions éventuellement réaliser une intelligence artificielle forte, consciente d’elle-même, ou réduite à un phénomène abstrait, calculatoire, dénué de sensibilité et d’affect, mais qui, dans tous les cas, nous dépasserait. Il n’existe actuellement aucun élément empirique validant l’approche de l’intelligence artificielle générale, qu’il faut bien qualifier de purement spéculative. Ajoutons enfin que, depuis les années 1980, les sciences cognitives montrent que l’intelligence est la résultante de facultés mentales différenciées selon les individus et ancrées dans nos cerveaux, et qu’en conséquence, elle n’est rien moins que générale.

Questions éthiques

Avec l’intelligence artificielle, la plupart des dimensions de l’intelligence – sauf peut-être l’humour – font l’objet d’analyses et de reconstructions rationnelles avec des ordinateurs. De plus, les machines outrepassent les facultés cognitives de l’homme dans la plupart des domaines, ce qui fait craindre à certains des risques d’ordre éthique.

On a beaucoup glosé sur la question des voitures autonomes. L’expérience de pensée selon laquelle les ingénieurs qui programment une voiture devraient froidement choisir entre l’option d’écraser cinq jeunes gens insouciants traversant la rue au feu vert ou celle de sacrifier la vie du passager du véhicule a beaucoup marqué l’opinion. L’accident de Tempe (Arizona), en mars 2018, mettant en jeu une voiture autonome de la société Uber montre pourtant que les enjeux sont assez différents : pour le confort des passagers, Uber avait décidé que la voiture ne prendrait pas en considération les obstacles inattendus, comme les sacs en plastique ou les feuilles mortes, qui rendent la conduite lente et chaotique. Cette nuit-là, le piéton qui traversait la rue en poussant son vélo sans signalisation a donc été volontairement ignoré par le logiciel de conduite, bien qu’il ait été détecté par les capteurs du véhicule. Sa mort, qui n’est pas liée à une défaillance du système mais à un réglage trop tolérant ne permettant pas à la voiture de réagir en temps voulu, est venue renforcer les interrogations quant à la sécurité des voitures autonomes.

Plus généralement, les risques éthiques sont de trois ordres : une raréfaction du travail, remplacé par l’activité des machines ; des conséquences pour l’autonomie de l’individu, en particulier pour sa liberté et sa sécurité ; un dépassement de l’humanité, laquelle disparaîtrait au profit de machines plus « intelligentes ». En ce qui concerne le premier point, un examen détaillé ne démontre pas que l’automatisation de certaines tâches entraîne nécessairement la disparition du travail humain. Les études parues sur ce sujet concluent de façon divergente : certaines prophétisent l’automatisation de tous les métiers avant le milieu du xxiie siècle, mais la méthodologie qu’elles suivent laisse les scientifiques dubitatifs. D’autres expliquent que le travail se transforme et fait appel à de nouvelles compétences, de sorte qu’il en va identiquement avec le développement des technologies d’intelligence artificielle qu’il en est allé dans le passé avec d’autres technologies : certains métiers ont disparu, d’autres ont évolué et quelques-uns sont apparus. De même, l’autonomie de l’individu et sa liberté ne sont pas inéluctablement remises en cause par le développement de l’intelligence artificielle, à condition toutefois de demeurer très vigilants face aux intrusions de la technologie dans la vie privée, notamment via l’exploitation des données personnelles collectées. Enfin, contrairement à ce que certains prétendent, les machines ne constituent aucunement un risque existentiel pour l’humanité, car leur autonomie n’est que d’ordre technique, en cela qu’elle ne correspond qu’à des chaînes de causalités matérielles qui vont de la prise d’information à la décision. En effet, les machines n’ont pas d’autonomie morale car, même s’il arrive qu’elles nous trompent, par les textes et les images qu’elles génèrent, ou qu’elles nous déroutent et nous fourvoient dans le temps de l’action, autrement dit qu’elles nous dressent des pièges, ceux-ci ne sont jamais intentionnels car elles n’ont pas de volonté propre et restent asservies aux objectifs que nous leur avons fixés.

— Jean-Gabriel GANASCIA

Bibliographie

A. Cornuejols, L. Miclet & V. Barra, Apprentissage artificiel : deep learning, concepts et algorithmes, coll. « Algorithmes », Eyrolles, 2018

J.-G. Ganascia, L’Intelligence artificielle : vers une domination programmée ?, Le Cavalier bleu, 2017

J. McCarthy, M. L. Minsky, N. Rochester & C. E. Shannon, « A proposal for the Dartmouth summer research project on artificial intelligence », Computer Based Learning Unit, Université de Leeds, 1955 (http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html)

S. Russell et P. Norvig, Intelligence artificielle, Pearson,3e éd. 2010

A. Turing, « Intelligent Machinery, National Physical Laboratory Report », in B. Meltzer et D. Michie dir., Machine Intelligence, vol. 5, Edinburgh University Press, 1969 ; « Computing machinery and intelligence », in Mind, vol. 59, no 236, pp. 433-460, 1950.

Accédez à l'intégralité de nos articles

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrez nos offres

Déjà abonné ? Se connecter

Écrit par

Classification

Médias

Quelques participants de l’école d’été de Dartmouth (États-Unis) - crédits : Photo courtesy of the Minsky family

Quelques participants de l’école d’été de Dartmouth (États-Unis)

Cinquantième anniversaire de l’école d’été de Dartmouth marquant la naissance de l’Intelligence artificielle - crédits : Joseph Mehling/ Courtesy of Dartmouth College Library

Cinquantième anniversaire de l’école d’été de Dartmouth marquant la naissance de l’Intelligence artificielle

Réseau de neurones formels - crédits : Encyclopædia Universalis France

Réseau de neurones formels

Autres références

  • INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE

    • Écrit par
    • 2 716 mots
    • 2 médias

    Le désir de fabriquer des machines capables de générer textes, images et sons, à l’instar d’artistes, remonte bien à avant le développement de l’intelligence artificielle (IA). À titre d’illustration, la Britannique Ada Lovelace (1815-1852) pressentait déjà qu’une machine pourrait,...

  • AGHION PHILIPPE (1956- )

    • Écrit par
    • 1 173 mots
    • 1 média
    ...monde académique, Aghion voit dans celle-ci une source d’efficacité, de profits et donc de développements favorables à l’emploi. À cet égard, il considère l’intelligence artificielle comme une technologie bienvenue que les acteurs économiques ont intérêt à favoriser. De son côté, l’État devrait veiller à...
  • ALGORITHME

    • Écrit par et
    • 5 919 mots
    • 3 médias
    ...imposent une gestion explicite de la mémoire, alors que d’autres non – c’est le cas de Python, l’un des langages les plus employés de nos jours pour le développement d’intelligences artificielles. L’ensemble de ces éléments a mis en exergue l’idée que l’informatique traite de deux notions bien distinctes....
  • ANDERSON JOHN ROBERT (1947- )

    • Écrit par
    • 374 mots

    John Robert Anderson est né à Vancouver (Canada) en 1947. Après des études à l’université de la Colombie-Britannique, il obtient son Ph.D. en 1972 à l’université Stanford, sous la direction de G. Bower. D’abord professeur de psychologie à Yale de 1973 à 1977, il rejoint en 1978 l’université Carnegie-Mellon...

  • APPRENTISSAGE, psychologie

    • Écrit par et
    • 5 939 mots
    • 2 médias
    Ces recherches s’articulent maintenant avec celles qui, en intelligence artificielle, s’appuient sur l’exploitation d’un très grand nombre de données empiriques (big data) : plutôt que d’« instruire » la machine par des règles définies a priori, on cherche à ce que celle-ci se fonde, pour progresser...
  • Afficher les 38 références