LE CUN YANN (1960- )

Carte mentale

Élargissez votre recherche dans Universalis

Informaticien français, Yann Le Cun est un spécialiste de l’apprentissage profond (deep learning en anglais), méthode d’apprentissage automatique (machine learning en anglais) de réseaux de neurones artificiels, permettant de les entraîner (à partir d’une base de données d’exemples, par essais-erreurs) à réaliser une tâche donnée. Ses travaux sur les réseaux de neurones artificiels, et notamment les réseaux convolutionnels profonds, sont en partie à l’origine de la « révolution de l’intelligence artificielle (IA) » des années 2010. En mars 2019, Yann Le Cun a reçu le prix Turing de l’Association for Computing Machinery, plus haute distinction dans le domaine informatique, qu’il a partagé avec Yoshua Bengio et Geoffrey Hinton.

L’apprentissage automatique des réseaux de neurones

Né le 8 juillet 1960 à Soisy-sous-Montmorency (Val-d’Oise), Yann Le Cun obtient le diplôme d’ingénieur de l’École supérieure d’ingénieurs en électrotechnique et électronique (ESIEE) en 1983. Il rejoint ensuite l’équipe de recherche de Françoise Soulié pour y préparer un doctorat qu’il soutient en 1987 à l’université-Pierre-et-Marie-Curie (Paris). Il y présente, pour entraîner des réseaux de neurones multi-couches à résoudre une tâche, un algorithme de « rétropropagation du gradient » qui permet progressivement de réduire les erreurs. Celui-ci dépasse les limites qui avaient été identifiées en 1969 par Marvin Minsky (1927-2016) et Seymour Papert (1928-2016) sur les premiers réseaux de neurones apprenants (perceptrons) et qui avaient causé le premier « hiver » de l’IA (c’est-à-dire un ralentissement de l’intérêt général pour cette discipline et une baisse des crédits accordés) qui dura jusqu’au début des années 1980. Cet algorithme, redécouvert par plusieurs auteurs, a un impact important sur l’apprentissage automatique en général et les réseaux de neurones en particulier dès la fin des années 1980. Le travail de Yann Le Cun comporte à la fois le cadre théorique et les aspects informatiques (code, astuces d’optimisation).

Yann Le Cun

Yann Le Cun

photographie

Avec ses travaux de recherche sur les réseaux de neurones, l'informaticien français Yann Le Cun est devenu l'un des grands spécialistes de l'apprentissage profond. Cette méthode d'apprentissage des machines a révolutionné l'intelligence artificielle désormais bien présente dans notre... 

Crédits : Facebook

Afficher

Grâce aux travaux réalisés lors de son doctorat, il rencontre Larry Jackel, physicien américain des Bell Labs aux États-Unis, et Geoffrey Hinton, professeur à l’université de Toronto (Canada). Ce dernier l’invite à effectuer un post-doctorat dans son équipe de recherche. C’est à cette époque que Yann Le Cun décide d’écrire son nom en un seul mot, la graphie originale posant des problèmes en anglais. En 1988, Larry Jackel, directeur de l’Adaptive Systems Research Department aux Bell Labs, le recrute. Il rejoint l’une des équipes les plus performantes travaillant sur les réseaux de neurones. Depuis les puces neuronales jusqu’aux travaux théoriques sur l’apprentissage statistique et les « machines à vecteurs de support » (support vector machines ou SVM) de Vladimir Vapnik (une technique différente des réseaux de neurones), l’équipe obtient de très nombreux résultats théoriques et appliqués. En 1996, lors du départ à la retraite de Larry Jackel, Yann Le Cun prend la direction de cette équipe et la réoriente vers le traitement d’images.

Après son départ pour les États-Unis, Yann Le Cun continue à collaborer avec Léon Bottou, un autre doctorant de Françoise Soulié, qui met alors au point un type de réseaux de neurones selon le modèle d’Alexander Waibel (time delay neural network) pour la reconnaissance de la parole et qui rejoindra les Bell Labs après avoir soutenu sa thèse (1991). L’équipe des Bell Labs avait commencé à développer ces architectures de time delay neural network (appelés plus tard « réseaux convolutionnels ») pour la reconnaissance d’images. Ces réseaux fabriquent peu à peu dans leurs couches successives une représentation des données de haut niveau (feature maps). L’équipe se lance dans la production de réseaux de neurones de grande taille apprenant à partir de bases de données très significatives et publie ses premiers résultats dès 1989, affichant des performances prometteuses. Elle propose enfin, en 1998, le réseau LeNet-5 (changeant au passage l’appellation initiale time delay neural network en convolutional network) pour la reconnaissance de caractères, qui sera intégré, du fait de ses performances, dans des scanners de lecture de chèques de plusieurs banques aux États-Unis.

Parallèlement, Yann Le Cun travaille avec Léon Bottou et Patrick Haffner sur une technologie de compression d’images, DjVu, utilisée désormais par des centaines de sites web et des millions d’utilisateurs sur le Web.

Des réseaux de neurones au deep learning

Mais, en 2002, Bell Labs ferme le laboratoire de Yann Le Cun. Avec Léon Bottou et Vladimir Vapnik, il rejoint les laboratoires NEC America à Princeton, qu’il quitte pour devenir en 2003 professeur au Courant Institute of Mathematical Sciences à l’université de New York. Au cours des années suivantes, les réseaux de neurones ayant déçu, il est très difficile de publier ou de recruter des doctorants. Cependant, l’Institut canadien pour les recherches avancées (Canadian Institute for Advanced Research, CIFAR) finance un programme qui va permettre à Yann Le Cun, Geoffrey Hinton et Yoshua Bengio de poursuivre leurs recherches.

Entre 2004 et 2012, à l’université de New York, Le Cun travaille sur les réseaux convolutionnels pour le traitement d’images. Il participe au programme LAGR (Learning Applied to Ground Robots) de la DARPA (Defense Advanced Research Projects Agency), géré par Larry Jackel. Il s’agit de permettre à des robots mobiles de naviguer dans des environnements extérieurs complexes en évitant les obstacles. Les techniques utilisées sont fondées sur des réseaux convolutionnels pour apprendre aux robots des images présentées.

Le 30 septembre 2012, AlexNet, un réseau convolutionnel profond développé dans l’équipe de Geoffrey Hinton par Alex Krizhevsky, et optimisé sur des processeurs graphiques, pulvérise les résultats de la compétition Large Scale Visual Recognition Challenge sur la base de données d’images ImageNet. Depuis, les réseaux convolutionnels profonds sont partout.

En 2012, Yann Le Cun fonde le Center for Data Science à l’université de New York. L’année suivante, il est chargé par Mark Zuckerberg de créer le Facebook Artificial Intelligence Research (FAIR), organisme regroupant des laboratoires de recherche spécialisés dans l’IA, et en devient le directeur. Il est nommé professeur invité au Collège de France à la chaire Informatique et sciences numériques (2015-2016).

La contribution en informatique de Yann Le Cun a été indispensable pour comprendre les mécanismes de fonctionnement des réseaux convolutionnels profonds, en vision notamment, ainsi que la façon de les mettre en œuvre dans des programmes informatiques efficaces. Il a ainsi ouvert de nouvelles voies de recherche pour l’IA, sur lesquelles travaillent des milliers de chercheurs.

—  Françoise FOGELMAN-SOULIÉ

Écrit par :

Classification

Voir aussi

Pour citer l’article

Françoise FOGELMAN-SOULIÉ, « LE CUN YANN (1960- ) », Encyclopædia Universalis [en ligne], consulté le 24 mars 2020. URL : http://www.universalis.fr/encyclopedie/yann-le-cun/