APPRENTISSAGE PROFOND ou DEEP LEARNING

Carte mentale

Élargissez votre recherche dans Universalis

Rétropropagation de gradient

Il a fallu attendre le début des années 1980 pour que des mathématiciens généralisent le principe d’apprentissage des perceptrons et conçoivent, en s’inspirant de principes mathématiques issus de la physique statistique, une procédure capable d’apprendre sur des réseaux de neurones à plusieurs couches. En termes techniques, on appelle cette procédure la rétropropagation du gradient. Quelques années plus tard, d’autres mathématiciens cherchèrent à déterminer les fondements théoriques de cet apprentissage avec, entre autres, la théorie statistique de l’apprentissage. Cela les conduisit à développer d’autres techniques d’apprentissage supervisé inspirées des principes mathématiques de l’apprentissage sur les réseaux de neurones formels, comme ce que l’on appelle les machines à vecteurs de support (support vector machines) et les machines à noyaux (kernel machines), qui furent bien souvent utilisées dans les années 1990 et au début des années 2000 pour effectuer de l’apprentissage supervisé dans de multiples champs d’applications comme la reconnaissance de caractères manuscrits, de visages ou de la parole.

Réseau de neurones formels

Dessin : Réseau de neurones formels

Dessin

Ce dessin représente un réseau de neurones formels avec n entrées, p sorties et j couches. L'information s'y propage des entrées vers les sorties par l'intermédiaire de liaisons synaptiques pondérées par ce que l'on appelle des poids synaptiques (coefficients numériques indiquant... 

Crédits : Encyclopædia Universalis France

Afficher

1  2  3  4  5
pour nos abonnés,
l’article se compose de 5 pages

Écrit par :

Classification

Autres références

«  APPRENTISSAGE PROFOND ou DEEP LEARNING  » est également traité dans :

APPRENTISSAGE, psychologie

  • Écrit par 
  • Daniel GAONAC'H, 
  • Jean-François LE NY
  •  • 5 932 mots
  •  • 2 médias

Dans le chapitre « Depuis les années 1990 »  : […] Alors que, dans les années 1970-80, la psychologie cognitive a accordé plus d’attention à l’étude de la mémoire qu’à celle de l’apprentissage, l’évolution des connaissances à partir de la fin des années 1980 a conduit à une fusion des concepts et des théories de ces deux champs. En effet, les théories récentes qui cherchent à rendre compte des processus d’apprentissage s’appuient sur les conceptio […] Lire la suite

BIG DATA

  • Écrit par 
  • François PÊCHEUX
  •  • 6 152 mots
  •  • 3 médias

Dans le chapitre « Les aspects algorithmiques et logiciels du big data »  : […] Les logiciels de gestion de bases de données traditionnels s’appuient sur les mathématiques relatives à la théorie des ensembles pour appliquer des algorithmes de recherche exhaustifs et déterministes (pour un algorithme donné, les mêmes données initiales impliquent le même résultat en sortie) sur des données fortement structurées (en tables contenant des lignes d’informations pertinentes appelées […] Lire la suite

EXPÉRIENCE (notions de base)

  • Écrit par 
  • Philippe GRANAROLO
  •  • 2 784 mots

Dans le chapitre « Vers un homme-machine ? »  : […] « L’homme d’expérience » n’a pas pour autant disparu du paysage contemporain. Mais ne faut-il pas s’inquiéter du fait que les progrès spectaculaires de l’ intelligence artificielle conduisent certains de nos contemporains à « humaniser » nos machines en leur prêtant la capacité d’acquérir de l’expérience ? L’apparition récente du deep learning tend à rapprocher le fonctionnement mécanique du […] Lire la suite

INTELLIGENCE ARTIFICIELLE (IA)

  • Écrit par 
  • Jean-Gabriel GANASCIA
  •  • 5 073 mots
  •  • 5 médias

Dans le chapitre « Renaissance de l’intelligence artificielle  »  : […] Depuis 2010, la puissance des machines permet d’exploiter de grandes masses de données (ce que l’on appelle couramment les b ig d ata ) avec des techniques d’apprentissage machine qui se fondent sur le recours à des réseaux de neurones formels, c’est-à-dire à des techniques relativement anciennes que l’on déploie aujourd’hui sur des architectures de dimensions beaucoup plus importantes qu’auparava […] Lire la suite

LE CUN YANN (1960- )

  • Écrit par 
  • Françoise FOGELMAN-SOULIÉ
  •  • 1 252 mots
  •  • 1 média

Informaticien français, Yann Le Cun est un spécialiste de l’apprentissage profond ( deep l earning en anglais), méthode d’apprentissage automatique ( machine l earning en anglais) de réseaux de neurones artificiels, permettant de les entraîner (à partir d’une base de données d’exemples, par essais-erreurs) à réaliser une tâche donnée. Ses travaux sur les réseaux de neurones artificiels, et not […] Lire la suite

Voir aussi

Pour citer l’article

Jean-Gabriel GANASCIA, « APPRENTISSAGE PROFOND ou DEEP LEARNING », Encyclopædia Universalis [en ligne], consulté le 16 juin 2021. URL : https://www.universalis.fr/encyclopedie/apprentissage-profond-deep-learning/