APPRENTISSAGE PROFOND ou DEEP LEARNING

Carte mentale

Élargissez votre recherche dans Universalis

Le perceptron

En 1957, un psychologue américain, Frank Rosenblatt (1928-1971), met au point un algorithme d’apprentissage pour des réseaux de neurones formels à deux couches qu’il appelle des « perceptrons », car ils reproduisent selon lui les capacités de perception des rétines.

Or, si Walter Pitts avait bien montré que les réseaux de neurones à trois couches pouvaient réaliser n’importe quelle fonction logique, il n’en va pas de même pour les réseaux à deux couches, tant s’en faut. En 1969, Marvin Minsky (1927-2016) démontre que la procédure d’apprentissage décrite par Frank Rosenblatt n’apprend que des fonctions très simples, dites linéairement séparables. Ainsi une fonction logique aussi élémentaire qu’un « ou » exclusif – qui vaut 1 si l’une de ses deux entrées est égale à 1 et l’autre à 0, et 0 sinon – ne saurait être réalisée, et a fortiori apprise, sur un perceptron à deux couches.


1  2  3  4  5
pour nos abonnés,
l’article se compose de 5 pages






Écrit par :

Classification


Autres références

«  APPRENTISSAGE PROFOND ou DEEP LEARNING  » est également traité dans :

APPRENTISSAGE, psychologie

  • Écrit par 
  • Daniel GAONAC'H, 
  • Jean-François LE NY
  •  • 5 932 mots
  •  • 2 médias

Dans le chapitre « Depuis les années 1990 »  : […] Alors que, dans les années 1970-80, la psychologie cognitive a accordé plus d’attention à l’étude de la mémoire qu’à celle de l’apprentissage, l’évolution des connaissances à partir de la fin des années 1980 a conduit à une fusion des concepts et des théories de ces deux champs. En effet, les théories récentes qui cherchent à rendre compte des processus d’apprentissage s’appuient sur les conceptio […] Lire la suite

BIG DATA

  • Écrit par 
  • François PÊCHEUX
  •  • 6 152 mots
  •  • 3 médias

Dans le chapitre « Les aspects algorithmiques et logiciels du big data »  : […] Les logiciels de gestion de bases de données traditionnels s’appuient sur les mathématiques relatives à la théorie des ensembles pour appliquer des algorithmes de recherche exhaustifs et déterministes (pour un algorithme donné, les mêmes données initiales impliquent le même résultat en sortie) sur des données fortement structurées (en tables contenant des lignes d’informations pertinentes appelées […] Lire la suite

INTELLIGENCE ARTIFICIELLE (IA)

  • Écrit par 
  • Jean-Gabriel GANASCIA
  •  • 5 073 mots
  •  • 5 médias

Dans le chapitre « Renaissance de l’intelligence artificielle  »  : […] Depuis 2010, la puissance des machines permet d’exploiter de grandes masses de données (ce que l’on appelle couramment les b ig d ata ) avec des techniques d’apprentissage machine qui se fondent sur le recours à des réseaux de neurones formels, c’est-à-dire à des techniques relativement anciennes que l’on déploie aujourd’hui sur des architectures de dimensions beaucoup plus importantes qu’auparava […] Lire la suite

LE CUN YANN (1960- )

  • Écrit par 
  • Françoise FOGELMAN-SOULIÉ
  •  • 1 252 mots
  •  • 1 média

Informaticien français, Yann Le Cun est un spécialiste de l’apprentissage profond ( deep l earning en anglais), méthode d’apprentissage automatique ( machine l earning en anglais) de réseaux de neurones artificiels, permettant de les entraîner (à partir d’une base de données d’exemples, par essais-erreurs) à réaliser une tâche donnée. Ses travaux sur les réseaux de neurones artificiels, et not […] Lire la suite

Voir aussi

Pour citer l’article

Jean-Gabriel GANASCIA, « APPRENTISSAGE PROFOND ou DEEP LEARNING », Encyclopædia Universalis [en ligne], consulté le 22 mars 2020. URL : http://www.universalis.fr/encyclopedie/apprentissage-profond-deep-learning/