APPRENTISSAGE PROFOND ou DEEP LEARNING

Carte mentale

Élargissez votre recherche dans Universalis

Limites de l’apprentissage profond

En dépit des succès impressionnants qu’ils enregistrent et des bouleversements sociaux qu’ils induisent – via les applications qui en sont faites et qui permettent de remplacer beaucoup d’activités routinières –, ces techniques souffrent d’un certain nombre de limitations qui en restreignent les potentialités.

Les premières limitations tiennent à la grande quantité d’exemples nécessaires pour obtenir de très bonnes performances et au besoin d’étiqueter ces exemples. Or, l’étiquetage requiert une intervention humaine très coûteuse, d’autant plus que les exemples doivent être massifs (plusieurs centaines de milliers, voire plusieurs millions d’instances).

Il existe aussi une limitation intrinsèque à l’apprentissage supervisé qui tient au langage de description des exemples : celui-ci demeure figé et ne peut s’accroître automatiquement. Or, ce que le philosophe américain et historien des sciences Thomas Kuhn (1922-1996) appelle des « révolutions scientifiques », ou ce que le Français Gaston Bachelard (1884-1962) décrit comme des ruptures épistémologiques, passe par l’introduction de nouvelles notions qui viennent bousculer les conceptions anciennes et changer les systèmes de représentation – comme l’ont fait par exemple, en leur temps, le passage du système géocentrique (Terre au centre de l’Univers et immobile) de Ptolémée au système héliocentrique de Copernic (Soleil au centre de l’Univers et immobile) ou celui de la représentation newtonienne du temps à celle d’Einstein et de la relativité. Pour reprendre les termes de Thomas Kuhn, si les techniques d’apprentissage profond permettent d’automatiser en partie la « science normale », elles sont incapables de procéder à des changements de paradigmes.


1  2  3  4  5
pour nos abonnés,
l’article se compose de 5 pages

Écrit par :

Classification

Autres références

«  APPRENTISSAGE PROFOND ou DEEP LEARNING  » est également traité dans :

APPRENTISSAGE, psychologie

  • Écrit par 
  • Daniel GAONAC'H, 
  • Jean-François LE NY
  •  • 5 932 mots
  •  • 2 médias

Dans le chapitre « Depuis les années 1990 »  : […] Alors que, dans les années 1970-80, la psychologie cognitive a accordé plus d’attention à l’étude de la mémoire qu’à celle de l’apprentissage, l’évolution des connaissances à partir de la fin des années 1980 a conduit à une fusion des concepts et des théories de ces deux champs. En effet, les théories récentes qui cherchent à rendre compte des processus d’apprentissage s’appuient sur les conceptio […] Lire la suite

BIG DATA

  • Écrit par 
  • François PÊCHEUX
  •  • 6 152 mots
  •  • 3 médias

Dans le chapitre « Les aspects algorithmiques et logiciels du big data »  : […] Les logiciels de gestion de bases de données traditionnels s’appuient sur les mathématiques relatives à la théorie des ensembles pour appliquer des algorithmes de recherche exhaustifs et déterministes (pour un algorithme donné, les mêmes données initiales impliquent le même résultat en sortie) sur des données fortement structurées (en tables contenant des lignes d’informations pertinentes appelées […] Lire la suite

EXPÉRIENCE (notions de base)

  • Écrit par 
  • Philippe GRANAROLO
  •  • 9 791 mots

Dans le chapitre « Vers un homme-machine ? »  : […] « L’homme d’expérience » n’a pas pour autant disparu du paysage contemporain. Mais ne faut-il pas s’inquiéter du fait que les progrès spectaculaires de l’ intelligence artificielle conduisent certains de nos contemporains à « humaniser » nos machines en leur prêtant la capacité d’acquérir de l’expérience ? L’apparition récente du deep learning tend à rapprocher le fonctionnement mécanique du […] Lire la suite

INTELLIGENCE ARTIFICIELLE (IA)

  • Écrit par 
  • Jean-Gabriel GANASCIA
  •  • 5 073 mots
  •  • 5 médias

Dans le chapitre « Renaissance de l’intelligence artificielle  »  : […] Depuis 2010, la puissance des machines permet d’exploiter de grandes masses de données (ce que l’on appelle couramment les b ig d ata ) avec des techniques d’apprentissage machine qui se fondent sur le recours à des réseaux de neurones formels, c’est-à-dire à des techniques relativement anciennes que l’on déploie aujourd’hui sur des architectures de dimensions beaucoup plus importantes qu’auparava […] Lire la suite

LE CUN YANN (1960- )

  • Écrit par 
  • Françoise FOGELMAN-SOULIÉ
  •  • 1 252 mots
  •  • 1 média

Informaticien français, Yann Le Cun est un spécialiste de l’apprentissage profond ( deep l earning en anglais), méthode d’apprentissage automatique ( machine l earning en anglais) de réseaux de neurones artificiels, permettant de les entraîner (à partir d’une base de données d’exemples, par essais-erreurs) à réaliser une tâche donnée. Ses travaux sur les réseaux de neurones artificiels, et not […] Lire la suite

Pour citer l’article

Jean-Gabriel GANASCIA, « APPRENTISSAGE PROFOND ou DEEP LEARNING », Encyclopædia Universalis [en ligne], consulté le 19 septembre 2020. URL : https://www.universalis.fr/encyclopedie/apprentissage-profond-deep-learning/