BOUTIQUECONTACTASSISTANCE
Zone de recherche

Chiffres du MondeAltasAuteursRecherche thématiqueDictionnaire

INFORMATION THÉORIE DE L'

Quand on parle d'information, on pense souvent « information ayant une certaine valeur », ou « information pouvant servir à... ». Existe-t-il une théorie générale de l'information ? La théorie de l'information de Shannon (1949) a souvent été présentée comme cette théorie attendue. On admet aujourd'hui que les résultats qui en ont été tirés en biologie ou en informatique ne sont pas à la mesure des ambitions annoncées. Une seconde théorie de l'information, dite théorie algorithmique de l'information et due indépendamment à Andreï Kolmogorov et Gregory Chaitin (1965), se fonde sur la théorie du calcul d'Alan Turing (1936). Nous allons voir que ces deux théories sont liées l'une à l'autre.

Les exemples suivants de suites de caractères contenant de l'information doivent faire réfléchir : (a) la suite des caractères du texte du roman Les Misérables de Victor Hugo ; (b) la liste des emplacements des lance-missiles américains ; (c) une table de logarithmes ; (d) le génome complet d'un virus ; (e) un disque compact avec les concertos pour piano de Chopin ; (f) le programme du traitement de texte utilisé par l'auteur pour écrire cet article, tel qu'il est dans la mémoire de son ordinateur ; (g) le programme de ce même traitement de texte avant qu'il n'ait été compilé, qu'on appelle « programme source ».

Dans chaque cas, il s'agit d'objets possédant un contenu en information et ayant une certaine valeur : ils ont pu être vendus et achetés, on a dépensé de l'argent pour les produire, on continue d'en dépenser pour les conserver. Le contenu brut d'information pour chacun de ces objets est donné par le nombre de bits (éléments de mémoire binaire, 0 ou 1) nécessaires pour enregistrer la chaîne de caractères dans la mémoire d'un ordinateur quand on ne lui fait subir aucun traitement particulier. Le contenu brut d'information d'une chaîne de caractères s de longueur n est n si s ne comporte que des 0 et des 1 et c'est n log m /log 2 si la chaîne comporte des caractères pris parmi m. Dans nos exemple […]

1 2 3 4 5

… pour nos abonnés, l'article se prolonge sur  4 pages…

Classification thématique de cet article :

 

Offre essai 7 jours

« INFORMATION THÉORIE DE L' » est également traité dans :

ATTENTION

Écrit par :  Anne-Marie BONNELCamille-Aimé POSSAMAÏJean REQUIN

Dans le chapitre "La notion d'attention"  : …  des modulations attentionnelles de l'activité motrice est liée à l'influence profonde de la *théorie de l'information, issue de la physique, dans le développement de la psychologie expérimentale moderne. Formalisant les transformations que subit un « signal » aux étapes successives d'un « canal » de transmission de l'information, cette… Lire la suite
BRILLOUIN LÉON (1889-1969)

Écrit par :  André GUINIER

…  d'importants mémoires sur la propagation des ondes guidées et la diffraction par des sphères. *Théorie de l'information. Léon Brillouin a introduit la notion de néguentropie, c'est-à-dire l'entropie changée de signe : pour diminuer l'entropie d'un système isolé, il faut lui fournir de la néguentropie. Il a prouvé l'équivalence de la… Lire la suite
COGNITION

Écrit par :  Chrystel BESCHE-RICHARDRaymond CAMPAN

Dans le chapitre "Intelligence artificielle et sciences cognitives"  : …  la psychologie comportementale refusait de s'intéresser. Analyser les phénomènes internes de* « traitement de l'information » qui opèrent entre la venue d'un stimulus et la réponse produite par l'individu n'inscrit pas pour autant l'étude de la cognition dans le champ de la subjectivité. Cette prospection consiste à décomposer, à partir de… Lire la suite
COGNITIVES SCIENCES

Écrit par :  Daniel ANDLER

Dans le chapitre "Phase I (1950-1970) : l'émergence"  : …  émerger. L'année décisive est 1956. Au M.I.T., se tient, du 10 au 12 septembre, un « Symposium on *Information Theory » qui marque symboliquement, aux yeux de plusieurs des principaux acteurs, le début d'un nouveau mouvement, intégrant dans une perspective commune la psychologie expérimentale, la linguistique théorique et la simulation par… Lire la suite
COMMUNICATION

Écrit par :  Yves WINKIN

Dans le chapitre "Une théorie mathématique de la communication"  : …  au Massachusetts Institute of Technology (M.I.T.) autour de Claude Shannon, un spécialiste des* théories mathématiques de l'information, pour repenser la transmission télégraphique. Le télégraphe est en effet fondamental en temps de guerre. Le problème, c'est que le message envoyé n'est jamais entièrement restitué ; il y a toujours une perte d… Lire la suite
COMMUNICATION - Les processus de la communication

Écrit par :  Robert PAGÈS

… signification (version du destinataire). On reconnaîtra ici le schéma élémentaire usité dans la *théorie de l'information.  Cette assimilation au schéma informationnel est justifiée dans la mesure où, pour qu'il y ait communication, il faut nécessairement que les communicateurs (émetteur et récepteur) disposent de moyens d'information… Lire la suite
ENTROPIE

Écrit par :  Bernard DIU

Dans le chapitre "L'entropie statistique"  : …  se réaliser, certains ayant toutefois, en général, plus de chances de le faire que d'autres. La *théorie de l'information, développée depuis les travaux de Claude Shannon et Warren Weaver (1948), propose de mesurer quantitativement le manque d'information par l'entropie statistique S, définie comme S = — k Σ n=1NLire la suite
FINALITÉ

Écrit par :  Raymond RUYER

Dans le chapitre "La création de formes"  : …  mode de différenciation progressive par implication, malgré quelques simplifications secondaires. *En d'autres termes, l'action finaliste est créatrice d'information, de négentropie, même si elle accroît globalement l'entropie par ses machines auxiliaires. Elle est capable de remonter localement le courant de désordre. Plus exactement, elle crée… Lire la suite
FORME

Écrit par :  Jean PETITOT

Dans le chapitre "Formes et perception visuelle"  : …  cognitives est le paradigme computo-représentationnel, mentaliste, symbolique, fonctionnaliste. *On suppose que le monde réel de l'objectivité physique envoie des informations (par exemple, des ondes lumineuses, des ondes sonores, etc.). Cette information externe, a priori non significative pour le système cognitif, est convertie par des… Lire la suite
INFORMATION GÉNÉTIQUE

Écrit par :  Henri ATLAN

Dans le chapitre "Codage génétique et biosynthèse des protéines"  : …  les problèmes posés par cette traduction sont ceux d'une voie de communication dans la *théorie de l'information de Shannon, voie caractérisée par un message d'entrée (la séquence nucléotidique de l'ADN) et un message de sortie (la séquence d'acides aminés de la protéine). Messages d'entrée et messages de sortie sont porteurs d'une certaine… Lire la suite
JEUX THÉORIE DES

Écrit par :  Bernard GUERRIEN

Dans le chapitre "Les hypothèses sur l'information "  : …  *La plupart des modèles de théorie des jeux supposent qu'il y a information complète : chacun connaît ses stratégies et celles des autres, leurs caractéristiques et leurs motivations, ainsi que les diverses issues possibles du jeu (avec les gains correspondants). En résumé, chacun sait tout sur tout, y compris que les autres savent qu'il… Lire la suite
KHINTCHINE ALEXANDRE IAKOVLEVITCH (1894-1959)

Écrit par :  Universalis

… *Mathématicien soviétique, né à Kondrovo et mort à Moscou, membre correspondant de l'Académie des sciences de l'U.R.S.S., professeur à l'université de Moscou, prix Staline (1941). Ses premiers travaux concernent la théorie des fonctions d'une variable réelle, où il introduit la notion de dérivée asymptotique, généralise la notion d'intégrale de… Lire la suite
KOLMOGOROV THÉORIE DE LA COMPLEXITÉ DE

Écrit par :  Jean-Paul DELAHAYE

…  car elle synthétise en un seul nombre plusieurs mesures de complexité dont celle que propose* la théorie de l'information de l'Américain Claude Shannon (1916-2001), dont elle est la généralisation. Le revers de la médaille de cette généralité de la complexité de Kolmogorov est son lien avec les théorèmes d'incomplétude de l'Austro-Américain… Lire la suite
RÉSEAUX, philosophie de l'organisation

Écrit par :  Gabriel DUPUY

Dans le chapitre "La science des réseaux au XXe siècle : de l'électricité à l'informatique"  : …  (échanges thermodynamiques en réseaux). Enfin, depuis quelques décennies, la notion d'*information réinvestit la vieille métaphore du réseau. C'est d'abord l'image du tissu, des mailles, du filet qui revient au-devant de la scène. Il s'agit bien de liens multiples entre les éléments, hommes ou machines. Mais la nature de ces liens et de la… Lire la suite
SHANNON CLAUDE ELWOOD (1916-2001)

Écrit par :  Frédéric GAUTHIER

… Né *le 30 avril 1916 à Gaylord (Michigan, États-Unis), Claude Elwood Shannon est considéré par l'ensemble de la communauté scientifique comme le père fondateur de la théorie de l'information et des communications numériques. En 1940, il obtient un master en ingénierie électrique et un doctorat en mathématique du Massachusetts Institute of… Lire la suite
TEMPS

Écrit par :  Hervé BARREAUOlivier COSTA DE BEAUREGARD

Dans le chapitre "Information et entropie"  : …  *Notre ultime discussion sur l'irréversibilité sera plus philosophique et portera sur la relation entre information et entropie (cf. entropie, chap. 3). La définition technique d'une information est la même que celle d'une entropie changée de signe (ou néguentropie : « moins » le logarithme d'une probabilité). Bien que sa définition soit… Lire la suite
TRANSFERT, psychanalyse

Écrit par :  Pierre KAUFMANN

Dans le chapitre "Transfert d'apprentissage et transfert psychanalytique"  : …  de la « récompense » apportée par une bonne réponse, mais aussi des erreurs. Dans ces conditions, l'*information ne peut être consolidée que dans la mesure où sont contrariés les effets des facteurs de détérioration de l'information ; et au premier chef pourra être ici précisé le rôle de la stratégie assumée par le sujet. On restituerait aisément l'… Lire la suite
VIE

Écrit par :  Georges CANGUILHEM

Dans le chapitre "La vie comme information"  : …  *Si l'on entend par cybernétique une théorie générale des opérations contrôlées, exécutées par des machines montées de façon telle que leurs effets ou leurs produits soient conformes à des normes fixées ou ajustés à des situations instables, on conviendra qu'il était normal que les régulations organiques, et avant tout celles qu'assure le système… Lire la suite

Afficher la liste complète (18 références)

 

Accueil - Contact - Mentions légales
Consulter les articles d'Encyclopædia Universalis : 0-9 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
Consulter le dictionnaire de l'Encyclopædia Universalis
Consulter les articles d'Encyclopædia Britannica.
© 2014, Encyclopædia Universalis France. Tous droits de propriété industrielle et intellectuelle réservés.

chargement du média