Abonnez-vous à Universalis pour 1 euro

ENTROPIE, théorie de l'information

Articles

  • COMMUNICATION

    • Écrit par
    • 4 813 mots
    ...Shannon va modéliser le processus télégraphique, avec force équations et schémas. Si l'on pose a priori que tout système, mécanique ou vivant, tend vers l'« entropie », c'est-à-dire vers la disparition totale de toute circulation d'information, on peut proposer que tout ce qui permet à un système de contrer...
  • COMMUNICATION - Les processus de la communication

    • Écrit par
    • 6 234 mots
    ...temps. Dans cette définition de la quantité d'information par le maximum de désordre (ou le minimum de prédétermination), on retrouve la définition de l' entropie. La formule fondamentale en est :
    dans laquelle pi est la probabilité d'apparition d'un élément ou signal quelconque.
  • ENTROPIE

    • Écrit par
    • 1 350 mots
    • 2 médias
    ...l'information, développée depuis les travaux de Claude Shannon et Warren Weaver (1948), propose de mesurer quantitativement le manque d'information par l'entropie statistique S, définie comme S = — k Σ n=1N Pn ln Pn (définition). la constante positive k est a priori arbitraire (en mécanique...
  • INFORMATION THÉORIE DE L'

    • Écrit par , et
    • 3 063 mots
    ...poursuivi est de transmettre une chaîne de caractère s à un récepteur disposant de la connaissance des fréquences p(i) des lettres de l'alphabet {a1a2, ..., an}, on définira la valeur en information de s relativement à p(i) et ai, valeur appelée entropie et notée E(s, {p(i)}), par :
  • SHANNON CLAUDE ELWOOD (1916-2001)

    • Écrit par
    • 902 mots
    • 1 média

    Né le 30 avril 1916 à Gaylord (Michigan, États-Unis), Claude Elwood Shannon est considéré par l'ensemble de la communauté scientifique comme le père fondateur de la théorie de l'information et des communications numériques.

    En 1940, il obtient un master en ingénierie électrique et...