Abonnez-vous à Universalis pour 1 euro

ENTROPIE

L'entropie statistique

Intervient dans la formule de Boltzmann le nombre total W d'états microscopiques accessibles lorsque est fixé l'état macroscopique du système. Voilà qui est surprenant : on s'attendait plutôt à ce que l'un de ces états soit réalisé – même s'il est sans doute impossible de savoir lequel –, ce qui exclurait les autres. Ce dilemme est résolu si l'on admet que la description microscopique d'un système macroscopique est de nature probabiliste : les W états microscopiques compatibles avec des conditions macroscopiques données ont chacun – pour un système isolé − la probabilité 1/W d'être effectivement choisis dans la réalité.

La notion d'entropie s'étend à une situation probabiliste quelconque : N événements possibles e1, e2,... en,..., eN ont les probabilités respectives P1, P2,..., Pn,..., PN, avec 0 ≤ Pn ≤ 1 pour tout n, et Σn=1N Pn = 1.

Si l'une de ces probabilités est égale à 1, l'événement correspondant est certain, tous les autres étant impossibles puisque leurs probabilités sont nécessairement nulles. On considère que, dans ce cas particulier, on possède sur le système toute l'information nécessaire, puisqu'on sait à coup sûr quel événement va se produire. À une distribution de probabilités {Pn} différente de la précédente est en revanche associé un certain manque d'information : n'importe lequel des N événements peut se réaliser, certains ayant toutefois, en général, plus de chances de le faire que d'autres. La théorie de l'information, développée depuis les travaux de Claude Shannon et Warren Weaver (1948), propose de mesurer quantitativement le manque d'information par l'entropie statistique S, définie comme S = — k Σ n=1N Pn ln Pn (définition). la constante positive k est a priori arbitraire (en mécanique statistique, ce sera la constante de Boltzmann) ; les diverses probabilités étant toutes positives mais inférieures à 1, leur logarithme est négatif, de sorte que S est toujours positive. Dans la situation particulière où les probabilités Pn sont toutes égales (chacune d'elles vaut alors 1/N), on retrouve une expression analogue à la formule de Boltzmann : S = k ln N si Pn = 1/N pour tout n. On montre facilement que cette situation est celle où l'entropie statistique S est maximale ; c'est effectivement lorsque aucun événement n'est privilégié par rapport aux autres que le manque d'information est intuitivement maximum.

Ainsi, l'entropie thermodynamique d'un système s'interprète, dans le cadre de la mécanique statistique, comme la mesure du manque d'information qui subsiste au niveau microscopique lorsque l'état macroscopique de ce système est donné. Par ailleurs, l'entropie statistique peut être utilisée dans d'autres contextes où interviennent des probabilités.

— Bernard DIU

La suite de cet article est accessible aux abonnés

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrez nos offres

Déjà abonné ? Se connecter

Écrit par

  • : professeur émérite à l'université de Paris-VII-Denis-Diderot

Classification

Médias

Lord Kelvin - crédits : Herbert Barraud/ Getty Images

Lord Kelvin

Ludwig Boltzmann - crédits : ullstein bild/ Getty Images

Ludwig Boltzmann

Autres références

  • BOLTZMANN LUDWIG (1844-1906)

    • Écrit par
    • 1 634 mots
    • 1 média
    ...gaz par l'ensemble des nombres n et précisa la probabilité relative de cet état. Il montra que le logarithme de la probabilité coïncide avec l' entropie S, à un facteur et à une constante k près, dans l'état d'équilibre thermodynamique, et que cette probabilité conserve un sens pendant tout processus...
  • CLAUSIUS RUDOLF (1822-1888)

    • Écrit par
    • 1 001 mots
    En 1854, Clausius, poussant plus avant les vues exprimées dès 1850, proposa le premier énoncé clair du concept de l'entropie. Il cherchait à mesurer l'aptitude de l'énergie calorifique de n'importe quel système réel non idéal à fournir du travail. Dans le cas de la conduction ...
  • ÉNERGIE - La notion

    • Écrit par
    • 7 543 mots
    • 4 médias
    ...configuration microscopique correspondant à un même état thermodynamique d'énergie donnée a la même probabilité d'être réalisée : principe microcanonique. L'état macroscopique qui est le plus probable est celui qui correspond au nombre maximal Ω de configurations microscopiques possibles. On définit l'entropie...
  • HASARD & NÉCESSITÉ

    • Écrit par , et
    • 9 614 mots
    ...vain de séparer déterminisme dynamique et réversibilité (I. Prigogine et I. Stengers, 1988), c'est-à-dire de montrer que l'évolution irréversible, à entropie croissante, vers l' équilibre thermodynamique si elle n'avait pas de sens en ce qui concerne une particule individuelle, pouvait prendre un sens...
  • Afficher les 27 références