ENTROPIE

Carte mentale

Élargissez votre recherche dans Universalis

L'entropie statistique

Intervient dans la formule de Boltzmann le nombre total W d'états microscopiques accessibles lorsque est fixé l'état macroscopique du système. Voilà qui est surprenant : on s'attendait plutôt à ce que l'un de ces états soit réalisé – même s'il est sans doute impossible de savoir lequel –, ce qui exclurait les autres. Ce dilemme est résolu si l'on admet que la description microscopique d'un système macroscopique est de nature probabiliste : les W états microscopiques compatibles avec des conditions macroscopiques données ont chacun – pour un système isolé − la probabilité 1/W d'être effectivement choisis dans la réalité.

La notion d'entropie s'étend à une situation probabiliste quelconque : N événements possibles e1, e2,... en,..., eN ont les probabilités respectives P1, P2,..., Pn,..., PN, avec 0 ≤ Pn ≤ 1 pour tout n, et Σn=1N Pn = 1.

Si l'une de ces probabilités est égale à 1, l'événement correspondant est certain, tous les autres étant impossibles puisque leurs probabilités sont nécessairement nulles. On considère que, dans ce cas particulier, on possède sur le système toute l'information nécessaire, puisqu'on sait à coup sûr quel événement va se produire. À une distribution de probabilités {Pn} différente de la précédente est en revanche associé un certain manque d'information : n'importe lequel des N événements peut se réaliser, certains ayant toutefois, en général, plus de chances de le faire que d'autres. La théorie de l'information, développée depuis les travaux de Claude Shannon et Warren Weaver (1948), propose de mesurer quantitativement le manque d'information par l'entropie statistique S, définie comme S = — k Σ n=1N Pn ln Pn (définition). la constante positive k est a priori arbitraire (en mécanique statistique, ce sera la constante de Boltzmann) ; les diverses probabilités étant toutes positives mais inférieures à 1, leur logarithme est négatif, de sorte que S est toujours positive. Dans la situation particulière où les probabilités Pn sont toutes égales (chacune d'elles vaut [...]

1  2  3  4  5
pour nos abonnés,
l’article se compose de 3 pages

Écrit par :

  • : professeur émérite à l'université de Paris-VII-Denis-Diderot

Classification

Autres références

«  ENTROPIE  » est également traité dans :

BOLTZMANN LUDWIG (1844-1906)

  • Écrit par 
  • Pierre COSTABEL
  •  • 1 634 mots
  •  • 1 média

Dans le chapitre « L'interprétation probabiliste du deuxième principe de la thermodynamique »  : […] À partir de ce deuxième principe, Loschmidt a présenté à Boltzmann une objection redoutable, souvent reprise depuis lors, et qui consiste à affirmer l'impossibilité de faire sortir des équations réversibles de la mécanique une interprétation des processus irréversibles de la thermodynamique. Boltzmann a parfaitement compris la valeur de l'objection et y a trouvé un levier puissant pour renouveler […] Lire la suite

CLAUSIUS RUDOLF (1822-1888)

  • Écrit par 
  • Robert FOX
  •  • 999 mots

Dans le chapitre « L'entropie »  : […] En 1854, Clausius, poussant plus avant les vues exprimées dès 1850, proposa le premier énoncé clair du concept de l'entropie. Il cherchait à mesurer l'aptitude de l'énergie calorifique de n'importe quel système réel non idéal à fournir du travail. Dans le cas de la conduction thermique le long d'un barreau solide, par exemple, la chaleur passe de l'extrémité chaude à l'extrémité froide sans fourn […] Lire la suite

ÉNERGIE - La notion

  • Écrit par 
  • Julien BOK
  •  • 7 639 mots
  •  • 4 médias

Dans le chapitre « Les principes de la thermodynamique »  : […] Le premier principe, ou principe de l'équivalence , énonce l'équivalence du travail et de la chaleur. Dans une transformation fermée, où le système revient à un état macroscopique identique à celui dont il est parti, l'énergie interne n'a pas varié. Si le système a reçu du travail, il a cédé de la chaleur et, s'il a reçu de la chaleur, il a cédé du travail. Dans une transformation quelconque, on […] Lire la suite

HASARD & NÉCESSITÉ

  • Écrit par 
  • Ilya PRIGOGINE, 
  • Isabelle STENGERS
  • , Universalis
  •  • 9 586 mots

Dans le chapitre « De Boltzmann à Von Neumann »  : […] Jusqu'ici, les thèmes de la nécessité et du hasard, au sens scientifique, n'ont pas été présentés en tant que parties prenantes de problèmes scientifiques. Le démon de Laplace comme le hasard et la nécessité de Monod n'autorisent aucun modèle précis dont la pertinence pourrait être mise à l'épreuve à partir du monde observable mais indiquent seulement comment on doit juger ce monde. Quant à la mé […] Lire la suite

IRRÉVERSIBILITÉ

  • Écrit par 
  • Radu BALESCU
  •  • 2 381 mots

Dans le chapitre « Théorie cinétique de Boltzmann »  : […] Historiquement, le premier modèle moléculaire d'un phénomène irréversible fut fourni par la théorie cinétique des gaz de L. Boltzmann, développée à la fin du xix e  siècle. Cette théorie concerne la fonction de distribution réduite f 1 ( q , p  ; t  ) (densité de probabilité de trouver une particule en q avec l'impulsion p , à l'instant t  ). Celle-ci s'obtient à partir de F par intégration sur […] Lire la suite

LIAISONS CHIMIQUES - Liaisons biochimiques faibles

  • Écrit par 
  • Antoine DANCHIN
  •  • 5 907 mots
  •  • 9 médias

Dans le chapitre « Morphogenèse des macromolécules et de leurs associations »  : […] Les macromolécules biologiques sont des polymères à la structure originale. Deux classes particulièrement importantes sont les acides nucléiques , dont la structure est associée à leur rôle de matrice du patrimoine héréditaire, et les protéines , qui sont les objets de l'expression de ce patrimoine et les effecteurs de la vie cellulaire. Les protéines sont constituées par un enchaînement linéaire […] Lire la suite

MATIÈRE (physique) - État gazeux

  • Écrit par 
  • Henri DUBOST, 
  • Jean-Marie FLAUD
  •  • 8 280 mots
  •  • 9 médias

Dans le chapitre « Équation d'état des gaz réels  »  : […] Les premières expériences qui ont montré qu'aucun gaz réel ne suit exactement la loi de Boyle-Mariotte ont été réalisées en 1847 par Victor Regnault (1810-1878). L'étude de la compressibilité des gaz a été ensuite poursuivie pendant plus d'un siècle, avec une précision croissante qui atteint 10 —4 dans les expériences modernes. Les déviations des gaz réels par rapport au gaz parfait sont mises en […] Lire la suite

MÉTAMORPHISME ET GÉODYNAMIQUE

  • Écrit par 
  • Christian NICOLLET
  •  • 5 987 mots
  •  • 8 médias

Dans le chapitre « La roche peut recristalliser lorsque T varie »  : […] Lorsqu’une roche de surface, froide, s’enfonce dans le globe chaud, un transfert de chaleur se produit entre cette roche qui se réchauffe et son environnement. Cette augmentation de chaleur et de température augmente le désordre (ou entropie) dans la roche. Or les minéraux ont des structures très régulières qui supportent peu ce désordre, cette variation de l’entropie. Aussi, les minéraux de bass […] Lire la suite

NÉGUENTROPIE

  • Écrit par 
  • Alain DELAUNAY
  •  • 1 140 mots

Ce terme a été créé, semble-t-il, par le mathématicien et physicien français Léon Brillouin (1956, Science and Information Theory ). Il l'a proposé pour remplacer les expressions d'« entropie négative » ou « entropie changée de signe », employée à peu près simultanément, mais indépendamment, par Norbert Wiener et Erwin Schrödinger. Ce dernier, dans un livre important ( What is Life ? , 1945), avai […] Lire la suite

PRIGOGINE ILYA (1917-2003)

  • Écrit par 
  • Isabelle STENGERS
  • , Universalis
  •  • 2 108 mots
  •  • 1 média

Dans le chapitre « Structures dissipatives »  : […] Ilya Prigogine est né le 25 janvier 1917 à Moscou, il est le fils d'un ingénieur chimiste devenu directeur d'usine. Fuyant la Russie soviétique en 1921, la famille s'installe à Bruxelles après un court séjour à Berlin. Après avoir fait ses études secondaires à l'Athénée d'Ixelles, un faubourg de Bruxelles, Ilya Prigogine entre à l'Université libre de Bruxelles pour étudier la chimie et la physique […] Lire la suite

Voir aussi

Pour citer l’article

Bernard DIU, « ENTROPIE », Encyclopædia Universalis [en ligne], consulté le 15 juin 2021. URL : https://www.universalis.fr/encyclopedie/entropie/