ENTROPIE

Carte mentale

Élargissez votre recherche dans Universalis

La notion d'entropie est née au plein milieu du xixe siècle. La théorie de la chaleur qui avait alors cours – celle du « fluide calorique » qu'avait développée Antoine Laurent de Lavoisier (1743-1794) – était fondée sur une hypothèse de conservation de la chaleur. Cette « loi » supposée impliquait, entre autres conséquences, que la chaleur contenue dans un corps isolé (dont tout échange avec l'extérieur est interdit) était invariable. Benjamin Thompson (1753-1814) montra pourtant, expérimentalement, que la chaleur ne se conserve pas. Devant le vide théorique ainsi créé, Rudolf Clausius (1822-1888), William Rankine (1820-1872) et William Thomson, lord Kelvin (1824-1907), cherchèrent, indépendamment les uns des autres, s'il pouvait exister une autre grandeur, apparentée à la chaleur, qui se conserverait. Ils étaient guidés en cela par les idées que Sadi Carnot (1796-1832) avait exposées dans un mémoire prémonitoire, La Puissance motrice du feu (1824). Le résultat de ces recherches fut l'invention de l'entropie (1854). Ce nom vient d'un mot grec, entropê, qui signifie « retour ».

La variation d'entropie

La variation d'entropie entre deux états d'un système thermodynamique se calcule à partir d'une transformation réversible (Carnot disait « idéale ») qui joint ces deux états. Supposons que, au cours de cette transformation, le système soit mis en contact avec plusieurs sources de chaleur, de températures absolues T1, T2,..., qui lui fournissent les quantités de chaleur (algébriques) Q1, Q2,... respectivement. La variation d'entropie ΔS entre les deux états considérés est la somme des quotients Q1/T1, Q2/T2,... associés aux diverses sources : ΔS = Q1/T+ Q2/T+... (transformation réversible).

Mais Clausius eut une intuition qui allait s'avérer primordiale. Partant du fait, qu'il avait élevé au rang de principe, que la chaleur ne s'écoule jamais d'un corps plus froid vers un corps plus chaud, il proposa que l'égalité précédente devînt, pour les transformations réelles, une inégalité, qui porte depuis le nom de Clausius : ΔS ≥ Q1/T1+ Q2/T2 +... ΔS est toujours la différence entre l'entropie du système dans son état final et celle de son état initial ; Q1 est la quantité de chaleur (comptée algébriquement) que le système a reçue de la source de température absolue T1,... ; l'inégalité de Clausius se transforme en égalité pour les transformations réversibles, et pour elles seulement.

L'inégalité de Clausius exprime de façon compacte le deuxième principe de la thermodynamique, dont les applications sont multiples et variées.

L'entropie de Boltzmann

Le xixe siècle vit aussi l'essor de l'hypothèse atomique, selon laquelle tous les corps sont faits d'atomes. C'est le développement de la chimie quantitative, initiée par Lavoisier, qui amena ainsi à reprendre pour l'affirmer une idée au demeurant fort ancienne puisqu'elle remonte à l'Antiquité grecque.

La thermodynamique n'avait, quant à elle, nul besoin d'une réalité sous-jacente – que l'on qualifie de microscopique – pour analyser avec succès les propriétés des corps à l'échelle courante – macroscopique. En 1872, pourtant, Ludwig Boltzmann (1844-1906) présenta une théorie nouvelle, que l'on appelle depuis mécanique statistique : elle se proposait, partant du microscopique (les atomes), d'en inférer les lois de la thermodynamique macroscopique. Ce lien entre le microscopique et le macroscopique s'exprime de façon saisissante dans la célèbre formule de Boltzmann : S = k ln W, dont voici l'interprétation. Un système thermodynamique est préparé, à l'échelle macroscopique, dans un état déterminé, où son entropie est S. Il existe, au niveau microscopique, un très grand nombre de configurations qui sont susceptibles de réaliser cet état macroscopique : par exemple, un litre de gaz, pris dans les conditions habituelles, renferme environ trente mille milliards de milliards de molécules ; les façons dont elles peuvent s'agencer, dans ce volume d'un litre, pour se partager une énergie macroscopique déterminée sont effectivement en nombre fabuleux. Boltzmann notait W ce nombre d'états microscopiques équivalents du point de vue macroscopique. Selon lui, l'entropie thermodynamique S de l'état macroscopique considéré est proportionnelle au logarithme de W ; le facteur de proportionnalité k, connu sous le nom de constante de Boltzmann, vaut k = 1,38 × 10—23 joule/kelvin. On peut insister sur le fait que W est gigantesque : son logarithme, multiplié par k, doit donner une entropie de quelques joule/kelvin ; le logarithme de W est donc de l'ordre du nombre d'Avogadro (6 × 1023).

Ludwig Boltzmann

Ludwig Boltzmann

photographie

Physicien et philosophe des sciences, Ludwig Boltzmann (1844-1906) a laissé de nombreux théorèmes, lois et équations qui portent son nom. 

Crédits : Hulton Getty

Afficher

La mécanique statistique issue des travaux de Boltzmann n'a cessé depuis de se conforter et de s'avérer.

L'entropie statistique

Intervient dans la formule de Boltzmann le nombre total W d'états microscopiques accessibles lorsque est fixé l'état macroscopique du système. Voilà qui est surprenant : on s'attendait plutôt à ce que l'un de ces états soit réalisé – même s'il est sans doute impossible de savoir lequel –, ce qui exclurait les autres. Ce dilemme est résolu si l'on admet que la description microscopique d'un système macroscopique est de nature probabiliste : les W états microscopiques compatibles avec des conditions macroscopiques données ont chacun – pour un système isolé − la probabilité 1/W d'être effectivement choisis dans la réalité.

La notion d'entropie s'étend à une situation probabiliste quelconque : N événements possibles e1, e2,... en,..., eN ont les probabilités respectives P1, P2,..., Pn,..., PN, avec 0 ≤ Pn ≤ 1 pour tout n, et Σn=1N Pn = 1.

Si l'une de ces probabilités est égale à 1, l'événement correspondant est certain, tous les autres étant impossibles puisque leurs probabilités sont nécessairement nulles. On considère que, dans ce cas particulier, on possède sur le système toute l'information nécessaire, puisqu'on sait à coup sûr quel événement va se produire. À une distribution de probabilités {Pn} différente de la précédente est en revanche associé un certain manque d'information : n'importe lequel des N événements peut se réaliser, certains ayant toutefois, en général, plus de chances de le faire que d'autres. La théorie de l'information, développée depuis les travaux de Claude Shannon et Warren Weaver (1948), propose de mesurer quantitativement le manque d'information par l'entropie statistique S, définie comme S = — k Σ n=1N Pn ln Pn (définition). la constante positive k est a priori arbitraire (en mécanique statistique, ce sera la constante de Boltzmann) ; les diverses probabilités étant toutes positives mais inférieures à 1, leur logarithme est négatif, de sorte que S est toujours positive. Dans la situation particulière où les probabilités Pn sont toutes égales (chacune d'elles vaut alors 1/N), on retrouve une expression analogue à la formule de Boltzmann : S = k ln N si Pn = 1/N pour tout n. On montre facilement que cette situation est celle où l'entropie statistique S est maximale ; c'est effectivement lorsque aucun événement n'est privilégié par rapport aux autres que le manque d'information est intuitivement maximum.

Ainsi, l'entropie thermodynamique d'un système s'interprète, dans le cadre de la mécanique statistique, comme la mesure du manque d'information qui subsiste au niveau microscopique lorsque l'état macroscopique de ce système est donné. Par ailleurs, l'entropie statistique peut être utilisée dans d'autres contextes où interviennent des probabilités.

—  Bernard DIU

Écrit par :

  • : professeur émérite à l'université de Paris-VII-Denis-Diderot

Classification


Autres références

«  ENTROPIE  » est également traité dans :

BIOÉNERGÉTIQUE

  • Écrit par 
  • Pierre KAMOUN, 
  • Paul MAZLIAK, 
  • Alexis MOYSE, 
  • Jacques TONNELAT
  • , Universalis
  •  • 5 211 mots
  •  • 3 médias

Dans le chapitre « Thermodynamique et bioénergétique »  : […] Historiquement, les phénomènes énergétiques ont d'abord été étudiés à propos des machines à vapeur. Une science s'est ainsi édifiée, qui s'applique à tous les domaines de la physique, de la chimie et de la biologie. Son importance est fondamentale et son application universelle, bien qu'elle ait conservé le nom de thermodynamique. La thermodynamique repose sur deux principes qui ne sont pas direc […] Lire la suite

BOLTZMANN LUDWIG (1844-1906)

  • Écrit par 
  • Pierre COSTABEL
  •  • 1 634 mots
  •  • 1 média

Dans le chapitre « L'interprétation probabiliste du deuxième principe de la thermodynamique »  : […] À partir de ce deuxième principe, Loschmidt a présenté à Boltzmann une objection redoutable, souvent reprise depuis lors, et qui consiste à affirmer l'impossibilité de faire sortir des équations réversibles de la mécanique une interprétation des processus irréversibles de la thermodynamique. Boltzmann a parfaitement compris la valeur de l'objection et y a trouvé un levier puissant pour renouveler […] Lire la suite

CLAUSIUS RUDOLF (1822-1888)

  • Écrit par 
  • Robert FOX
  •  • 999 mots

Dans le chapitre « L'entropie »  : […] En 1854, Clausius, poussant plus avant les vues exprimées dès 1850, proposa le premier énoncé clair du concept de l'entropie. Il cherchait à mesurer l'aptitude de l'énergie calorifique de n'importe quel système réel non idéal à fournir du travail. Dans le cas de la conduction thermique le long d'un barreau solide, par exemple, la chaleur passe de l'extrémité chaude à l'extrémité froide sans fourn […] Lire la suite

ÉNERGIE - La notion

  • Écrit par 
  • Julien BOK
  •  • 7 639 mots
  •  • 4 médias

Dans le chapitre « Les principes de la thermodynamique »  : […] Le premier principe, ou principe de l'équivalence , énonce l'équivalence du travail et de la chaleur. Dans une transformation fermée, où le système revient à un état macroscopique identique à celui dont il est parti, l'énergie interne n'a pas varié. Si le système a reçu du travail, il a cédé de la chaleur et, s'il a reçu de la chaleur, il a cédé du travail. Dans une transformation quelconque, on […] Lire la suite

HASARD & NÉCESSITÉ

  • Écrit par 
  • Ilya PRIGOGINE, 
  • Isabelle STENGERS
  • , Universalis
  •  • 9 586 mots

Dans le chapitre « De Boltzmann à Von Neumann »  : […] Jusqu'ici, les thèmes de la nécessité et du hasard, au sens scientifique, n'ont pas été présentés en tant que parties prenantes de problèmes scientifiques. Le démon de Laplace comme le hasard et la nécessité de Monod n'autorisent aucun modèle précis dont la pertinence pourrait être mise à l'épreuve à partir du monde observable mais indiquent seulement comment on doit juger ce monde. Quant à la mé […] Lire la suite

IRRÉVERSIBILITÉ

  • Écrit par 
  • Radu BALESCU
  •  • 2 381 mots

Dans le chapitre « Théorie cinétique de Boltzmann »  : […] Historiquement, le premier modèle moléculaire d'un phénomène irréversible fut fourni par la théorie cinétique des gaz de L. Boltzmann, développée à la fin du xix e  siècle. Cette théorie concerne la fonction de distribution réduite f 1 ( q , p  ; t  ) (densité de probabilité de trouver une particule en q avec l'impulsion p , à l'instant t  ). Celle-ci s'obtient à partir de F par intégration sur […] Lire la suite

LIAISONS CHIMIQUES - Liaisons biochimiques faibles

  • Écrit par 
  • Antoine DANCHIN
  •  • 5 907 mots
  •  • 9 médias

Dans le chapitre « Morphogenèse des macromolécules et de leurs associations »  : […] Les macromolécules biologiques sont des polymères à la structure originale. Deux classes particulièrement importantes sont les acides nucléiques , dont la structure est associée à leur rôle de matrice du patrimoine héréditaire, et les protéines , qui sont les objets de l'expression de ce patrimoine et les effecteurs de la vie cellulaire. Les protéines sont constituées par un enchaînement linéaire […] Lire la suite

MATIÈRE (physique) - État gazeux

  • Écrit par 
  • Henri DUBOST, 
  • Jean-Marie FLAUD
  •  • 8 280 mots
  •  • 9 médias

Dans le chapitre « Équation d'état des gaz réels  »  : […] Les premières expériences qui ont montré qu'aucun gaz réel ne suit exactement la loi de Boyle-Mariotte ont été réalisées en 1847 par Victor Regnault (1810-1878). L'étude de la compressibilité des gaz a été ensuite poursuivie pendant plus d'un siècle, avec une précision croissante qui atteint 10 —4 dans les expériences modernes. Les déviations des gaz réels par rapport au gaz parfait sont mises en […] Lire la suite

MÉTAMORPHISME ET GÉODYNAMIQUE

  • Écrit par 
  • Christian NICOLLET
  •  • 5 987 mots
  •  • 8 médias

Dans le chapitre « La roche peut recristalliser lorsque T varie »  : […] Lorsqu’une roche de surface, froide, s’enfonce dans le globe chaud, un transfert de chaleur se produit entre cette roche qui se réchauffe et son environnement. Cette augmentation de chaleur et de température augmente le désordre (ou entropie) dans la roche. Or les minéraux ont des structures très régulières qui supportent peu ce désordre, cette variation de l’entropie. Aussi, les minéraux de bass […] Lire la suite

NÉGUENTROPIE

  • Écrit par 
  • Alain DELAUNAY
  •  • 1 140 mots

Ce terme a été créé, semble-t-il, par le mathématicien et physicien français Léon Brillouin (1956, Science and Information Theory ). Il l'a proposé pour remplacer les expressions d'« entropie négative » ou « entropie changée de signe », employée à peu près simultanément, mais indépendamment, par Norbert Wiener et Erwin Schrödinger. Ce dernier, dans un livre important ( What is Life ? , 1945), avai […] Lire la suite

PRIGOGINE ILYA (1917-2003)

  • Écrit par 
  • Isabelle STENGERS
  • , Universalis
  •  • 2 108 mots
  •  • 1 média

Dans le chapitre « Structures dissipatives »  : […] Ilya Prigogine est né le 25 janvier 1917 à Moscou, il est le fils d'un ingénieur chimiste devenu directeur d'usine. Fuyant la Russie soviétique en 1921, la famille s'installe à Bruxelles après un court séjour à Berlin. Après avoir fait ses études secondaires à l'Athénée d'Ixelles, un faubourg de Bruxelles, Ilya Prigogine entre à l'Université libre de Bruxelles pour étudier la chimie et la physique […] Lire la suite

PROTÉINES - Structures

  • Écrit par 
  • Philippe BRION, 
  • René LAFONT
  • , Universalis
  •  • 6 250 mots
  •  • 6 médias

Dans le chapitre « Acquisition et modulation de la conformation »  : […] Le repliement des protéines est un processus complexe. Christian Anfinsen et Cyrus Levinthal ont joué un rôle déterminant au cours des années 1960 dans les études du repliement des protéines in vitro. Anfinsen est le premier à proposer que « toute l'information nécessaire à l'acquisition de la structure native d'une protéine, dans un environnement donné, est contenue dans sa séquence ». Cette ass […] Lire la suite

RELATIVITÉ - Relativité générale

  • Écrit par 
  • Thibault DAMOUR, 
  • Stanley DESER
  •  • 12 096 mots
  •  • 3 médias

Dans le chapitre « Champs gravitationnels forts. Trous noirs »  : […] Le régime des champs gravitationnels forts se rencontre dans la physique des corps gravitationnellement condensés. Cette dénomination désigne les états finals de l'évolution des étoiles. Après épuisement de leurs sources d'énergie nucléaire, les étoiles finissent par condenser une masse énorme dans un rayon très petit, conduisant, selon la masse initiale, à une naine blanche, à une étoile à neutr […] Lire la suite

SMITHSON ROBERT (1938-1973)

  • Écrit par 
  • Erik VERHAGEN
  •  • 2 402 mots

Dans le chapitre « Une esthétique de l'entropie »  : […] L'essai Entropy and the New Monuments (L'Entropie et les nouveaux monuments), publié dans la revue Artforum de juin 1966, est le fruit de diverses excursions entreprises cette fois-ci avec Carl Andre, Michael Heizer, Robert Morris et Claes Oldenburg dans des sites industriels désaffectés. L'essai de Smithson fait l'éloge des systèmes dont « l'énergie se perd plus facilement qu'elle ne se capte  […] Lire la suite

STATISTIQUE MÉCANIQUE

  • Écrit par 
  • Berni J. ALDER, 
  • Bernard JANCOVICI
  •  • 5 921 mots
  •  • 8 médias

Dans le chapitre « Entropie statistique et thermodynamique »  : […] La mécanique statistique donne un fondement microscopique à l' entropie  S, par la formule de Boltzmann  :  où S est l'entropie, k  = 1,380 44 × 10 -16 erg/K, la constante de Boltzmann, et W le nombre des états microscopiques accessibles au système pour un état macroscopique donné. En mécanique statistique quantique, W est le nombre des états quantiques accessibles. Pour un système isolé en équi […] Lire la suite

STATISTIQUE THERMODYNAMIQUE

  • Écrit par 
  • Alkiviadis GRECOS
  •  • 4 211 mots

Dans le chapitre « Théorie dynamique des phénomènes dissipatifs »  : […] Reprenons donc la question de l'existence d'une définition microscopique de l'entropie sous une forme générale. Nous avons déjà remarqué que ni la norme, ∥ρ( t )∥ 2 , ni la définition de l'entropie S G de Gibbs ne fournissent un modèle microscopique pour l'entropie des systèmes dynamiques hors d'équilibre. Il est facile de vérifier que l'entropie ne peut pas être une fonctionnelle linéaire de l'é […] Lire la suite

STRUCTURE DISSIPATIVE

  • Écrit par 
  • Isabelle STENGERS
  •  • 2 470 mots

Le terme « structure dissipative » a été créé, en 1969, par Ilya Prigogine pour souligner la signification des résultats auxquels lui-même et ses collaborateurs de l'école de Bruxelles venaient de parvenir : loin de l'équilibre thermodynamique, c'est-à-dire dans des systèmes traversés par des flux de matière et d'énergie, peuvent se produire des processus de structuration et d'organisation spontan […] Lire la suite

SUPERFLUIDITÉ

  • Écrit par 
  • Sébastien BALIBAR
  •  • 5 817 mots
  •  • 5 médias

Dans le chapitre « Condensation de Bose-Einstein et modèle à deux fluides »  : […] La superfluidité est une propriété essentiellement quantique. Fritz London a calculé la température à laquelle une condensation de Bose-Einstein pouvait avoir lieu dans un hypothétique gaz parfait d'hélium 4 qui aurait la même densité que le liquide. Il était conscient qu'il s'agissait d'une approximation grossière, mais il trouva 3,09 K – ce qui n'était pas très éloigné de 2,2 K, le point lambda […] Lire la suite

SYSTÈMES OUVERTS, thermodynamique

  • Écrit par 
  • Paul GLANSDORFF
  •  • 1 690 mots

On attribue volontiers en physique le nom de système au modèle stylisé d'un milieu naturel en vue de simplifier son étude théorique. Le solide strictement indéformable, le fluide incompressible et le gaz parfait sont des exemples classiques de tels systèmes. En particulier, un système fermé désigne une portion invariable de matière ou, de la même façon, un ensemble donné de points matériels. Da […] Lire la suite

Voir aussi

Pour citer l’article

Bernard DIU, « ENTROPIE », Encyclopædia Universalis [en ligne], consulté le 07 juillet 2020. URL : http://www.universalis.fr/encyclopedie/entropie/