Entropie - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs est disponible ici.

En thermodynamique, l'entropie est une fonction d'état introduite au milieu du XIXe siècle par Rudolf Clausius dans le cadre du second principe, d'après les travaux de Carnot[1]. Clausius a montré que le rapport Q/T (où Q est la quantité (La quantité est un terme générique de la métrologie (compte, montant) ; un scalaire,...) de chaleur (Dans le langage courant, les mots chaleur et température ont souvent un sens équivalent :...) échangée par un système à la température (La température est une grandeur physique mesurée à l'aide d'un thermomètre et...) T) correspond, en thermodynamique (On peut définir la thermodynamique de deux façons simples : la science de la chaleur...) classique, à la variation d'une fonction d’état qu'il a appelée entropie (En thermodynamique, l'entropie est une fonction d'état introduite en 1865 par Rudolf Clausius...), S et dont l'unité est le joule par kelvin (Le kelvin (symbole K, du nom de Lord Kelvin) est l'unité SI de température...) (J/K).

La thermodynamique statistique (Une statistique est, au premier abord, un nombre calculé à propos d'un échantillon....) a ensuite fourni (Les Foúrnoi Korséon (Grec: Φούρνοι...) un nouvel éclairage à cette grandeur physique (Une grandeur physique est un ensemble d'unités de mesure, de variables, d'ordres de grandeur et de...) abstraite : elle mesure le degré (Le mot degré a plusieurs significations, il est notamment employé dans les domaines...) de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie (Dans le sens commun l'énergie désigne tout ce qui permet d'effectuer un travail, fabriquer de la...) inutilisée ou utilisée de façon incohérente. Boltzmann a formulé une expression mathématique (Les mathématiques constituent un domaine de connaissances abstraites construites à l'aide...) de l'entropie statistique en fonction du nombre (La notion de nombre en linguistique est traitée à l’article « Nombre...) d’états microscopiques Ω définissant l’état d'équilibre d'un système donné au niveau macroscopique : formule de Boltzmann S = k Ln Ω.

Cette nouvelle définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la...) de l'entropie n'est pas contradictoire avec celle de Clausius. Les deux expressions de l'entropie résultent simplement de deux points de vue (La vue est le sens qui permet d'observer et d'analyser l'environnement par la réception et...) différents, selon que l'on considère le système thermodynamique au niveau macroscopique ou au niveau microscopique.

Dans une période récente le concept entropie a été généralisé et a pénétré dans de nombreux domaines, tels que par exemple :

  • l'entropie de Shannon (L'entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui,...) dans le cadre de la théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer,...) de l'information en informatique (L´informatique - contraction d´information et automatique - est le domaine...);
  • l' entropie topologique, ainsi que l'entropie métrique (En mathématiques et plus précisément, dans la théorie des systèmes...) de Kolmogorov-Sinaï, dans le cadre de la théorie des système dynamiques en mathématiques.

L’entropie selon la thermodynamique classique

La non-conservation de l’entropie

La difficulté à donner une définition intuitive de l’entropie d’un système vient du fait qu’elle ne se conserve pas. Elle peut augmenter spontanément lors d’une transformation irréversible. En effet, selon le second principe de la thermodynamique, l’entropie d’un système isolé ne peut pas diminuer, elle augmente ou elle reste constante si la transformation est réversible.

Les transformations réversibles

Une transformation affectant un système thermodynamique est dite réversible si elle est quasistatique et s’effectue sans frottements entraînant un phénomène dissipatif de chaleur. Dans ces conditions, la transformation peut être considérée comme étant constituée d’une succession d’états d’équilibre. Si on inverse (En mathématiques, l'inverse d'un élément x d'un ensemble muni d'une loi de...) le sens (SENS (Strategies for Engineered Negligible Senescence) est un projet scientifique qui a pour but...) de la contrainte du milieu extérieur, responsable de la transformation, on repasse alors par les mêmes états d’équilibre puisqu’il n’y a pas eu de phénomènes dissipatifs. On peut alors modéliser la transformation et décrire parfaitement, à chaque instant (L'instant désigne le plus petit élément constitutif du temps. L'instant n'est pas...), l’état d’équilibre du système.

La transformation réversible est donc un modèle idéal (En mathématiques, un idéal est une structure algébrique définie dans un anneau....) (à rapprocher du modèle idéal du gaz (Un gaz est un ensemble d'atomes ou de molécules très faiblement liés et...) parfait), dont on peut se rapprocher dans les transformations réelles, en s’assurant que la transformation soit très lente (La Lente est une rivière de la Toscane.), le déséquilibre des variables d'état très faible et en minimisant les frottements.

Remarque : Une transformation réversible qui serait filmée pourrait être projetée à l'envers (c'est-à-dire de la fin au début) sans que la séquence paraisse anormale. C'est par exemple le cas, en première approximation (Une approximation est une représentation grossière c'est-à-dire manquant de...), pour une balle en caoutchouc qui rebondit une fois sur un sol dur, il serait difficile de distinguer si le film est projeté à l'endroit ou à l'envers. En toute rigueur cela est faux car les frottements lors du choc (Dès que deux entitées interagissent de manière violente, on dit qu'il y a choc, que ce soit de...) et les frottements de l'air (L'air est le mélange de gaz constituant l'atmosphère de la Terre. Il est inodore et...) aussi faibles soient-ils rendent le processus irréversible et après plusieurs rebonds, la balle s'arrêterait. Le film à l'envers serait alors choquant puisque la balle rebondirait de plus en plus haut !!!

À l'inverse, une transformation foncièrement irréversible ne permet pas de faire ce constat, comme dans le cas d'un œuf s'écrasant sur le même sol dur : projeté à l'envers on verrait l'œuf brisé se reconstituer puis monter en l'air. On trouve dans cette interprétation une manifestation de la flèche du temps (Le temps est un concept développé par l'être humain pour appréhender le...).

Les transformations irréversibles

Les transformations réelles sont irréversibles à cause de phénomènes dissipatifs. Le système ne peut jamais spontanément, revenir en arrière. L’énergie perdue par le système sous forme de chaleur contribue à l’augmentation du désordre global. Or le désordre est mesuré par une fonction d’état appelée entropie : S, introduite par le second principe de la thermodynamique.

Alors que le premier principe est un principe de conservation de l’énergie, le second principe est un principe d’évolution. Il stipule (En botanique, les stipules sont des pièces foliaires, au nombre de deux, en forme de feuilles...) que toute transformation réelle s’effectue avec augmentation du désordre global (système + milieu extérieur) ; le désordre étant mesuré par l’entropie. On dit encore qu’il y a création d’entropie.

L’expression moderne du second principe formalise cette création d’entropie :

  • ΔS(global) = ΔS(créée) = ΔS(système) + ΔS(extérieur) > 0

Dans le cas de la transformation idéale réversible, il n’y a pas de création d’entropie :

  • ΔS(créée) = ΔS(système) + ΔS(extérieur) = 0.

L’entropie comme monnaie d’échange

La thermodynamique classique définit l’entropie comme une grandeur extensive, ce qui signifie que l'on obtient l'entropie d'un système en faisant la somme des entropies de ses parties constituantes (par contraste, la température n’est pas une grandeur extensive parce que la température d’un système n’est pas la somme des températures de ses parties).

Tant que les transformations sont réversibles, on peut raisonner sur l’entropie comme une grandeur conservée. Comme elle peut passer (Le genre Passer a été créé par le zoologiste français Mathurin Jacques...) d’un système à un autre ou vers le milieu extérieur, elle est une sorte de monnaie d’échange. Tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou...) système qui gagne de l’entropie la prend à un autre ou au milieu extérieur. L'unité d’entropie, le Joule par Kelvin correspond à la quantité d’entropie gagnée par un système qui reçoit 1 Joule de chaleur par Kelvin. De façon générale, si un système reçoit δQ Joules de chaleur lors d’une transformation infinitésimale réversible à la température T, alors son entropie augmente de : dS(syst) = δQ(rév)/T

Cela devient pour une transformation réversible effectuée à la température T constante : ΔS(syst) = Q(rév)/T

L’entropie est une fonction d’état. Cela veut dire que sa valeur est déterminée dès que l’état d’équilibre du système est établie. Comme l'entropie d'un corps pur (En chimie, un corps pur est composé d'un seul type de constituant (contraire : mélange). Il...), à la température de zéro (Le chiffre zéro (de l’italien zero, dérivé de l’arabe sifr,...) Kelvin, est nulle car le système est parfaitement ordonné, on peut construire une échelle absolue (L'absolue est un extrait obtenu à partir d’une concrète ou d’un...) d'entropie à l'inverse des autres fonctions d'état se déduisant de l'énergie interne (En France, ce nom désigne un médecin, un pharmacien ou un chirurgien-dentiste, à la...) qui elle, n'est pas calculable.

Si la transformation est irréversible, la chaleur mise en jeu devient Q(irrév) car la chaleur dépend du chemin suivi. De plus, on a vu précédemment qu'il y avait création d'entropie et que le bilan entropique est positif :

ΔS(syst) + ΔS(ext) > 0.

Or la chaleur fournie par le système Q(irrév) est reçue par le milieu extérieur et donc son signe s'inverse - Q(irrév).

La variation de l'entropie du milieu extérieur est alors égale à : ΔS(ext) = -Q(irrév)/T.

Le bilan entropique devient : ΔS(syst) - Q(irrév)/T > 0

on obtient alors l'inégalité formulée par Clausius pour les transformations irréversibles :

  • ΔS(syst) > Q(irrév)/T

Conséquence de l’inégalité de Clausius sur la quantité de travail fourni par un système

Considérons une transformation effectuée à la température T, qui fait passer un système thermodynamique d’un état initial A à un état final B d’équilibre.

La variation d’entropie du système, associée à cette transformation, peut s'écrire : ΔS(syst) = S(B) – S(A)

On peut procéder de façon réversible ou bien de façon irréversible. Si la variation de la fonction d'état entropie sera la même, il n’en est pas de même pour la chaleur Q et le travail W qui dépendent du chemin suivi et seront donc différents : Q(rév) ≠ Q(irrév) et W(rév) ≠ W(irrév).

Appliquons le second principe :

  • ΔS(syst) = S(B) – S(A) = Q(rév)/T
  • ΔS(syst) = S(B) – S(A) > Q(irrév)/T

d’où Q(rév) > Q(irrév)

Appliquons le premier principe de conservation de l’énergie interne U :

  • ΔU(syst) = U(B) – U(A) = W(rév) + Q(rév) = W(irrév) + Q(irrév)

On déduit que W(rév) < W(irrév)

Pour un système (moteur thermique (La thermique est la science qui traite de la production d'énergie, de l'utilisation de...), moteur (Un moteur (du latin mōtor : « celui qui remue ») est un dispositif...) électrique…) dont la fonction est de fournir du travail au milieu extérieur, le travail fourni est compté négativement d’après la règle des signes : W < 0

Donc ce qui compte c’est la valeur absolue (En mathématiques, la valeur absolue (parfois appelée module) d'un nombre réel est sa...) du travail fourni et l’inégalité s’inverse :

|W(rév)| > |W(irrév)|

On en déduit que la quantité de travail utile fourni par un système est plus importante lorsque la transformation est réversible.

Remarques :

  • Les frottements étant la principale cause d’irréversibilité, on comprend pourquoi on essaye de les minimiser ; c’est le but de la lubrification des pièces en contact et en mouvement dans un ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection...) mécanique (Dans le langage courant, la mécanique est le domaine des machines, moteurs, véhicules, organes...).
  • Pour la même quantité d’essence on récupère moins de travail mécanique plus une voiture va vite et la distance parcourue est donc plus faible. La vitesse (On distingue :) est un facteur d’irréversibilité.
  • Une pile électrique (Une pile électrique (ou plus simplement pile) est un dispositif électrochimique...) fournit plus de travail électrique si son fonctionnement se rapproche de la réversibilité (faible tension (La tension est une force d'extension.) et faible courant de fonctionnement). En revanche si on court-circuite les électrodes, on ne récupère pratiquement que de la chaleur !

Définition de l'entropie selon la physique statistique (La physique statistique a pour but d'expliquer le comportement et l'évolution de systèmes...)

La matière (La matière est la substance qui compose tout corps ayant une réalité tangible. Ses...) est formée de particules (molécules, atomes (Un atome (du grec ατομος, atomos, « que l'on ne peut...), électrons...) en perpétuel mouvement (agitation thermique) exerçant les unes sur les autres une force (Le mot force peut désigner un pouvoir mécanique sur les choses, et aussi, métaphoriquement, un...) attractive (interactions) dont l'intensité décroit lorsque leur distance mutuelle augmente. Dans un gaz cette distance est relativement grande, les interactions sont donc faibles, de sorte que les particules sont libres de se déplacer dans tout le volume (Le volume, en sciences physiques ou mathématiques, est une grandeur qui mesure l'extension...) qui leur est offert, mais subissent de nombreuses collisions au cours desquelles leur énergie varie. Dans un liquide (La phase liquide est un état de la matière. Sous cette forme, la matière est...) les distances mutuelles sont plus petites et les molécules sont moins libres: elles peuvent se déplacer dans tout le volume du liquide mais ne peuvent pas en sortir. Dans un solide chaque molécule (Une molécule est un assemblage chimique électriquement neutre d'au moins deux atomes, qui...) est liée élastiquement à ses voisines et vibre autour (Autour est le nom que la nomenclature aviaire en langue française (mise à jour) donne...) d'une position moyenne (La moyenne est une mesure statistique caractérisant les éléments d'un ensemble de...) fixe. Il en résulte que, dans tous les cas, la position et l'énergie de chaque particule sont aléatoires.

La somme des énergies de toutes les particules d'un système thermodynamique donné s'appelle l'énergie interne U du système. Lorsque le système est isolé (il n'échange ni matière ni énergie avec l'extérieur) son état macroscopique est caractérisé par son volume V et son énergie interne U. Cependant les particules peuvent être disposées dans le volume d'un très grand nombre de façons différentes; de même l'énergie interne peut être répartie sur les particules d'un très grand nombre de façons différentes. Chaque façon de placer les molécules dans le volume et de leur distribuer l'énergie interne s'appelle une configuration microscopique de l'état macroscopique caractérisé par le volume V et l'énergie interne U. Le nombre de particules étant, dans un système macroscopique, immensément grand (de l'ordre de 1023) le nombre Ω(U,V) de ces configurations microscopiques est lui-même immensément grand. On définit alors l'entropie S (fonction de U et V) par

   {S=k_B\cdot\ln(\Omega)}

kB = 1,381.10 − 23J.K − 1 s'appelle la constante de Boltzmann (La constante de Boltzmann k (ou kB) a été introduite par Ludwig Boltzmann lors de sa...).

Cette relation a été proposée par Ludwig Boltzmann vers les années 1870 alors que la notion d’états microscopiques était encore très spéculative, parce que les atomes et leurs propriétés quantiques étaient mal connus. Il a été en butte à la moquerie des scientifiques de son époque ce qui l'a vraisemblablement conduit au suicide (Le suicide (du latin suicidium, du verbe sui caedere « se massacrer...). Aujourd'hui il est considéré comme le père fondateur de la thermodynamique statistique. Sur sa tombe à Vienne est gravée la "fameuse formule".

Un système évolue en permanence d'une configuration microscopique à une autre. Le principe fondamental que l'on admet en thermodynamique est que à l'équilibre toutes les configurations microscopiques apparaissent avec la même probabilité (La probabilité (du latin probabilitas) est une évaluation du caractère probable d'un...). Cet axiome (Un axiome (du grec ancien αξιωμα/axioma,...) est l'énoncé le plus profond du second principe de la thermodynamique.

L'entropie jouit de la propriété d'additivité (on dit que c'est une grandeur extensive): l'entropie d'un système à l'équilibre est égale à la somme des entropies de chacune de ses parties. Par exemple si l'on sépare le système en deux parties, d'entropies respectives S1 et S2 et ayant pour chacune des parties Ω1 et Ω2 configurations, l'entropie globale S est égale à S1 + S2. D'où S = S1 + S2 = kLnΩ1 + kLnΩ2 = kLnΩ1Ω2 = kLnΩ

Il s'ensuit que le nombre de configurations du système Ω = Ω1.Ω2.

Exemples de compréhension

  • Entropie et désordre

Il est courant de dire que l'entropie est une mesure du désordre. En effet, considérons par exemple un jeu de 52 cartes et posons-les toutes du même côté (ordre parfait); cet état macroscopique ne peut être réalisé que d'une seule façon: Ω = 1. Retournons 1 carte, ce qui est le début du désordre; mais il y a Ω = 52 façons de réaliser l'état macroscopique "une seule carte retournée". Le désordre est maximum quand 26 cartes sont d'un côté et 26 cartes de l'autre côté; le nombre de configurations microscopiques de cet état de désordre maximum est alors Ω = 4,96.1014 ! Dans cet exemple le nombre de configurations microscopiques (donc l'entropie) est bien une mesure du désordre. Mais il faut être prudent dans l'utilisation de cette notion de désordre, qui est souvent subjective, et lui préférer le nombre Ω de configurations qui est objectif (c'est un nombre).

  • Equilibre et maximum d'entropie

Reprenons le jeu de 52 cartes et supposons qu'on les jette en l'air de telle sorte que chaque carte retombe d'un côté ou de l'autre avec la même probabilité. Si l'on recommence l'opération un grand nombre de fois les valeurs numériques précédentes montrent que le désordre maximum apparaîtra beaucoup plus souvent que toute autre situation (En géographie, la situation est un concept spatial permettant la localisation relative d'un...).

Considérons maintenant un gaz dans un récipient de volume V. Il comporte non pas 52 molécules mais de l'ordre de 1023. Parmi toutes les façons possibles de ranger ces molécules, il y en a un certain nombre qui laissent la moitié du volume vide (Le vide est ordinairement défini comme l'absence de matière dans une zone spatiale.) (ce qui correspond à toutes les cartes du même côté) mais un nombre immensément plus grand pour lesquelles elles sont uniformément réparties dans tout le volume. Comme toutes ces configurations microscopiques sont équiprobables, la répartition uniforme est réalisée immensément plus souvent que toute autre situation, au point (Graphie) qu'elle apparaît macroscopiquement comme un équilibre stationnaire; et ceci simplement parce que le nombre de configurations microscopiques, et donc l'entropie, qui lui correspondent ont leur valeur maximale. L'équilibre d'un système thermodynamique se produit quand son entropie a la valeur maximale compatible avec les contraintes auxquelles il est soumis (ici la contrainte est le volume).

  • Evolution inéluctable vers le désordre

Considérons toujours le jeu de 52 cartes. On les ordonne en les rangeant par ordre décroissant de valeur, de l’as au 2 dans une couleur (La couleur est la perception subjective qu'a l'œil d'une ou plusieurs fréquences d'ondes...); les couleurs étant rangées dans l’ordre suivant : trèfle (Les trèfles sont des plantes herbacées de la famille des Fabacées...), carreau, cœur et pique. Avec cette contrainte définissant l'ordre parfait, il n’existe qu’une seule configuration ordonnée : Ω(ordonnée) = 1. L’entropie définie selon Boltzmann serait alors égale à :

S = k Ln Ω(ordonnée) = 0 (le système est parfaitement ordonné)

Combien y a t-il d’arrangements possibles des cartes dans le jeu ; c’est-à-dire de configurations ?

Ω = factorielle (En mathématiques, la factorielle d'un entier naturel n, notée n!, ce qui se lit soit...) de 52 = 52 ! = 8.1067 C’est un nombre énorme !

On constate alors que les configurations désordonnées sont extrêmement majoritaires par rapport à la configuration ordonnée.

Supposons maintenant que l’on fasse évoluer le système ordonné en battant le jeu toutes les secondes. Existe t-il une chance de revenir à l’état initial ordonné ?

Toutes les configurations ont la même probabilité et il y en a 8.1067. Si chaque configuration existait pendant 1 seconde ( Seconde est le féminin de l'adjectif second, qui vient immédiatement après le premier ou qui...), il faudrait battre le jeu pendant 8.1067 s, soit 2,5.1051 milliards d’années…pour avoir une chance de revenir à l’état ordonné.

Réfléchissons maintenant sur une mole de gaz parfait (Le gaz parfait est un modèle thermodynamique décrivant le comportement de tous les gaz...) dans les conditions normales de température et de pression (La pression est une notion physique fondamentale. On peut la voir comme une force rapportée...). Le nombre de particules NA = 6,022.1023 est énorme. À l’inverse du jeu précédent où chaque carte est unique et est définie par un seul paramètre (Un paramètre est au sens large un élément d'information à prendre en compte...), chaque particule de gaz est définie par 3 paramètres de position spatiale et un paramètre d’énergie (agitation thermique). Le nombre de configurations ou complexions est pharamineux. Néanmoins, grâce à la thermodynamique statistique, il a été possible de le calculer dans le cas d'un gaz parfait pris dans les conditions normales ( volume molaire de 22,4 L):

Ω = 10(5.E24) configurations !!!

De plus, il faut remarquer qu’avec l’agitation thermique, le système est en perpétuel changement. Bien évidemment les configurations désordonnées sont les plus nombreuses.

Ce sont ces configurations désordonnées qui occupent la majorité du temps et définissent l’état d’équilibre du système à l’échelle macroscopique.

On pourrait faire la comparaison avec un tableau (Tableau peut avoir plusieurs sens suivant le contexte employé :) post-impressioniste de la période pointilliste (voir Seurat, Signac). Quand on s'approche du tableau, on devine tous les différents points de couleur mais quand on s'éloigne suffisamment on a une vision d'ensemble qui est largement influencée par les points de couleur les plus nombreux.

L’application de la formule de Boltzmann permet de ramener la valeur de l'entropie à notre échelle:

S = k Ln Ω = k Ln [10(5.E24)]

Constante de Boltzmann k = R/NA = 1,381.10-23 J.K-1

S = 159 J.K-1; C’est l’entropie d’une mole de gaz parfait dans les conditions normales.

A zéro Kelvin, l’agitation thermique s’arrête, le gaz se trouve alors dans l'état fondamental (En physique quantique, les états fondamentaux d'un système sont les états quantiques de plus...) de plus basse énergie. Deux cas sont possibles :

  • Si l'état fondamental est non-dégénéré, il n’y a plus qu’une seule configuration et l’entropie est nulle S = 0.
  • Si l'état fondamental est dégénéré, il existe en général un nombre fini d'états dégénérés. Si g est ce nombre, l'entropie prend sa valeur minimale pour S0 = k ln g.

Remarques d’ordre général

  • L'intuition commune comprend déjà difficilement le concept énergie, cette grandeur qui, pour un système isolé, a la propriété de se conserver jusqu'à la nuit des temps.

Autrement surprenant est le concept entropie. Pour le même système isolé, l'entropie, dans le meilleur des cas, restera constante, mais en dehors de ce cas très théorique des transformations réversibles, elle ne fera que croître indéfiniment.

Une diminution d'entropie pour un système est néanmoins possible si l’augmentation de l’entropie du milieu extérieur fait plus que compenser la diminution d’entropie du système. Le bilan reste conforme à la deuxième loi de la thermodynamique : une augmentation globale de l'entropie assimilée à une création d'entropie. Démontrons le dans le cas d'un système composé d'un vase contenant de l'eau (L’eau est un composé chimique ubiquitaire sur la Terre, essentiel pour tous les...) liquide que l'on place à l'air libre à -10 °C soit 263 K. L'eau gèle à 0 °C (273 K) et tant qu'il y a coexistence de glace (La glace est de l'eau à l'état solide.) et d'eau liquide cette température de changement d'état reste constante et égale à 273 K. La chaleur de solidification (La solidification est l'opération au cours de laquelle un liquide passe à l'état...) de l'eau: L(solid) est négative (inverse de la chaleur de fusion (En physique et en métallurgie, la fusion est le passage d'un corps de l'état solide vers l'état...) qui elle est positive) ainsi que l'entropie de solidification ΔS(syst) = L(solid) / 273 < 0. En revanche, la chaleur est reçue par le milieu extérieur et change de signe (- L(solid)); milieu extérieur dont la température n'est pas affectée par l'échange avec le système beaucoup plus petit (notion de source de chaleur). Elle reste constante et égale à 263K. La variation d'entropie du milieu extérieur est alors égale à :

ΔS(ext) = - L(solid) / 263 > 0.

Calculons alors le bilan entropique :

ΔS(syst) + ΔS(ext) = ( L(solid) / 273 ) + ( -L(solid) / 263 ) = L(solid) ( 1/273 - 1/263 ).

Comme L(solid) < 0, il s'ensuit que le bilan est positif et l'entropie créée sera d'autant plus grande que l'écart des températures sera grand ainsi que l'irréversibilité (La réversibilité et l’irréversibilité sont des concepts importants en physique et tout...) qui va de pair. Si la température du milieu extérieur était très proche de 273 K à -ε près, on se rapprocherait d'une transformation réversible et le bilan entropique serait proche de zéro. En toute rigueur le changement de température entre le système et le milieu extérieur n'est pas brutal. Au voisinage (La notion de voisinage correspond à une approche axiomatique équivalente à celle de la...) de la paroi séparant le système du milieu extérieur la température varie de façon continue entre 273 K et 263 K. On dit qu'il y a un gradient de température ; phénomène intimement associé à la notion d'irréversibilité.

  • L'expression " degré de désordre du système " introduite par Boltzmann peut se révéler ambigüe. En effet on peut aussi définir l'entropie comme une mesure de l'homogénéité du système considéré. L'entropie d'un système thermique est maximale quand la température est identique en tout point. De même, si on verse un liquide colorant (Un colorant est une substance utilisée pour apporter une couleur à un objet à...) dans un verre (Le verre, dans le langage courant, désigne un matériau ou un alliage dur, fragile...) d'eau, l'entropie du système coloré sera maximale quand, suite au mélange (Un mélange est une association de deux ou plusieurs substances solides, liquides ou gazeuses...), la couleur du contenu sera devenue uniforme. L'entropie d'un tableau parfaitement lisse et blanc (Le blanc est la couleur d'un corps chauffé à environ 5 000 °C (voir...) est maximale et ne contient aucune information visible. Si on y ajoute un point coloré, l'entropie diminue, et une information a été ajoutée. Ceci illustre pourquoi, à la naissance de la théorie de l'information, la quantité d'information contenue dans un système était appelée " néguentropie ". Tout système isolé, siège d'une agitation (L’agitation est l'opération qui consiste à mélanger une phase ou plusieurs...) aléatoire, tend spontanément à s'homogénéiser de manière irréversible. C'est pourquoi la notion d'entropie, telle qu’elle est définie par la physique (La physique (du grec φυσις, la nature) est étymologiquement la...) statistique, a été utilisée en théorie de l'information par Claude Shannon (Claude Elwood Shannon (30 avril 1916 à Petoskey, Michigan -...) au début des années 1950 pour mesurer la perte d'information. voir aussi l'article détaillé : Entropie de Shannon.
  • Un des grands enjeux de la physique moderne est de déterminer si les trous noirs possèdent ou non une entropie. Si c'est le cas, alors ils doivent avoir une température et donc émettre un rayonnement électromagnétique (Un rayonnement électromagnétique désigne une perturbation des champs électrique...), ce qui viole le principe classique du trou noir (En astrophysique, un trou noir est un objet massif dont le champ gravitationnel est si intense...) (aucun rayonnement (Le rayonnement, synonyme de radiation en physique, désigne le processus d'émission ou de...) ne peut s'échapper d'un trou noir mais il s'évaporerait par sa surface (Une surface désigne généralement la couche superficielle d'un objet. Le terme a...) soumise à des interactions énormes).

Etymologie

Le mot entropie a été inventé par Clausius qui justifie son choix dans Sur diverses formes des équations fondamentales de la théorie mécanique de la chaleur (1865):

Je préfère emprunter aux langues anciennes les noms des quantités scientifiques importantes, afin qu'ils puissent rester les mêmes dans toutes les langues vivantes; je proposerai donc d'appeler la quantité S l'entropie du corps, d'après le mot grec η τροπη une transformation. C'est à dessein que j'ai formé ce mot entropie, de manière qu'il se rapproche autant que possible du mot énergie; car ces deux quantités ont une telle analogie dans leur signification physique qu'une analogie de dénomination m'a paru utile. (cité dans Dictionnaire d'histoire et de philosophie des sciences de Dominique Lecourt, chez PUF, 1999).

Pour en savoir plus

Approche thermodynamique de Carathéodory (1908)

Dès la fin du XIXe siècle (Un siècle est maintenant une période de cent années. Le mot vient du latin saeculum, i, qui...), la thermodynamique développée (En géométrie, la développée d'une courbe plane est le lieu de ses centres de...) initialement pour les machines thermiques fût appliquée avec succès aux phénomènes electriques et magnétiques, aux changements d'états, et aux réactions chimiques. C'est pourquoi l'introduction traditionnelle de l'entropie basée sur l'étude des machines thermiques cycliques fût critiquée au début du XXe siècle pour son manque de généralité, notamment par Born. Stimulé par cette critique, Carathéodory a remplacé en 1908 cette approche par un traitement purement axiomatique basé sur les propriétés d'intégrabilité des formes différentielles de Pfaff.

En prenant comme postulat de sa thermodynamique d'équilibre qu'il existe des états inaccessibles par voie adiabatique dans le voisinage de tout état d'équilibre donné, Carathéodory[2] démontre l'existence (locale[3]) d'une fonction entropie. En termes techniques, Carathéodory démontre que la forme différentielle (En géométrie différentielle, une forme différentielle est la donnée d'un...) " tranfert thermique élémentaire " δQ admet un facteur intégrant 1/T, i.e. que :

\frac{1}{T} \ \delta Q \ = \ dS

est une différentielle exacte, propriété des fonctions d'état.

Pour voir le lien avec le postulat initial, on remarque que tous les états accessibles par voie adiabatique Q = 0) à partir d'un état initial Ei sont alors nécessairement situés sur la surface isentropique S=S(Ei) =cte. Il existe donc des états inaccessibles par voie adiabatique, à savoir tous ceux qui ne sont pas situés sur cette surface. Le théorème (Un théorème est une proposition qui peut être mathématiquement démontrée, c'est-à-dire une...) de Carathéodory établit la réciproque (La réciproque est une relation d'implication.) non-triviale : si il existe des états inaccessibles par voie adiabatique, alors il existe un facteur intégrant, et donc une fonction d'état entropie (Cf. livre de Rocard).

Cette présentation axiomatique reçue à l'époque un accueil enthousiaste de Born, Landé, Chandrasekhar, et Buchdahl, mais son orientation (Au sens littéral, l'orientation désigne ou matérialise la direction de l'Orient (lever du soleil...) mathématique a rebuté nombre de physiciens, et elle est restée relativement confidentielle jusqu'à ce qu'elle soit simplifiée à la fin des années 1950[4] par L. A. Turner, F. W. Sears, et Peter T. Landsberg[5].

Approche thermodynamique de Lieb-Yngvason (1997)

En 1997, Lieb et Yngvason ont proposé[6] une nouvelle dérivation de l'existence de l'entropie en thermodynamique d'équilibre qui ne fait appel ni aux machines thermiques, ni à la température, ni même aux concepts plus primitifs de " chaud " et de " froid " (et encore moins à la physique statistique). Leur approche est basée sur la notion d'états d'équilibres " accessibles par voie adiabatique  " (i.e. dans l'esprit de Carathéodory), mais où leur notion d'accessibilité adiabatique est définie - dans l'esprit de Planck (1926) - de façon purement mécanique à travers le déplacement ( En géométrie, un déplacement est une similitude qui conserve les distances et les angles...) d'un poids (Le poids est la force de pesanteur, d'origine gravitationnelle et inertielle, exercée par la...), sans référence au concept de transfert thermique. Dans cette approche, la température apparait à la fin comme une dérivée (La dérivée d'une fonction est le moyen de déterminer combien cette fonction varie quand la...) partielle de l'entropie, une fois que la différentiabilité de cette fonction a été démontrée.

Page générée en 0.006 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise