ENTROPIE

-entropie macroscopique

1.DEFINITION de l’ENTROPIE

1.1. Supposons une particule libre, composée de matière électriquement neutre, à qui l’on apporte une certaine énergie : elle va acquérir un mouvement nouveau (translation, rotation, vibration) et éventuellement une certaine énergie cinétique résiduelle

Supposons maintenant une collection de ces particules identiquement libres, à qui l’on apporte une certaine énergie : elles vont pareillement acquérir des mouvements nouveaux (translation, rotation, vibration), donc se heurter entre elles (avec énergie cinétique) en créant des perturbations d’arrangements chez celles qui sont choquées (donc création de désordre dans leurs dispositions) Ces chocs, en plus des nouveaux mouvements, font apparaître une nouvelle forme d'énergie (la chaleur), se manifestant sous forme de charge thermique (la température)

Supposons enfin que ce soit maintenant une collection de particules déjà chargées d’électricité, de saveur et de couleur, à qui l’on apporte une nouvelle énergie . Elles supportent déjà des échanges énergétiques entre elles, issus de leurs interactions (chimiques, électriques, de saveurs, fluidiques,….) créant déjà des perturbations (du désordre) et de la chaleur (augmentation de la température) L'apport énergétique complémentaire dans ce système, augmentera les mêmes effets

On constate qu’il y a proportionnalité entre la chaleur (énergie Eq) créée dans tous ces échanges et la température T ambiante aux phénomènes et le rapport entre ces deux notions est nommé entropie (symbole S)

d= dE/ dT = formule de l'entropie de Clausius (domaine macroscopique)

La température est toutefois mesurée au moyen d’une échelle (donc à travers des valeurs discrètes)

Le second principe de la thermodynamique nous fait cependant remarquer que si l’apport d'énergies dites nobles (autres que thermique) a ici créé une augmentation de température, l’inverse n’est pas vrai : si l’on baisse la température du système formé par le tas de particules, on ne récupère pas d’énergie(s) noble(s) en retour : l’échange énergétique est irréversible : on ne peut que récupérer de la chaleur, mais pas le contraire d> 0

On a vu que l'arrivée de la chaleur (et donc de l'entropie correspondante) est liée à la création d'un désordre des arrangements (mécanico-énergétiques et positionnels) des particules perturbées du système, sous l'arrivée d'une énergie nouvelle dans le système

Si l’on essaie de quantifier ce phénomène de désordre dans l’infiniment petit, on peut dire que chaque microphénomène initie un quantum d'entropie (symbolisé k) et ceci se répète un nombre incroyable de fois, à l’occasion des chocs inter-particulaires. Cela se formalise par  = k.Log w

où S est l’entropie concomitante au désordre, k est la constante de Boltzmann (c'est à dire le quantum entropique, pour chaque choc et valant 1,3806503. 10-23 J / K )et (Log w) est le logarithme népérien de w, qui est la probabilité de démolir un arrangementinter-particulaire à partir d'un choc nouveau

 

1.2.Statistiquement, il est évident que plus le temps passe, plus forte est la distribution aléatoire d’arrangements (w) donc l’entropie augmente au cours du temps. Et il apparaît également évident qu’on ne peut faire appel à un génie qui va savoir faire machine arrière pour ranger avec exactitude ce qui vient d’être désordonné. L’entropie augmente, sans espoir de retour d> 0

 

L’entropie est une variable d'ETAT extensive, c'est à dire propre aux quantités incluses dans son système

Equation aux dimensions structurelles de l'entropie : L2.M.T-2.Θ-1

Symbole de désignation : S (et k pour le cas particulier de la constante de Boltzmann)

Unité S.I.+ : le (J / K)

Relation entre unités:

1 constante de Boltzmann (k) = 1,3806503. 10-23 J / K

1 calorie par degré (Celsius ou Kelvin) vaut 4,185.103 J/K

 

1.3.Il faut déterminer une valeur zéro de l’entropie, pour définir son unité de mesure. Mais que faut-il prendre ? On peut dire qu'au big bang, l'entropie était minimale parce qu’il n’y avait pas de matière.Mais on peut aussi dire qu'elle était maximale, parce qu’il y avait une énergie trop élevée pour la température de l’instant ?

Les Physiciens ont tranché, à travers le 3° principe de la thermodynamique, qui dit que l’entropie est nulle quand la température est au zéro absolu (car là, plus rien ne bouge)

L'entropie est forte pour un gaz, plus faible pour un liquide et encore plus faible pour un solide 

 

1.4.si l’équation ci-dessus devient une égalité (d= constante)

cela signifie que la production d’entropie eststabilisée, il y a équilibre

Alors ne serait-il pas possible d’aller un peu plus loin, pour aller vers laréversibilité(c’est à dire un retour à un état antérieur ?) Certaines modifications infinitésimales d’une variable d’état   le permettent parfois, pendant un court instant.Les équations d’un système réversible restent identiques, quel que soit le sens du temps (+ ou -)

 

Un système ouvert ayant une entropie constante, tend vers une énergie minimale

 

1.5. on généralise parfois la notion d’entropie  au-delà de la thermodynamique, en disant que si un système reçoit beaucoup d'informations différentes, il aura une forte entropie (et s'il reçoit beaucoup d'informations identiques, son entropie chutera)

Par exemple, si une source émet des signaux polychromes, le récepteur aura une entropie maximale, mais si les signaux sont d’origine monochromatique, l'entropie du récepteur sera moindre

 

 

2.échange d’entropies

-si un système est ouvert sur un autre système, son entropie baissera mais celle de son voisin augmentera

-quand un système apporte son énergie pour augmenter la température d’un autre système, cet échange entropique est alors dit ’’capacité thermique (ou capacité calorifique)’’ C’est une grandeur(C) exprimant que l’apport dans un corps d'une quantité d’énergie (calorifique) DEq  crée une certaine variation de température ΔT. (C = ΔEq / ΔT )

Voir chapitre spécial (réf 366)

 

3.ENTROPIE de GIBBS

ou Entropie statistique et (à peu près similaires) Entropie de von Neumann et Entropie de Shannon)

Généralisation de la loi de Boltzmann ci-dessus (sous réserve d'énergies moyennes)

 SG= -k?w.Logw

où Sest l’entropie de Gibbs-Neumann, k la constante de Boltzmann (quantum entropique, valant 1,3806503. 10-23 J/K ) et (Log w) = logarithme népérien de w, qui est la probabilité de démolir un arrangement inter-particulaire à partir d'un choc nouveau dans l'ensemble

 

4.néguentropie

On a usuellement: entropie d'un système, composé de 2 sous-systèmes

Δ= Δ1S+ Δ2> 0

Si la partie Δ2est négative elle est dite alors néguentropie et provient des échanges d'énergie et de matière entre l’extérieur et le système

Cette possibilité s’applique en particulier à un être vivant, qui crée une néguentropie dans ses échanges avec l’extérieur

 

5.NOTIONS LIEES à l’ENTROPIE

5.1.courant d'entropie

Notion similaire à une résistance thermique (on résiste au passage des charges thermiques c.à.d. la température, mais ça consomme de la chaleur, ce qui augmente le passage de l'entropie)

Equation aux dimensions : L2.M.T-3. Θ-1   Symbole de désignation : Q*e      

Unité S.I.+ : W/K

 

5.2.la chaleur réduite est une sorte d'entropie élémentaire, mais il s'agit d'un échange avec l'extérieur, donc c'est une capacité thermique:

c'est le quotient C =(énergie thermique / température) = E/ T

Dans un cycle de Carnot   (réversible) la somme des chaleurs réduites est nulle

 

5.3.entropie d’un gaz parfait (gaz où les actions intermoléculaires sont nulles)

Δ= m.c’v.(p/ pi).(V/ Vi)g

ΔS(J/K)= variation d’entropie du gaz

c’v(J/kg-K)= capacité thermique massique du gaz

p(Pa)= pression initiale(i) et finale (f)

V(m3)= volume initial(i) et final (f)

 est le coefficient d’adiabaticité (ou de Laplace)= rapport entre la capacité thermique à pression constante et celle à volume constant

Cas particulier ΔS = 0 (transformation isentropique) on retrouve la loi de Laplace  

p.V= constante.

Autre cas particulier ΔS = 0 et en outre  g = 1, c’est la loi de Mariotte

(p.V = constante)

 

5.4.saut d’entropie = variation rapide d’entropie

 

5.5.entropie maximale d'une sphère de matière:

S= (4.k/3).(p².l /30)1/4.(ρ'.c / h)3/4.V1/4

SM(J/K)= entropie maximale pour un corps sphérique de volume V(m3)

k(J/K)= constante de Boltzmann(1,3806503. 10-23 J / K)

l(m)= rayon du corps et ρ(kg/m3)= sa masse volumique

c(m/s)= constante d’Einstein(2,99792458 .10m/s) et h(J-s)= constante de Planck (6,62606876.10-34 J-s)

 

5.6.entropie de réaction

Il s'agit de la variation d’entropie accompagnant une transformation d'état

Δ= (ΔH - ΔG) / T

S(J/K) = entropie, H(J) enthalpie , G(J) = énergie de Gibbs (enthalpie libre)

 

5.7.relation entre entropie et capacité thermique

L'entropie (S) est le rapport entre l'énergie que le système possède lui-même en son intérieur et sert à maintenir sa température (= Eq / T)

La capacité calorifique (C) est la même chose, mais la chaleur est apportée de l'extérieur par un autre système communiquant, ce qui permet d'alimenter une variation de température 

(C = ΔEq / ΔT )

C(J/K) est la capacité thermique d’une quantité de particules (ce qui signifie que 

C = C’.q.n

où est le nombre de particules et C’(J/K-mol) la capacité thermique molaire d’une quantité de matière q(mol)

 

6.POLYTROPIE et ISENTROPIE

6.1. les systèmes polytropiques sont les systèmes usuels à entropie banale (c’est surtout le cas des gaz)

La relation usuelle interne qui les concerne est  p.VK= constante où p est la pression, V le volume et Kp  la constante polytropique (valeur entre 0 et l')

 

6.2.un système isentropique a une entropie constante, donc ΔS= 0 et alors :

-ou bien c'est un système irréversible, parce qu'il ne crée ni de S, ni de température (adiabatisme)

-ou bien c'est un système réversible, parce qu'il crée momentanément de la S, mais elle est compensée par une acquisition d'entropie extérieure au système et Δredevient = 0

Par exemple, pour les gaz parfaits p.V= constante

(p étant la pression, V le volume et la constante adiabatique)

 

7.ENTROPIE MASSIQUE

C'est une entropie ramenée à la masse de matière pour laquelle elle est définie

Equation aux dimensions structurelles : L2.T-2.Θ-1    Symbole de désignation : s’

Unité S.I.+ : J / kg.K

 

8.ENTROPIE MOLAIRE

La relation molaire (issue de ci-dessus) est

/ q = C’.n

où (S / q) est l'entropie molaire

C’(J/K-mol) est la capacité thermique molaire d’une quantité de matière q(mol)

Valeurs d'entropies molaires , exprimées en Joule par Kelvin-mole (J/K-mol)

A 0 degré K : 3,4 (eau )

A 300 degrés K : 238(ozone)--283(phosgène)--95(chloroforme)

 

A l’échelon individuel d’une particule, cette relation exprime un micro-état

A l'échelon global, si concerne un grand nombre de particules, par exemple  

n0 = 6,02.1023 particules >>> S devient k (constante de Boltzmann valant

(1,3806503.10-23 J / K), C' devient alors R*(constante molaire, qui vaut 8,31 J/K-mol) et q devient 1/NA(NA = constante d'Avogadro, égale à 6,02214.1023 particules par mole)

La relation devient, dans ce cas global   k = R*m.n/ NA

C'est la définition de la constante de Boltzmann

 

9.ENTROPIE SPÉCIFIQUE

c'est une notion de Physique particulaire, désignant le rapport:

énergie photonique / énergie baryonique(c'est à dire énergie de rayonnement / énergie de matière)

 

10.ENTROPIE en INFINIMENT PETIT

La formule (C = n.C’.q)  indique l’évaluation de la capacité th. en infiniment petit. (C) est la capacité thermique, est le nombre de particules dans le système, C’(J/K-mol) est la capacité thermique molaire, c'est à dire la chaleur qu'il faut apporter pour augmenter la température d'une quantité de matière q(mol) incluse dans ce corps.

 

11.LOI de BOLTZMANN

11.1.Si l'on applique la formule du § 10 à l’échelon microscopique (à chaque particule individuellement), on dit qu'elle concerne chaque micro-état

Dans un système isolé, l’énergie sert d'une part à produire de la chaleur, qui va servir à créer de l'entropie et d'autre part à refaire une organisation individuelle du système, qui va tendre à une égalisation et à une homogénéisation (ou moyennisation) des arrangements mécaniques et positionnels des particules constitutives du système. En effet, le second principe de Th°.Dy° stipule que (dans un système isolé), l'énergie utile a tendance à se disperser le plus possible

Mais l'apport de chaleur se fait au détriment de ces arrangements (vitesses,positions, niveaux d’énergie...) ils se désorganisent, présentent des désordres, dûs aux mouvements moléculaires. Donc l'entropie (qui est une chaleur fonction de la température) se manifeste comme créatriced'un état de désordre des particules, c'est à dire une décroissance des arrangements antérieurs.

Traduction en formule >> = k.Log w où S est l’entropie du système, k est la constante de Boltzmann (1,3806503. 10-23 J / K), c'est à dire le quantum d'entropie et Log est le logarithme népérien de w, qui est la probabilité de trouver un certain nombre d’arrangements possibles des diverses particules constituantes)

11.2.statistiquement

il y a plus de chances de trouver une distribution d’arrangements w très aléatoire plutôt qu'un formel rangement; donc l’entropie sera maximale si ce maximum d'aléatoire est atteint

On généralise d'ailleurs en disant que si un système reçoit beaucoup d'informations différentes, il aura une entropie maxi, mais s'il reçoit beaucoup d'informations identiques, son entropie chutera vers de basses valeurs

Par exemple, si une source émet des signaux polychromes, le récepteur aura une entropie maximale, mais si les signaux deviennent en grande partie monochromatiques, l'entropie du récepteur sera moindre

L'entropie est plus faible pour un solide que pour un gaz (qui a des degrés de liberté plus importants, c'est à dire plus d’arrangements aléatoires) .

L’entropie est nulle quand la température est au zéro absolu, car quand il n'y a plus de température, plus rien ne bouge (3° principe de thermodynamique)

 

12.CONSTANTE DE BOLTZMANN

Constante dimensionnelle, exprimant une valeur particulière d’entropie

Equation aux dimensions structurelles : L2.M.T-2.Θ-1        Symbole : k        

Unité S.I.+ : J/K

L'entropie (vue ci-dessus) est   n.C’.q

Si on est à un échelon global (un grand nombre de particules, par exemple n = 6,02.1023 particules) , C' devient égale à R*m(J/K)= constante molaire des gaz (8,314472 J/mol-K) et q = 1/ NA(mol-1) inverse de la constante d’Avogadro (6,02214/mol) >>  l'entropie S devient k (constante de Boltzmann

soitk = R*m./ NA  ayant une valeur numérique de 1,3806503.10-23 J / K)

 

13.CORRELATION entre entropie et température

La notion d'entropie permet de relier la température (qui est une échelle) à l’énergie (qui est dimensionnelle).

La "Confrérie des Simplificateurs de formules" aime à considèrer qu’aux températures extrêmes, on peut poser arbitrairement Log w = 1. Et ils prétendent alors que

dS= dE/ dT (du paragraphe 1.1.) = k.Log w (du paragraphe 11.1) d'où

k = DEq / dT     ou dT = DEq / k

Et soudain >> 1 degré de température "équivaut" à 1,381.10-23 Joule (ou 8,617.10-5 électronvolt)

Douteuse simplification aux limites, occultant la relation cependant toujours fondamentale : Température = énergie/ entropie (on ne change pas la nature des choses en changeant d’unité de mesure !)

 

14.l'entropie microcanonique

est Su = k.Lognc

où nest le nombre de complexions incluses dans le système

   Copyright Formules-physique ©