ENTROPIE

-entropie

1.DEFINITION de l’ENTROPIE

1.1. Supposons une particule libre, composée de matière électriquement neutre, à qui l’on apporte une certaine énergie : elle va acquérir un mouvement nouveau (translation, rotation, vibration) et éventuellement une certaine énergie cinétique résiduelle

Supposons maintenant une collection de ces particules identiquement libres, à qui l’on apporte une certaine énergie : elles vont pareillement acquérir des mouvements nouveaux (translation, rotation, vibration), donc se heurter entre elles (avec énergie cinétique) en créant des perturbations d’arrangements chez celles qui sont choquées (donc création de désordre dans leurs dispositions) Ces chocs, en plus des nouveaux mouvements, font apparaître une nouvelle forme d'énergie (la chaleur), se manifestant sous forme de charge thermique (la température)

Supposons enfin que ce soit maintenant une collection de particules déjà chargées d’électricité, de saveur et de couleur, à qui l’on apporte une nouvelle énergie . Elles supportent déjà des échanges énergétiques entre elles, issus de leurs interactions (chimiques, électriques, de saveurs, fluidiques,….) créant déjà des perturbations (du désordre) et de la chaleur (augmentation de la température) L'apport énergétique complémentaire dans ce système, augmentera les mêmes effets

On constate qu’il y a proportionnalité entre la chaleur (énergie Eq) créée dans tous ces échanges et la température T ambiante aux phénomènes et le rapport entre ces deux notions est nommé entropie (symbole S)

dS = dE/ dT = formule de l'entropie de Clausius (domaine macroscopique)

La température est toutefois mesurée au moyen d’une échelle (donc à travers des valeurs discrètes)

Le second principe de la thermodynamique nous fait cependant remarquer que si l’apport d'énergies dites nobles (autres que thermique) a ici créé une augmentation de température, l’inverse n’est pas vrai : si l’on baisse la température du système formé par le tas de particules, on ne récupère pas d’énergie(s) noble(s) en retour : l’échange énergétique est irréversible : on ne peut que récupérer de la chaleur, mais pas le contraire dS > 0

On a vu que l'arrivée de la chaleur (et donc de l'entropie correspondante) est liée à la création d'un désordre des arrangements (mécanico-énergétiques et positionnels) des particules perturbées du système, sous l'arrivée d'une énergie nouvelle dans le système

Si l’on essaie de quantifier ce phénomène de désordre dans l’infiniment petit, on peut dire que chaque microphénomène initie un quantum d'entropie (symbolisé k) et ceci se répète un nombre incroyable de fois, à l’occasion des chocs inter-particulaires. Cela se formalise par  = k.Log w

où S est l’entropie concomitante au désordre, k est la constante de Boltzmann (c'est à dire le quantum entropique, pour chaque choc et valant 1,3806503. 10-23 J / K )et (Log w) est le logarithme népérien de w, qui est la probabilité de démolir un arrangementinter-particulaire à partir d'un choc nouveau

 

1.2.Statistiquement, il est évident que plus le temps passe, plus forte est la distribution aléatoire d’arrangements (w) donc l’entropie augmente au cours du temps. Et il apparaît également évident qu’on ne peut faire appel à un génie qui saurait faire machine arrière pour ranger avec exactitude ce qui vient d’être désordonné. L’entropie augmente, sans espoir de recul et  dS > 0

 

L’entropie est une variable d'ETAT extensive, c'est à dire propre aux quantités incluses dans son système

Equation aux dimensions structurelles de l'entropie : L2.M.T-2.Θ-1

Symbole de désignation : S (et k pour le cas particulier de la constante de Boltzmann)

Unité S.I.+ : le (J / K)

Relation entre unités:

1 constante de Boltzmann (k) = 1,3806503. 10-23 J / K

1 calorie par degré (Celsius ou Kelvin) vaut 4,185.103 J/K

 

1.3.Il faut déterminer une valeur zéro de l’entropie, pour définir son unité de mesure. Mais que faut-il prendre ? On peut dire qu'au big bang, l'entropie était minimale parce qu’il n’y avait pas de matière.Mais on peut aussi dire qu'elle était maximale, parce qu’il y avait une énergie trop élevée pour la température de l’instant ?

Les Physiciens ont tranché, à travers le 3° principe de la thermodynamique, qui dit que l’entropie est nulle quand la température est au zéro absolu (car là, plus rien ne bouge)

L'entropie est forte pour un gaz, plus faible pour un liquide et encore plus faible pour un solide 

 

1.4.si l’équation ci-dessus devient une égalité (dS = constante),  cela signifie que la production d’entropie est stabilisée, il y a équilibre et normalement,  l'équation d’un système  reste identique, quel que soit le sens du temps (+ ou -)

Mais il arrive que, lors d'une situation d'équilibre --et grâce à une expérimentation astucieuse-- on puisse créer, pendant un court instant, certaines modifications infinitésimales d’une variable d’état  du système et alors on obtient une légère réversibilité

 

1.5. on généralise parfois la notion d’entropie au-delà de la thermodynamique, en disant que si un système reçoit beaucoup d'informations différentes, il aura une forte entropie (et s'il reçoit beaucoup d'informations identiques, son entropie chutera)

Par exemple, si une source émet des signaux polychromes, le récepteur aura une entropie maximale, mais si les signaux sont d’origine monochromatique, l'entropie du récepteur sera moindre

 

 

2.ECHANGE f'ENTROPIES

-si un système est ouvert sur un autre système, son entropie baissera mais celle de son voisin augmentera

-quand un système apporte son énergie pour augmenter la température d’un autre système, cet échange entropique est alors dit ’’capacité thermique (ou capacité calorifique)’’ C’est une grandeur(C) exprimant que l’apport dans un corps d'une quantité d’énergie calorifique DEq   crée une certaine variation de température ΔT. (C = ΔEq / ΔT )

Voir chapitre spécial

 

3.ENTROPIE de GIBBS ou Entropie statistique

et (à peu près similaires) Entropie de von Neumann et Entropie de Shannon

On généralise la loi de Boltzmann ci-dessus (sous réserve d'énergies moyennes) 

S= -kw.Logw

où Sest l’entropie de Gibbs-Neumann, k la constante de Boltzmann (quantum entropique = 1,3806503. 10-23 J/K ) et (Log w) = logarithme népérien de w, qui est la probabilité de démolir un arrangement inter-particulaire dès lors qu'un choc nouveau intervient dans l'ensemble

 

4.NEGUENTROPIE

Si un système est composé de 2 sous-systèmes, l'entropie devient

Δ= ΔS1+ ΔS2  mais  Δ> 0

Si la partie ΔS2 est négative, elle est dite alors néguentropie et résulte des échanges d'énergie et d'informations entre le système Set l’extérieur

Cette apparition de néguentropie s’applique en particulier à un être vivant, car celui-ci absorbe l'énergie que lui fournit son milieu extérieur et détruit l'entropie par 3 moyens:

--d'une part l'être exécute une transformation énergétique >>> son système physico-chimique performant établit son métabolisme, qui lui permet de maintenir un rapport entropique constant (chaleur consommée / température)

--d'autre part l'être assure une pérennité des informations qu'il acquiert>>> grâce à un système (plus ou moins) nerveux, il construit et mémorise un ensemble d'informations lui permettant d'assurer son équilibre et sa survie. C'est évidemment contraire au principe entropique, qui entraîne la destruction temporelle des informations bien rangées dans un système soumis aux chocs extérieurs

--et enfin l'être transmet ses informations acquises, grâce à son code génétique.Il transmet à ses générations futures, les informations précédemment ingérées.Par cela,l'être vivant montrequ'il a conscience du temps --d'une part, par sa lutte permanente contre sa propre mort et d'autre part, par son besoin primordial de se reproduire, pour perdurer au-delà de lui-même.

 

5.CAS PARTICULIERS dENTROPIE

5.1.courant d'entropie

Notion similaire à une résistance thermique.C'est une entropie instantanée; le fait que le système résiste au passage des charges thermiques --c.à.d. la température-- consomme de la puissance, en compensation, ce qui augmente la quantité d'entropie

Equation aux dimensions : L2.M.T-3. Θ-1   Symbole de désignation : Q*e      

Unité S.I.+ : W/K

 

5.2.la chaleur réduite est parfois définie comme uneentropie élémentaire, ce qui est faux, car c'est un échange énergétique avec l'extérieur, donc c'est une capacité thermique:c'est le quotient C =(énergie thermique / température) = E/ T

Dans un cycle de Carnot   (réversible) la somme des chaleurs réduites est nulle

 

5.3.entropie d’un gaz parfait (gaz où les actions intermoléculaires sont nulles)

Δ= m.c’v.(p/ pi).(V/ Vi)g

ΔS(J/K)= variation d’entropie du gaz

c’v(J/kg-K)= capacité thermique massique du gaz

p(Pa)= pression initiale(i) et finale (f)

V(m3)= volume initial(i) et final (f)

 est le coefficient d’adiabaticité (ou de Laplace)= rapport entre la capacité thermique à pression constante et celle à volume constant

--dans le cas particulier où  ΔS = 0 (transformation isentropique) on retrouve la loi de Laplace  p.V= constante.

--dans un autre cas particulier,où ΔS = 0 avec en outre  g = 1, on retrouve la loi de Mariottep.V = constante)

 

5.4.saut d’entropie = c'est une variation rapide d’entropie

 

5.5.entropie maximale d'une sphère de matière:

S= (4.k/3).(p².l /30)1/4.(ρ'.c / h)3/4.V1/4

SM(J/K)= entropie maximale pour un corps sphérique de volume V(m3)

k= constante de Boltzmann(1,3806503. 10-23 J / K)

l(m)= rayon du corps et ρ(kg/m3)= sa masse volumique

c(m/s)= constante d’Einstein(2,99792458 .10m/s)

et h= constante de Planck (6,62606876.10-34 J-s)

 

5.6.entropie de réaction

Il s'agit de la variation d’entropie accompagnant une transformation d'état

Δ= (ΔH - ΔG) / T

S(J/K) = entropie, H(J) enthalpie , G(J) = énergie de Gibbs (enthalpie libre)

 

5.7.relation entre entropie et capacité thermique

L'entropie (S) est le rapport entre l'énergie que le système possède lui-même en son intérieur et qui sert à maintenir sa température (= Eq / T)

La capacité calorifique (C) est de même genre, mais la chaleur est ici apportée de l'extérieur par un autre système communiquant, ce qui permet de créer une variation de température (C = ΔEq / ΔT )

C(J/K) est la capacité thermique d’une quantité de n particules (ce qui signifie que

C = C’.q.n  où est le nombre de particules et C’(J/K-mol) la capacité thermique molaire d’une quantité de matière de q(mol)

 

6.POLYTROPIE et ISENTROPIE

6.1. les systèmes polytropiques sont les systèmes usuels à entropie banale (c’est surtout le cas des gaz)

La relation usuelle interne qui les concerne est  p.VKp = constante où p est la pression, V le volume et Kp  la constante polytropique (valeur entre 0 et l')

 

6.2.un système isentropique a une entropie constante, donc ΔS = 0 et alors :

--ou bien c'est un système irréversible, parce qu'il ne crée ni de S, ni de température (c'est de l'adiabatisme)

--ou bien c'est un système réversible, parce qu'il crée momentanément de la S, mais elle est compensée par une acquisition d'entropie extérieure au système et ΔS redevient vite = 0   Par exemple, pour les gaz parfaits p.V= constante

(p étant la pression, V le volume et la constante adiabatique)

 

7.ENTROPIE MASSIQUE

C'est une entropie ramenée à la masse de matière pour laquelle elle est définie

Equation aux dimensions : L2.T-2.Θ-1    Symbole: s’Unité S.I.+ : J / kg-K

 

8.ENTROPIE MOLAIRE

La relation molaire (issue de ci-dessus) est  / q = C’.n

où (S / q) est l'entropie molaire

C’(J/K-mol) est la capacité thermique molaire d’une quantité de matière q(mol)

Valeurs d'entropies molaires , exprimées en Joule par Kelvin-mole (J/K-mol)

A 0 degré K : 3,4 (eau )

A 300 degrés K : 238(ozone)--283(phosgène)--95(chloroforme)

A l’échelon individuel d’une particule, cette relation exprime un micro-état

A l'échelon global, si concerne un très grand nombre de particules (par exemple  n0 = 6,02.1023 particules) >>> S devient égal à une valeur remarquable (k), dite constante de Boltzmann valant  1,3806503.10-23 J / K)

C' devient de son côté = R*(la constante molaire, qui vaut 8,31 J/K-mol)

et q devient = 1/N(où NA est la constante d'Avogadro = 6,02214.1023 particules par mole)

La relation devient, dans ce cas  k = R*m.n/ NA

Ce qui sert de définition pour la constante de Boltzmann

 

9.ENTROPIE SPÉCIFIQUE

c'est l'ancien nom de l'entropie massique (revoir § 7 ci-dessus)

Dimension Symbole de désignation : s’ Unité S.I.+ : J / kg-K

 

10.LOI de BOLTZMANN

10.1.Si l'on applique les formules de l'entropie à l’échelon microscopique (à chaque particule individuellement), on dit que cela concerne chaque micro-état

Dans un système isolé, l’énergie qui y est incluse sert : d'une part à refaire une organisation individuelle du système qui récupère après une incursion énergétique (il se fait une homogénéisation ou moyennisation des arrangements mécaniques et positionnels des particules constitutives) et d'autre part à produire de la chaleur (qui est une espèce de résidu énergétique issu de tous les frottements et qui ne sert qu'à créer de la température, suite à l'agonie de la dynamique) 

Ce phénomène (beaucoup de chaleur et réduction des mouvements) est l'entropie; et le second principe de thermodynamique stipule que (dans un système isolé), l'énergie utile se désorganise le plus possible, pour arriver à un état de désordre des particules, par démolition multiple des arrangements antérieurs.

L'entropie est donc le bilan de la chaleur ayant servi à donner une température dans le système, ce qui se traduit en formule par >> = k.Log w où S est l’entropie du système, k est la constante de Boltzmann (ou quantum d'entropie = 1,3806503. 10-23 J / K) et Log est le logarithme népérien de w, qui est la probabilité de considérer un certain nombre d’arrangements possibles pour les diverses particules constitutives)

10.2.statistiquement

il y a plus de chances de trouver une distribution d’arrangements w très aléatoire plutôt qu'un rangement formel : donc l’entropie sera maximale si ce maximum d'arrangements aléatoires est atteint

On généralise d'ailleurs en disant que si un système reçoit beaucoup d'informations différentes, il aura une entropie maxi, mais que s'il ne reçoit que des informations identiques, il aura une entropie baissière (par exemple, si une source émet des signaux polychromes, le récepteur aura une entropie maximale, mais si les signaux deviennent en grande partie monochromatiques, l'entropie du récepteur sera moindre)

L'entropie est plus faible pour un solide que pour un gaz (qui a des degrés de liberté plus importants, ce qui veut dire plus d’arrangements aléatoires) .

L’entropie est nulle quand la température est au zéro absolu, car quand il n'y a plus de température, plus rien ne bouge et plus de correction d'arrangements aléatoires (3° principe de thermodynamique)

 

11.CONSTANTE DE BOLTZMANN

On a vu au § 8, la définition de la Constante dimensionnelle de Boltzmann, exprimant une valeur particulière d’entropie

Equation aux dimensions : L2.M.T-2.Θ-1        Symbole : k    Unité S.I.+ : J/K

En partant de l'équation générale de l'entropie   n.C’.q  et en l'appliquant au cas particulier du nombre d'Avogadro, on a  k = R*m.n/ NA

(k)constante de Boltzmann vaut 1,3806503.10-23 J / K)

R*(la constante molaire) vaut 8,31 J/K-mol)

n0 = 6,02.1023 particules

NA estla constante d'Avogadro, = 6,02214.1023 particules par mole

 

12.CORRELATION entre entropie et température

La notion d'entropie permet de relier la température (qui est une échelle) à l’énergie (qui est dimensionnelle).

La "Confrérie des Simplificateurs de formules" aime à considérer qu’aux températures extrêmes, on peut poser arbitrairement Log w = 1. Alors ils font fi de l'entropie et prétendent que 1 degré de température "équivaut" à 1,381.10-23 Joule

Laissons-les rêver, ils vont fabriquer des Joules avec des degrés....

 

13.ENTROPIE MICROCANONIQUE

est Su = k.Lognc

où nest le nombre de complexions (répartitions) incluses dans le système

 

14.ENTROPIE de l'UNIVERS

Par définition, l'entropie acquise par l'univers est le rapport SE / STSE est la totalité de l'énergie moyenne transformée en chaleur dans l'univers depuis son origine et ST est la moyenne des températures du vide pendant la même durée

On connaîtl'énergie que l'univers a déjà dépensé pour créer ce qui existe à ce jour(9.1069 Joulesmais on ne sait pas pour autant combien a pu finir sous forme de chaleur.Peut être une infime parcelle de 1050 Joules ?

Pour la température, on dit que T est passée de 3000° à 3 °K en 4.1017 secondes (presque la totalité de l'âge de l'univers), mais de manière non linéaire-- donc il faut admetter 3000° à ces instants-là. Alors, avec ces 2 paramètres douteux, on ne peut faire qu'une très vague supputation d'une entropie d'univers de 1047 J/K ?.

   Copyright Formules-physique ©