ENTROPIE MICROSCOPIQUE

-entropie microscopique

Reprenons la formule vue dans le chapitre "entropie macroscopique" >>

S = C’.q.n    où S(J/K) est l'entropie, n est le nombre de particules dans le système, C’(J/K-mol) est la capacité thermique molaire, c'est à dire la chaleur qu'il faut apporter pour augmenter la température d'une quantité de matière q(mol) incluse dans ce système (un corps, par exemple).

 

LOI de BOLTZMANN

Si l'on applique cette formule à l’échelon microscopique (à chacune des particules, individuellement), on dit qu'elle s'énonce pour chaque micro-état

Dans un système isolé, l’énergie sert d'une part à produire de la chaleur, qui va servir à créer de l'énergie entropique et d'autre part à organiser le système, c'est à dire à égaliser, homogénéiser (moyennisation) des divers arrangements (mécaniques et positionnels) des particules constitutives du système

Or la chaleur est consommatrice prioritaire de l'énergie disponible dans un système isolé. Au détriment du travail qui, lui, est nécessaire pour maintenir ou organiser les arrangements évoqués ci-dessus (vitesses, positions, niveaux d’énergie...)

C'est là l'énoncé du second principe de thermodynamique (Toute transformation d'un système thermodynamique s'effectue avec augmentation de l'entropie)

Donc lesdits arrangements sont déstabilisés, désorganisés, ils présentent des désordress aux mouvements moléculaires. Donc l'entropie (qui est une chaleur fonction de la température) se manifeste comme créatrice d'un état de désordre des particules, c'est à dire une décroissance des arrangements antérieurs.

Traduction en formule >> = k.Log w où S est l’entropie du système, k est la constante de Boltzmann (1,3806503. 10-23 J / K), c'est à dire le quantum d'entropie et Log est le logarithme népérien de w, la probabilité de trouver un certain nombre d’arrangements possibles des diverses particules constitu-antes)

Statistiquement, il y a plus de chances de trouver une distribution d’arrangements w très aléatoire plutôt qu'un formel rangement; donc l’entropie sera maximale si ce maximum d'aléatoire est atteint

On généralise d'ailleurs en disant que si un système reçoit beaucoup d'informations différentes, il aura une entropie maxi, mais s'il reçoit beaucoup d'informations identiques, son entropie chutera vers de basses valeurs

Par exemple, si une source émet des signaux polychromes, le récepteur aura une entropie maximale, mais si les signaux deviennent en grande partie monochromatiques, l'entropie du récepteur sera moindre

L'entropie est plus faible pour un solide que pour un gaz (qui a des degrés de liberté plus importants, c'est à dire plus d’arrangements aléatoires) .

L’entropie est nulle quand la température est au zéro absolu, car quand il n'y a plus de température, plus rien ne bouge (3° principe de thermodynamique)

 

CONSTANTE DE BOLTZMANN

Constante dimensionnelle, elle exprime une valeur particulière d’entropie

Equation aux dimensions structurelles : L2.M.T-2.Θ-1        Symbole : k        

Unité S.I.+ : J/K

L'entropie (vue ci-dessus) est   = n.C’.q

Si on est à un échelon global (un grand nombre de particules, par exemple n = 6,02.1023 particules) , C' devient égale à R*m(J/K)= constante molaire des gaz (8,314472 J/mol-K) et q = 1/ NA(mol-1) inverse de la constante d’Avogadro (6,02214/mol) >>  l'entropie S devient k (constante de Boltzmann  = R*m./ NA  et en valeur c'est 1,3806503.10-23 J / K)

 

ENTROPIE de GIBBS

 

Il s'agit d'un cas particulier de la loi de Boltzmann ci-dessus, pour lequel on est à l'équilibre (et sous réserve d'énergies moyennes)

S= kw.Logw.dT

 

CORRELATION entre entropie et température

La notion d'entropie permet de relier la température (qui est une échelle), à l’énergie (qui est dimensionnelle).

Certains considèrent qu’aux températures extrêmes, on peut poser arbitrairement Log w = 1. Et ils prétendent qu'en égalant alors les formules ci-dessus, on a k = ΔE / T ou T = ΔE / k

Et soudain >> 1 degré de température "équivaut" à 1,381.10-23Joule (ou 8,617.10-5   électronvolt)

C'est une curieuse simplification aux limites, et on ne voit pas à quoi elle sert.

Elle occulte la relation cependant toujours fondamentale : Énergie = Température x Entropie (on ne change pas la nature des choses en changeant d’unité de mesure !)

 

Entropie microcanonique

c'est Su = k.lognc

nc est le nombre de complexions (nombre de micro-états) incluses dans le système et Log est le logarithme népérien

   Copyright Formules-physique ©