ENTROPIE MICROSCOPIQUE

-entropie microscopique

Reprenons la formule vue dans le chapitre "entropie macroscopique" >>

S = C’.q.n    où S(J/K) est l'entropie, n est le nombre de particules dans le système, C’(J/K-mol) est la capacité thermique molaire, c'est à dire la chaleur qu'il faut apporter pour augmenter la température d'une quantité de matière q(mol) incluse dans ce système (un corps, par exemple).

 

LOI de BOLTZMANN

Si l'on applique la susdite formule à l’échelon microscopique (à chacune des particules, individuellement), on dit qu'elle s'énonce pour chaque micro-état

Dans un système isolé, l’énergie sert d'une part à produire de la chaleur, destinée à créer de l'énergie entropique et d'autre part à organiser le système, c'est à dire à égaliser, à homogénéiser, à moyenniser, des petits arrangements (mécaniques et positionnels) pour les particules constitutives du système

Or la chaleur est consommatrice prioritaire de l'énergie disponible dans un système isolé. Au détriment du travail qui, lui, est destiné à maintenir ou organiser les arrangements évoqués ci-dessus (vitesses, positions, niveaux d’énergie...)

C'est là l'énoncé du second principe de thermodynamique (Toute transformation d'un système thermodynamique s'effectue avec augmentation de l'entropie)

Donc lesdits arrangements sont déstabilisés, désorganisés, en compensation de la chaleur créée.Ils manifestent des désordress aux mouvements moléculaires. Donc l'entropie

(créatrice d'énergie calorifique proportionnellement à la température) se présente surtout  comme le phénomène causant un état de désordre des particules, c'est à dire une décroissance des arrangements antérieurs.

La traduction en formule est >> = k.Log w où S est l’entropie du système, k est la constante de Boltzmann (1,3806503. 10-23 J / K), c'est à dire le quantum d'entropie (intéressant chaque particule infiniment petite du système) et Log est le logarithme népérien de w, la probabilité de trouver malgré tout un certain nombre d’arrangements pour les diverses particules constituantes)

Statistiquement, il y a plus de chances de trouver une distribution d’arrangements w très aléatoire plutôt qu'un formel rangement; ce qui veut dire que l’entropie sera maximale si ce maximum d'aléatoire est atteint

On généralise d'ailleurs en disant que si un système reçoit beaucoup d'informations différentes, il aura une entropie maxi, mais s'il reçoit beaucoup d'informations identiques, son entropie chutera vers de basses valeurs

Par exemple, si une source émet des signaux polychromes, le récepteur aura une entropie maximale, mais si les signaux deviennent en grande partie monochromatiques, l'entropie du récepteur sera moindre

L'entropie est plus faible pour un solide que pour un gaz (qui a des degrés de liberté plus importants, c'est à dire qu'il a plus d’arrangements aléatoires) .

L’entropie est nulle quand la température est au zéro absolu, car quand il n'y a plus de température, plus rien ne bouge (3° principe de thermodynamique)

Si l'on augmente le nombre de particules dans le système, on augmente son entropie (plus il y a d'étoiles dans le ciel, plus l'entropie est forte)

 

CONSTANTE DE BOLTZMANN

Constante dimensionnelle, elle exprime une valeur particulière minimale (quantum) d’entropie       Equation aux dimensions structurelles : L2.M.T-2.Θ-1        Symbole : k        

Unité S.I.+ : J/K

L'entropie (vue ci-dessus) est   = n.C’.q

Si on est à un échelon global (un grand nombre de particules, par exemple n = 6,02.1023 particules) , C' devient égale à R*m(J/K)= constante molaire des gaz (8,314472 J/mol-K) et q = 1/ NA(mol-1) inverse de la constante d’Avogadro (6,02214/mol) >>  l'entropie S devient k (constante de Boltzmann  = R*m./ NA  et en valeur c'est 1,3806503.10-23 J / K)

 

ENTROPIE de GIBBS

Il s'agit d'un cas particulier de la loi de Boltzmann ci-dessus, pour lequel on est à l'équilibre (et sous réserve d'énergies moyennes)

S= kw.Logw.dT

 

CORRELATION entre entropie et température

La notion d'entropie permet de relier la température (qui est une échelle), à l’énergie (qui est dimensionnelle).

Certains considèrent qu’aux températures extrêmes, on peut poser arbitrairement Log w = 1. Et ils prétendent qu'en égalant alors les formules ci-dessus, on a k = ΔE / T ou T = ΔE / k

Et soudain >> 1 degré de température "équivaut" à 1,381.10-23Joule (ou 8,617.10-5   électronvolt)

C'est une curieuse simplification aux limites, et on ne voit pas à quoi elle sert.

Elle occulte la relation cependant toujours fondamentale : Énergie = Température x Entropie (on ne change pas la nature des choses en changeant d’unité de mesure !)

 

Entropie microcanonique

c'est Su = k.Lognc

nc est le nombre de complexions (nombre de micro-états) incluses dans le système et Log est le logarithme népérien

   Copyright Formules-physique ©