ENTROPIE MICROSCOPIQUE

-entropie microscopique

Reprenons la formule vue dans le chapitre "entropie macroscopique" >>

(S = n.C’.q)  n est le nombre de particules, C’(J/K-mol) la capacité thermique molaire d’une quantité de matière q(mol)

Cette formule appliquée à l’échelon microscopique (cas individuel d’une particule), est dite exprimer un micro-état, base de la loi de Boltzmann ci-après

LOI de BOLTZMANN

Microscopiquement, dans un système isolé, la partie d’énergie n’apparaissant pas sous forme de chaleur, sert à l’organisation individuelle du système, c'est à dire à l'égalisation et l'homogénéisation (moyennes) des arrangements (mécaniques et positionnels) des particules constitutives du système

Quand il y a augmentation de chaleur, ces arrangements sont déstabilisés (causant désordre)

Donc l'entropie (qui est une chaleur amenée par la température) équivaut par ailleurs à augmenter l’état de désordre des particules

L’entropie augmente donc dans un système en même temps que le nombre d'arrangements décroît ou, comme l’on dit : "si le désordre croît".

Traduction en formule >> S = k.Log w S est l’entropie d’un système, k la constante de Boltzmann (1,3806503. 10-23 J / K), Log le logarithme népérien et w la probabilité thermodynamique de l’état du système (c’est à dire le nombre d’arrangements possibles des diverses particules constituantes et ces arrangements sont les: vitesses, positions, niveaux d’énergie)

Statistiquement, il y a plus de chances de trouver une distribution d’arrangements très aléatoire plutôt que très "rangée", donc l’entropie sera maximale à ce maximum d'aléatoire

Donc si un système reçoit beaucoup d'informations différentes, il aura une entropie maxi

Et s'il reçoit beaucoup d'informations identiques, il aura une entropie minimale

(par exemple, si une source émet des signaux polychromes, le récepteur aura une entropie maximale, mais si les signaux deviennent en grande partie monochromatiques, l'entropie du récepteur sera moindre)

L'entropie est plus faible pour un solide que pour un gaz (qui a des degrés de liberté plus importants, c'est à dire plus d’arrangements aléatoires) .

L’entropie est nulle quand la température est au zéro absolu (3° principe de thermodynamique) Quand il n'y a plus de température, plus rien ne bouge

 

CONSTANTE DE BOLTZMANN

Constante dimensionnelle, elle exprime une valeur particulière d’entropie

Equation aux dimensions structurelles : L2.M.T-2.Θ-1        Symbole : k        

Unité S.I.+ : J/K

L'entropie (vue ci-dessus) est   S = n.C’.q

Si on est à un échelon global (un grand nombre de particules, par exemple n = 6,02.1023 particules) , C' devient égale à R*m(J/K)= constante molaire des gaz (8,314472 J/mol-K) et q = 1/ NA(mol-1) inverse de la constante d’Avogadro (6,02214/mol) >>  l'entropie S devient k (constante de Boltzmann =

k = R*m./ NA  et en valeur c'est 1,3806503.10-23 J / K)

 

-relation entre entropie S et température T

La notion d'entropie permet de relier la température (qui est une échelle), à l’énergie (qui est dimensionnelle).

En physique particulaire, on considère qu’aux températures extrêmes des expériences, Log w = 1

Donc en égalant les formules ci-dessus, on trouve que -et uniquement dans ce cas limite-

1 degré de température "équivaut" à 1,381.10-23 Joule (ou encore 8,617.10-5 électronvolt)

C'est une simplification aux limites, mais la vraie relation est évidemment toujours

Énergie = Température x Entropie.(on ne change pas la nature des choses en changeant d’unité de mesure !)

-entropie spécifique:

Sous ce terme, on désigne le rapport: énergie photonique / énergie baryonique (donc le rapport entre l’énergie de rayonnement et l’énergie de matière)

-entropie massique

C'est une entropie ramenée à la masse de matière pour laquelle elle est définie

Equation aux dimensions structurelles : L2.T-2. Θ-1      

Symbole de désignation : s’        Unité S.I.+ : J / kg.K

   Copyright Formules-physique ©