Accueil |

Entropie

     

L'entropie est la quantité physique qui mesure le degré de désordre d'un système. C'est une fonction d'état en thermodynamique, symbolisée par S. Elle est extensive (l'entropie d'un système est la somme des entropies des éléments). Elle caractérise le manque d'information que l'on a sur un système physico-chimique, ou ce qui revient au même, le nombre d'états différents au niveau microscopique qui ont les même caractéristiques macroscopiques, et que nous ne pouvons donc distinguer.

Un système isolé a naturellement tendance à  voir son entropie augmenter (c'est le second principe de la thermodynamique). Ce principe met en place la "flèche du temps". Posé pour rendre compte de faits d'expériences, il s'articule difficilement avec les équations physiques, qui, elles, sont réversibles. Encore aujourd'hui, cette question est un objet d'intenses recherches, de par son lien avec la nature profonde de l'univers (relativité, mécanique quantique).

L'entropie telle qu'elle est définie en thermodynamique classique mesure le degré de dégradation de l'énergie : l'énergie d'un système isolé est plus ou moins "récupérable". Plus son entropie est basse, plus son énergie est récupérable. Une entropie nulle définie un cycle thermodynamique réversible. Ce genre de cycle n'est possible que dans les cycles théoriques (par exemple, le cycle de Carnot). Puisque l'entropie ne peut qu'être positive, l'addition de plusieurs cycles ne fait qu'augmenter l'entropie totale du système.

En physique statistique, l'entropie est définie par la formule

S = k ln(Ω)

o๠Ω est le nombre d'états microscopiques différents que peut atteindre le système (nombre de complexions). Cette formule établit un lien entre ce nombre d'états et la notion classique de l'entropie. Un système isolé a donc tendance à  évoluer naturellement vers un état macroscopique o๠il dispose du plus grand nombre d'états microscopiques possible, parce que, en gros, tous les état microscopiques sont équiprobables. On dit qu'on a alors d'autant moins d'information sur son état réel.

La notion d'entropie a été introduite en théorie de l'information par Claude Shannon au début des années 50 comme perte d'information ou incertitude. La constante de Boltzmann k est alors interprétée comme un quantum d'information (Les constantes universelles, Gilles Cohen-Tannoudji)

Sommaire
1 Concept
2 Les limites du concept
3 Voir aussi

Concept

L'intuition commune comprend facilement l'existence de l'énergie, cette grandeur qui, pour un système isolé, a la propriété de se conserver sans faille jusqu'à  la nuit des temps.

Autrement surprenante est la grandeur dénommée entropie. Pour le même système isolé, l'entropie, dans le meilleur des cas, ne changera pas, mais en dehors de ce cas très théorique l'entropie ne fera que croître.

Plus concrètement, les réflexions que l'on peut tirer du concept d'entropie expliquent pourquoi nous passons notre temps à  faire et refaire le ménage (car la poussière se disperse et se dispersera toujours...), et finalement révèlent notre nécessité de travailler (le travail au sens de la mécanique classique) pour conserver, via notre alimentation, l'organisation extraordinaire de notre organisme et une température proche de 37°C (une température supérieure à  la température moyenne de la surface terrestre, ce n'est pas un hasard : c'est une nécessité que subissent tous les mammifères). Voici pourquoi vous devez "gagner votre pain" mais également pourquoi le mouvement perpétuel n'existe pas.

L'entropie est donc un concept fascinant en lien avec le temps et une autre notion qui n'a émergé en physique qu'au 20ème siècle : l'information.

Les limites du concept

A noter toutefois que l'entropie n'a rien d'un phénomène général. La théorie des systèmes a montré qu'il y a à  l'inverse passage spontané du désordre à  l'ordre quand se produit le phénomène d'auto-organisation

Voir aussi