Entropie

Le concept d’entropie est né au 19e siècle dans une discipline scientifique alors nouvelle, appelée thermodynamique, dont le but était de décrire les changements de forme que pouvait prendre une quantité, elle aussi nouvelle, appelée énergie. L’entropie fut introduite pour rendre compte de l’irreversibilité de certains de ces changements.

L’énergie est elle-même un concept difficile qui n’a pas vraiment de définition, à part celle que lui donne un principe de conservation (voir R. Feynmann ). Il n’est alors pas surprenant qu’une notion qui lui est dérivée soit elle-même obscure. Mais ici la confusion est encore plus grande et un cap est franchi : l’entropie est reliée à une grandeur subjective et anthropocentrique, à savoir la quantité d’information qui nous manque pour décrire complètement le système considéré.

Cette introduction de la subjectivité dans les “sciences dures” est étonnante. À cela s’ajoute le fait que l’entropie est invoquée dans pratiquement tous les domaines de la science : depuis la cosmologie (“l’entropie de l’univers tend vers un maximum”, R. Clausius ) jusqu’aux sciences du vivant (“Un organisme vivant augmente continuellement son entropie et tend ainsi à se rapprocher de l’état dangereux d’entropie maximale, qui est la mort”, E. Schrödinger ) en passant par le codage et la compression des données et l’informatique .

Récemment, j’ai apporté mon grain de sel à cette affaire.

Thermostatistique, information, subjectivité, pourquoi cette association est-elle si dérangeante?

Traductions: EN
Bien que la théorie de l’information résolve les incohérences (connues sous la forme d’énigmes) de l’approche traditionnelle de la thermostatistique, sa place dans la littérature correspondante n’est pas celle qu’elle mérite. Cela est interprété comme étant dû à des raisons épistémologiques plutôt que scientifiques: la subjectivité introduite en physique est perçue comme un problème. Cet article tente d’exposer et de clarifier où exactement réside cette subjectivité: dans la représentation de la réalité et l’inférence probabiliste.

De la masse supposée de l'entropie et de celle de l'information

Traductions: EN
En théorie de la relativité restreinte, l’énergie se trouve sous deux formes: énergie cinétique et masse au repos. L’énergie potentielle d’un corps est en fait stockée sous forme de masse, l’énergie d’interaction aussi, la température ne l’est pas. L’information acquise au sujet d’un système dynamique peut être potentiellement utilisée pour en extraire utilement de l’énergie. D’où le “principe d’équivalence masse-énergie-information” qui a été récemment proposé. Dans cet article, il est rappelé en premier lieu que pour un système constitué d’entités indépendantes à température constante, l’énergie interne est également constante.

Irréversibilité thermodynamique et logique : une objection concrète au principe de Landauer

Traductions: EN
Le principe de Landauer stipule que l’irréversibilité logique d’une opération, telle qu’effacer un bit, quelle que soit son implémentation physique, implique nécessairement son irréversibilité thermodynamique. Dans cet article, un contre exemple très simple d’implémentation physique (qui utilise une relation surjective entre les états logiques et thermodynamiques) est présentée. Elle permet d’effacer un bit d’une manière thermodynamiquement quasi-statique, c’est à dire qui tendrait vers la réversibilité si le processus était conduit suffisament lentement.

Plaidoyer pour l'utilisation de la formule exacte de Stirling en mécanique statistique

Traductions: EN
En mécanique statistique, ce que l’on appelle généralement l’approximation de Stirling pour N! est en fait une approximation de la formule exacte de Stirling. Dans cet article, je montre que le terme qu’on laisse généralement tomber est en fait celui qui tient compte des fluctuations. En utilisant la formule exacte, nous sommes alors obligés de les réintroduire dans la résolution de certains problèmes très classiques comme celui du paradoxe de l’extensivité de l’entropie, ou celui du paradoxe de Gibbs concernant le mélange de deux volumes d’un même gaz.

Une courte démonstration de la distribution de Boltzmann et de la formule de Gibbs pour l'entropie à partir du postulat fondamental

Traductions: EN
Introduire la distribution de Boltzmann très tôt dans un cours de thermodynamique statistique (dans l’esprit de ce que fait Feynmann) présente beaucoup d’avantages didactiques, en particulier celui de pouvoir démontrer très facilement la formule de Gibbs pour l’entropie. Dans cette note, je donne une démonstration très courte qui part du postulat fondamental de la mécanique statistique et qui utilise des calculs élémentaires accessibles à des étudiants de premier cycle. Téléchargement (en anglais): PDF

Qu'est-ce que réellement l'entropie : la contribution de la théorie de l'information

Traductions: EN
Encore aujourd’hui le concept d’entropie est souvent perçu comme très obscur. La difficulté majeure est analysée ici comme étant due à la subjectivité et l’anthropocentrisme du concept qui nous empêche de l’envisager avec le recul suffisant. Cepandant, il est souligné que les incohérences de certaines présentations ou certaines idées préconçues n’aident pas. Elles sont de trois sortes : 1. la thermodynamique axiomatique; 2. les solutions incohérentes de certains paradoxes; 3. la répugnance des physiciens à accepter la simplification que permet la théorie de l’information.