Énergie, Entropie et Information
Le concept d’entropie est né au 19e siècle dans une discipline scientifique alors nouvelle, appelée thermodynamique, dont le but était de décrire les changements de forme que pouvait prendre une quantité, elle aussi nouvelle, appelée énergie.
L’entropie fut introduite pour rendre compte de l’irreversibilité de certains de ces changements.
L’énergie est elle-même un concept difficile qui n’a pas vraiment de définition, à part celle que lui donne un principe de conservation (voir R. Feynmann
). Il n’est alors pas surprenant qu’une notion qui lui est dérivée soit elle-même obscure. Mais ici la confusion est encore plus grande et un cap est franchi : l’entropie est reliée à une grandeur subjective et anthropocentrique, à savoir la quantité d’information qui nous manque pour décrire complètement le système considéré.
Cette introduction de la subjectivité dans les “sciences dures” est étonnante. À cela s’ajoute le fait que l’entropie est invoquée dans pratiquement tous les domaines de la science : depuis la cosmologie (“l’entropie de l’univers tend vers un maximum”, R. Clausius
) jusqu’aux sciences du vivant (“Un organisme vivant augmente continuellement son entropie et tend ainsi à se rapprocher de l’état dangereux d’entropie maximale, qui est la mort”, E. Schrödinger
) en passant par le codage et la compression des données
et l’informatique
.
Récemment, j’ai apporté mon grain de sel à cette affaire.
Le “principe” de Landauer prétend qu’effacer un bit d’information dissipe nécessairement au moins Tln2 de chaleur dans l’environnement, rendant ainsi également thermodynamiquement irréversible une opération logiquement irréversible. Il est couramment admis que ce résultat est un principe général de physique qui établit de façon définitive le lien entre information et énergie. Ici, nous montrons que ce résultat ne peut pas être général et qu’en fait il provient: 1) d’une confusion entre irréversibilités logique et thermodynamique ainsi qu’entre états logique et thermodynamique, qui n’est pas sans rappeler le paradoxe classique de Gibbs sur le mélange de deux volumes d’un même gaz; et 2) de deux contraintes facultatives imposées à la procédure d’effacement.
Bien que la théorie de l’information résolve les incohérences (connues sous la forme d’énigmes) de l’approche traditionnelle de la thermostatistique, sa place dans la littérature correspondante n’est pas celle qu’elle mérite. Cela est interprété comme étant dû à des raisons épistémologiques plutôt que scientifiques: la subjectivité introduite en physique est perçue comme un problème. Cet article tente d’exposer et de clarifier où exactement réside cette subjectivité: dans la représentation de la réalité et l’inférence probabiliste.
En théorie de la relativité restreinte, l’énergie se trouve sous deux formes: énergie cinétique et masse au repos. L’énergie potentielle d’un corps est en fait stockée sous forme de masse, l’énergie d’interaction aussi, la température ne l’est pas. L’information acquise au sujet d’un système dynamique peut être potentiellement utilisée pour en extraire utilement de l’énergie. D’où le “principe d’équivalence masse-énergie-information” qui a été récemment proposé.
Dans cet article, il est rappelé en premier lieu que pour un système constitué d’entités indépendantes à température constante, l’énergie interne est également constante.
Le principe de Landauer stipule que l’irréversibilité logique d’une opération, telle qu’effacer un bit, quelle que soit son implémentation physique, implique nécessairement son irréversibilité thermodynamique.
Dans cet article, un contre exemple très simple d’implémentation physique (qui utilise une relation surjective entre les états logiques et thermodynamiques) est présentée. Elle permet d’effacer un bit d’une manière thermodynamiquement quasi-statique, c’est à dire qui tendrait vers la réversibilité si le processus était conduit suffisament lentement.
En mécanique statistique, ce que l’on appelle généralement l’approximation de Stirling pour N! est en fait une approximation de la formule exacte de Stirling. Dans cet article, je montre que le terme qu’on laisse généralement tomber est en fait celui qui tient compte des fluctuations.
En utilisant la formule exacte, nous sommes alors obligés de les réintroduire dans la résolution de certains problèmes très classiques comme celui du paradoxe de l’extensivité de l’entropie, ou celui du paradoxe de Gibbs concernant le mélange de deux volumes d’un même gaz.
Introduire la distribution de Boltzmann très tôt dans un cours de thermodynamique statistique (dans l’esprit de ce que fait Feynmann) présente beaucoup d’avantages didactiques, en particulier celui de pouvoir démontrer très facilement la formule de Gibbs pour l’entropie. Dans cette note, je donne une démonstration très courte qui part du postulat fondamental de la mécanique statistique et qui utilise des calculs élémentaires accessibles à des étudiants de premier cycle.
Téléchargement (en anglais): PDF
Encore aujourd’hui le concept d’entropie est souvent perçu comme très obscur. La difficulté majeure est analysée ici comme étant due à la subjectivité et l’anthropocentrisme du concept qui nous empêche de l’envisager avec le recul suffisant. Cepandant, il est souligné que les incohérences de certaines présentations ou certaines idées préconçues n’aident pas. Elles sont de trois sortes : 1. la thermodynamique axiomatique; 2. les solutions incohérentes de certains paradoxes; 3. la répugnance des physiciens à accepter la simplification que permet la théorie de l’information.