Cette publication est accessible gratuitement
Lire

Définition de : ENTROPIE, physique

De
5 pages
Article publié par Encyclopaedia Universalis ENTROPIE, physique L'ouvrage Réflexions sur la puissance motrice du feu et les machines propres à développer cette puissance fut publié en 1824 par Sadi Carnot, fils de Lazare Carnot. L'auteur s'y interroge sur les conditions requises pour obtenir du travail à partir de chaleur, ce que faisaient les toute nouvelles machines à vapeur inventées par les Anglais. Il montre qu'il faut deux sources à des températures différentes, avec lesquelles la machine échange de la chaleur en produisant du travail. De la chaleur est puisée à la source chaude (chaudière) et transite à travers la machine en produisant du travail ; ce qui reste est cédé à la source froide (condenseur). Carnot donne une expression pour la valeur maximum du rendement d'une telle machine, valeur que ne pourrait atteindre qu'une machine idéale dans laquelle aucune perte ne se produirait. Il établit que, si la machine à vapeur (supposée parfaite) puise la quantité Q1 de chaleur dans la chaudière à la température T1 et cède la quantité Q2 au condenseur à la température T2, ces grandeurs obéissent à la relation : Q1 /T1  =  Q2 /T2. À partir de ce résultat, le physicien allemand Rudolph Clausius propose, en 1854, d'appeler « entropie », du grec entropè qui signifie « retour », la grandeur Q /T, qu'il désigne par la lettre S.
Voir plus Voir moins
ENTROPIE, physique

L'ouvrage Réflexions sur la puissance motrice du feu et les machines propres à développer cette puissance fut publié en 1824 par Sadi Carnot, fils de Lazare Carnot. L'auteur s'y interroge sur les conditions requises pour obtenir du travail à partir de chaleur, ce que faisaient les toute nouvelles machines à vapeur inventées par les Anglais. Il montre qu'il faut deux sources à des températures différentes, avec lesquelles la machine échange de la chaleur en produisant du travail. De la chaleur est puisée à la source chaude (chaudière) et transite à travers la machine en produisant du travail ; ce qui reste est cédé à la source froide (condenseur). Carnot donne une expression pour la valeur maximum du rendement d'une telle machine, valeur que ne pourrait atteindre qu'une machine idéale dans laquelle aucune perte ne se produirait.

Il établit que, si la machine à vapeur (supposée parfaite) puise la quantité Q1 de chaleur dans la chaudière à la température T1 et cède la quantité Q2 au condenseur à la température T2, ces grandeurs obéissent à la relation : Q1 /T1 = Q2 /T2. À partir de ce résultat, le physicien allemand Rudolph Clausius propose, en 1854, d'appeler « entropie », du grec entropè qui signifie « retour », la grandeur Q /T, qu'il désigne par la lettre S. Si on appelle S1 la quantité Q1 /T1 et S2 la quantité – Q2 /T2, l'égalité précédente s'écrit : S1 + S2 = 0 ; la variation d'entropie de la locomotive idéale est nulle au cours de son fonctionnement. Cependant, Clausius comprend très vite que cette conservation de l'entropie n'a de sens, précisément, que pour une machine « idéale », c'est-à-dire sans aucune perte, sans frottements, sans fuites de chaleur. Une telle machine n'existe pas, et une machine réelle ne transforme pas en travail l'intégralité de l'énergie disponible : il s'en perd un peu, ce qui entraîne que la quantité S1 + S2 est nécessairement positive : l'entropie [de la locomotive] ne peut qu'augmenter.

Ainsi est née la thermodynamique, à partir de ces deux principes : le premier est celui de la conservation de l'énergie, le second est celui de l'augmentation de l'entropie. Le concept abstrait auquel se rapporte cette conservation est celui d'un système isolé, c'est-à-dire d'une entité, dont la taille n'est pas définie, qui peut aller du noyau d'un atome à l'ensemble de l'Univers, mais dont on suppose qu'elle n'est pas couplée à d'autres systèmes, qu'elle ne peut rien échanger avec eux, ni matière, ni énergie, ni information. Le second principe affirme que l'entropie totale d'un tel système ne peut qu'augmenter. Nous avons vu dans le cas d'une machine de Carnot, que cette augmentation signifiait une dégradation de l'énergie, en ce sens qu'il n'est pas possible de récupérer et d'utiliser l'énergie qui s'est perdue au cours du cycle : elle s'est dispersée irrémédiablement, sous forme de chaleur, ou plutôt de tiédeur, dans l'environnement.

Cette irréversibilité pose un singulier problème : en effet, toutes les lois de la mécanique classique sont indépendantes du sens du temps. Si l'on filme la collision de deux boules de billard, aucun observateur voyant le film projeté soit dans le sens normal, soit en remontant le temps, ne peut reconnaître quel est le bon sens. Comment une suite d'échanges d'énergie, qui ne sont en fait que des collisions de molécules, peut-elle aboutir inexorablement à l'augmentation de l'entropie, ce qui implique un seul sens possible pour l'écoulement du temps ? De façon plus explicite, pourquoi de l'eau chaude et de l'eau froide, qui représentent deux ensembles de molécules animées de vitesses différentes, se mélangent-elles pour donner de l'eau tiède, où toutes les molécules ont en moyenne la même vitesse, et jamais le contraire, c'est-à-dire la séparation spontanée d'eau tiède en eau chaude et eau froide ?

La réponse à cette question fut donnée par le physicien autrichien Ludwig Boltzmann (1844-1906), qui la mit en relation avec le caractère statistique que revêt la distribution des positions et des vitesses des molécules d'un gaz.

Il montra que l'entropie S mesure, en fait, la tendance qu'a tout système à évoluer spontanément vers un état de « désordre » : si on laisse tomber par terre un jeu de cartes bien rangé, il y a très peu de chances qu'on le ramasse aussi bien rangé. Parmi tous les états possibles du jeu de cartes, les états désordonnés sont bien plus nombreux que les états bien rangés, et il n'y a que 52 cartes ! Qu'en est-il lorsqu'on est en présence des 30 millions de milliards de milliards de molécules que contient un litre d'eau ? Boltzmann a montré que l'entropie est reliée à ce nombre (gigantesque) d'états possibles W par une formule célèbre qui lui sert d'épitaphe sur sa tombe, à Vienne : S = k ln W (k est une constante justement appelée « constante de Boltzmann »). En énonçant que tout système isolé évolue spontanément vers son état le plus probable, l'état le plus désordonné, pour lequel W a la plus grande valeur possible, il démontrait la loi de croissance de l'entropie, puisque la formule précédente impose à S et W de varier dans le même sens.

L'entropie, mesure du désordre et de la dégradation de l'énergie, donne a contrario une estimation de la qualité d'un réservoir d'énergie. Plus faible est l'entropie, meilleure est la qualité, l'aptitude à être utilisée. Les réservoirs les mieux classés, là où l'entropie est la plus basse, sont ceux où l'énergie est très concentrée : l'énergie gravitationnelle, l'énergie électrique, sont haut placées. À l'opposé, l'énergie thermique, surtout lorsqu'elle est stockée dans un réservoir tiède, ne vaut plus grand-chose et possède une entropie très élevée.

Il émane de ce qui précède une vision très pessimiste, puisque le seul avenir possible de tout système isolé, en particulier de l'Univers, est de tendre vers un état homogène de désordre absolu. Heureusement, cette perspective n'est pas proche : certains systèmes sont assez bien isolés localement et par conséquent n'échangent que très lentement leur énergie avec le reste de l'Univers, ce qui en diminue d'autant la dégradation. Entre-temps, des fluctuations locales continuent à se produire, qui aboutissent à des diminutions relatives d'entropie à certains endroits de l'Univers, compensées par des augmentations ailleurs de sorte que le second principe ne soit pas violé. La biosphère constitue un de ces lieux singuliers où de l'ordre, de l'organisation apparaissent dans des systèmes désordonnés à condition qu'ils soient traversés par un flux d'énergie, d'autant plus facile à obtenir que le Soleil est chaud avec les 6 000 K de sa surface comparés aux 300 K de la surface terrestre. En effet, la construction, à partir des molécules désordonnées disponibles sur la surface de la Terre, d'un objet aussi structuré et compliqué qu'un être vivant ne peut se faire que par une démarche qui crée de l'ordre à partir du désordre, et fait donc diminuer localement l'entropie. On appelle structures dissipatives les systèmes qui engendrent cette apparition locale d'organisation, et on parle alors d'« entropie négative », ou néguentropie. Tâchons, dans le monde que nous nous construisons, de ne « dissiper » que ce qu'il faut de l'énergie mise à notre disposition.

Auteur: Jean MATRICON
Un pour Un
Permettre à tous d'accéder à la lecture
Pour chaque accès à la bibliothèque, YouScribe donne un accès à une personne dans le besoin