Page d'accueil encyclopedie-enligne.com en page d'accueil
Liste Articles: [0-A] [A-C] [C-F] [F-J] [J-M] [M-P] [P-S] [S-Z] | Liste Catégories | Une page au hasard | Pages liées

Entropie


L'entropie est la quantité physique qui mesure le degré de désordre d'un système. C'est une fonction d'état en thermodynamique, symbolisée par S. Elle est extensive (l'entropie d'un système est la somme des entropies des éléments). Elle caractérise le manque d'information que l'on a sur un système physico-chimique, ou ce qui revient au même, le nombre d'états différents au niveau microscopique qui ont les mêmes caractéristiques macroscopiques, et que nous ne pouvons donc distinguer.

Un système isolé a naturellement tendance à voir son entropie augmenter (c'est le second principe de la thermodynamique).

Ce principe met en place la « flèche du temps ». Posé pour rendre compte de faits d'expériences, il s'articule difficilement avec les équations physiques, qui, elles, sont réversibles. Encore aujourd'hui, cette question est un objet d'intenses recherches, de par son lien avec la nature profonde de l'univers (relativité, mécanique quantique).

S = k ln(Ω)
où Ω est le nombre d'états microscopiques différents que peut atteindre le système (nombre de complexions). Cette formule établit un lien entre ce nombre d'états et la notion classique de l'entropie. Un système isolé a donc tendance à évoluer naturellement vers un état macroscopique où il dispose du plus grand nombre d'états microscopiques possible, parce que, en gros, tous les états microscopiques sont équiprobables. On dit qu'on a alors d'autant moins d'information sur son état réel.

Il s'agit bien dans tous ces cas de la même entropie.

Concept

L'intuition commune comprend facilement l'existence de l'énergie, cette grandeur qui, pour un système isolé, a la propriété de se conserver sans faille jusqu'à la nuit des temps.

Autrement surprenante est la grandeur dénommée entropie. Pour le même système isolé, l'entropie, dans le meilleur des cas, ne changera pas, mais en dehors de ce cas très théorique l'entropie ne fera que croître.

Plus concrètement, les réflexions que l'on peut tirer du concept d'entropie expliquent pourquoi nous passons notre temps à faire et refaire le ménage (car la poussière se disperse et se dispersera toujours...), et finalement révèlent notre nécessité de travailler (le travail au sens de la mécanique classique) pour conserver, via notre alimentation, l'organisation extraordinaire de notre organisme et une température proche de 37°C (une température supérieure à la température moyenne de la surface terrestre, ce n'est pas un hasard : c'est une nécessité que subissent tous les mammifères, animaux particulièrement évolués). Voici pourquoi vous devez « gagner votre pain » mais également pourquoi le mouvement perpétuel dit de deuxième espèce n'existe pas.

L'entropie est donc un concept fascinant en lié à la fois au temps et à une autre notion qui n'a été quantifiée mathématiquement qu'au 20e siècle : l'information.

L'observation des systèmes montre qu'il y a parfois - à l'inverse - passage spontané du désordre à l'ordre quand se produit le phénomène d'auto-organisation. Le système est alors dit dissipatif (exemple : un organisme vivant doit dissiper chaleur et entropie - même s'il s'agit d'un animal « à sang froid » ou d'une plante - pour maintenir son organisation et persister).

Une diminution d'entropie pour un système délimité est en effet possible dès lors que celui-ci cède au milieu extérieur une plus grande quantité d'entropie (au prix d'une consommation d'énergie libre). Le bilan reste conforme à la deuxième loi de la thermodynamique : une augmentation globale de l'entropie.

Ainsi un réfrigérateur est globalement un appareil de chauffage : il produit plus de chaleur qu'il ne fait de « froid ». D'où le non-sens qu'il y aurait à vouloir lutter contre le réchauffement planétaire... à grand coup de climatiseurs!

Voir aussi



This site support the Wikimedia Foundation. This Article originally from Wikipedia. All text is available under the terms of the GNU Free Documentation License Page HistoryOriginal ArticleWikipedia