L'entropie est définie comme la mesure quantitative du désordre ou de l'aléatoire dans un système. Le concept vient de la thermodynamique, qui traite du transfert d'énergie thermique au sein d'un système. Au lieu de parler d'une certaine forme d '"entropie absolue", les physiciens discutent généralement du changement d'entropie qui se produit dans un processus thermodynamique spécifique.
Dans un processus isotherme, le changement d'entropie (delta-S) est le changement de chaleur (Q) divisé par la température absolue (T):
delta-S = Q/T
Dans tout processus thermodynamique réversible, il peut être représenté dans le calcul comme l'intégrale de l'état initial d'un processus à son état final de dQ/T. Dans un sens plus général, l'entropie est une mesure de la probabilité et du désordre moléculaire d'un système macroscopique. Dans un système qui peut être décrit par des variables, ces variables peuvent supposer un certain nombre de configurations. Si chaque configuration est également probable, l'entropie est le logarithme naturel du nombre de configurations, multiplié par la constante de Boltzmann:
S = kB En W
où S est l'entropie, kB est la constante de Boltzmann, ln est le logarithme naturel et W représente le nombre d'états possibles. La constante de Boltzmann est égale à 1,38065 × 10−23 J / K.
L'entropie est considérée comme une propriété étendue de la matière qui s'exprime en termes d'énergie divisée par la température. Les unités SI d'entropie sont J / K (joules / degrés Kelvin).
Une façon d'énoncer la deuxième loi de la thermodynamique est la suivante: dans tout système fermé, l'entropie du système restera constante ou augmentera.
Vous pouvez voir ceci comme suit: l'ajout de chaleur à un système accélère les molécules et les atomes. Il peut être possible (quoique délicat) d'inverser le processus dans un système fermé sans puiser ou libérer de l'énergie ailleurs pour atteindre l'état initial. Vous ne pouvez jamais obtenir l'ensemble du système "moins énergique" que lorsqu'il a commencé. L'énergie n'a nulle part où aller. Pour les processus irréversibles, l'entropie combinée du système et de son environnement augmente toujours.
Cette vue de la deuxième loi de la thermodynamique est très populaire, et elle a été mal utilisée. Certains soutiennent que la deuxième loi de la thermodynamique signifie qu'un système ne peut jamais devenir plus ordonné. C'est faux. Cela signifie simplement que pour devenir plus ordonné (pour que l'entropie diminue), vous devez transférer l'énergie de quelque part en dehors du système, comme lorsqu'une femme enceinte tire de l'énergie de la nourriture pour que l'ovule fécondé se forme en un bébé. Cela est tout à fait conforme aux dispositions de la deuxième loi.
L'entropie est également connue sous le nom de trouble, chaos et caractère aléatoire, bien que les trois synonymes soient imprécis.
Un terme connexe est «entropie absolue», qui est désigné par S plutôt que ΔS. L'entropie absolue est définie selon la troisième loi de la thermodynamique. Ici, une constante est appliquée qui fait que l'entropie au zéro absolu est définie comme étant nulle.