(En las reflexiones sobre la gestación del concepto de entropía según Rudolf Clausius, realizadas en las entradas La entropía según Clausius (I): La equivalencia del calor y el trabajo, y La entropía según Clausius (II): La equivalencia de las transformaciones, llegamos al punto culminante de su definición).
DEFINICIÓN DE ENTROPÍA
En un extenso artículo posterior, Clausius definió la entropía y desarrolló su significado y su contenido a partir del cociente dQ/T. Para hacerlo se propuso estudiar el interior de los sistemas, lo que le obligó a realizar fuertes hipótesis y a introducir nuevas funciones. Como esas hipótesis no son ahora aceptables, ahorraremos a nuestros lectores la exposición de un cuerpo de doctrina tan complejo como inadecuado.
A lo largo de ese desarrollo Clausius introdujo el símbolo S, mediante la integral de la función dQ/T que expresa el segundo principio, es decir:
∫ dQ/T = S – S0
y añadió:
“… considero que, para aquellas cantidades que son importantes en ciencia, los nombres deben extraerse de las lenguas clásicas, pues así se usarán sin cambios en todas las lenguas modernas. Por ello, propongo llamar a la cantidad S, la entropía del cuerpo, creada a partir de la palabra griega , o sea, la transformación. He formado deliberadamente la palabra entropía para que sea lo más similar posible a la palabra energía, porque, las dos cantidades que se van a nombrar con estas palabras, están tan estrechamente relacionadas entre sí por sus significados físicos, que una cierta similitud en la denominación me parece apropiada.”[1]
Como se infiere de todo lo expuesto, lo que en verdad definió Clausius fue el incremento de una función que llamó entropía. Por tanto, el valor absoluto de la entropía carece de definición en sentido estricto; aunque se le puede asignar un valor relativo siempre que se defina el valor So, del estado que se tome como referencia. Eso resultaba relativamente útil y fácil cuando solo se manejaba una sola sustancia; pero cuando, como en la química, se consideran varias interactuando entre sí, era preciso buscar un estado de referencia que fuera común a todas las sustancias, lo que se presentaba como especialmente difícil.

Así pues, el problema de encontrar la constante de integración de la entropía, se centró en la reacción química. Allí, quedó vinculado al otro gran problema de esa rama de la ciencia: la determinación de la afinidad química. Tras diversas alternativas, la afinidad química quedó englobada en los criterios generales de evolución de los sistemas termodinámicos, que estableció el norteamericano Josiah Willard Gibbs (1839 – 1903). Para ello, definió una función para cada estado de equilibrio de un sistema cualquiera, que se conoce como entalpía libre o función de Gibbs, G, y que expresó como sigue:
G = U – T · S + p · V = H – T · S
donde U es la energía interna, T, la temperatura, S la entropía, p la presión, V el volumen y H la entalpía del sistema.
Para cualquier sistema termodinámico, mantenido a presión y a temperatura constantes, Gibbs estableció:
“Para tales sistemas la condición de equilibrio (interno) es:
(δG)p,T ≥ 0 [2]
con lo cual, la afinidad quedó representada por la función ΔG.
Para una reacción química cualquiera, A⇔B, su afinidad, a presión y temperatura constantes, sería:
ΔG = [HB – HB0 – T · (SB – SB0)] – [HA – HA0 – T · (SA – SA0)]
Pero la suma de las entalpías se puede medir, pues corresponde exactamente al calor de reacción, por lo que la expresión anterior se reduce a:
ΔG = ΔH + T · (SB – SA) – T · (SB0 – SA0)
donde aparecen las entropías de referencia de los productos y de los reactivos, las cuales condicionan la afinidad de la reacción y, mientras no se establezcan sus valores, la afinidad quedará indeterminada.

Años después, a partir de 1906, el profesor alemán Walter Hermann Nernst Görbitz (1864 – 1941) descubrió que, en las reacciones químicas entre cuerpos sólidos y disoluciones muy concentradas, las diferencias entre la afinidad y el calor de reacción se hacían sorprendentemente pequeñas a bajas temperaturas. Ello le permitió escribir años después:
“Por lo tanto, nuestro teorema de calor toma la forma
lim (S2 – S1) = 0 (para T = 0)
lo que asegura que, en las proximidades del cero absoluto, todos los procesos tienen lugar sin ningún cambio en la entropía.”[3]
La demostración de este teorema del calor quedó a expensas de ser demostrado por la experimentación.

Las primeras críticas provinieron del campo teórico pues, sobre la base de la estadística cuántica, Albert Einstein (1879 – 1955), propuso la siguiente limitación:
“… el teorema de Nernst es válido para sustancias cristalizadas químicamente puras, pero no para cristales mixtos. Nada se puede decir sobre las sustancias amorfas debido a la aún existente vaguedad acerca de la naturaleza del estado amorfo.”[4]
Posteriormente, el alemán Max Karl Ernst Ludwig Planck (1858 – 1947) recuperó el teorema propuesto por Nernst y, considerándolo demostrado por las experiencias realizadas, propuso la siguiente variante:
“El teorema del calor de Nernst dice ahora: A temperatura infinitamente decreciente, la entropía de cualquier cuerpo químicamente homogéneo de densidad finita se aproxima indefinidamente al valor cero. La constante aditiva de la entropía de todas las sustancias químicamente homogéneas, en todos los estados, queda así inequívocamente determinada, y a partir de ahora podemos hablar de un valor absoluto de la entropía.”[5]
La demostración del teorema del calor de Nernst y la confirmación del enunciado de Planck, motivaron un gran número la experiencias en las que se investigaron las más diversas sustancias. Pronto se encontraron sustancias que no cumplían los enunciados propuestos como, por ejemplo, los vidrios, las sales paramagnéticas y, sobre todo, por su importancia conceptual, el hidrógeno.

El gran investigador sobre este tema, e impulsor de considerar como tercer principio las propuestas de Nernts y de Planck, fue el alemán Franz Eugen Simon (1893 – 1956). Inicialmente, Simon consideró que algunas de las anomalías señaladas habían sido debidas a la defectuosa extrapolación de los datos experimentales desde la temperatura cero. En cuanto a la anomalía del hidrógeno sospechó que era debido a alguna modificación del mismo por debajo de 10 K, lo que quedó patente con el descubrimiento de las modificaciones orto y para del elemento. Finalmente, en lo referente a los vidrios, a los cristales mixtos y a las soluciones sólidas, arguyó que las anomalías eran debidas a que esos materiales no se encontraban en equilibrio termodinámico interno, por lo que
“… su estado no está determinado únicamente por la temperatura, la presión y el número y tipo de constituyentes, sino que está gobernado por la velocidad de los cambios de configuración, que se vuelve muy lenta a la temperatura de congelación.”[6]
Simon empleó una visión microscópica para justificar la entropía de los sistemas, de manera que su valor total era debido a las aportaciones de diversos factores. Tras lo cual, expresó el principio mediante el siguiente enunciado:
“La contribución a la entropía, debida a cada factor interno de un sistema que se encuentra en equilibrio, se hace cero en el cero absoluto de temperatura.”[7]
Con lo que, prácticamente, quedaron zanjadas todas las dudas acerca de la corrección del tercer principio de la termodinámica, y hoy es aceptado por la mayoría de la comunidad científica.
Después de lo expuesto, podemos hablar de una entropía absoluta de cada estado del sistema material que consideremos. Pero, al hacerlo, no podemos olvidar como se ha definido ese valor de la entropía. Por ejemplo, en un sistema en un estado de equilibrio caracterizado por una presión y una temperatura, la entropía es el valor acumulado a lo largo de la transformación que, a presión constante, llevó al sistema desde el cero absoluto hasta la temperatura establecida.
Por último, es preciso aclarar una afirmación que es frecuente en las presentaciones de la entropía, y que puede resumirse en la siguiente frase: la entropía solo queda definida en los estados de equilibrio de los sistemas termodinámicos. Ante esto, es preciso recordar que Clausius definió la entropía como una propiedad de las transformaciones, hasta el punto de que su definición cuantitativa se basa en el calor intercambiado en ellas. El hecho de que la entropía solo se exprese cuantitativamente en los estados de equilibrio, no es una condición impuesta por la entropía, sino que es una consecuencia de que solo somos capaces de parametrizar los estados de equilibrio de los sistemas, lo que se hace mediante las variables de estado. Debido a esa limitación, la entropía solo puede expresarse en función de esas variables de estado, de la misma forma que lo hace la energía interna.
SIGNIFICADO FÍSICO DE LA ENTROPÍA.

Hasta aquí hemos seguido los pasos de Clausius en la profundización que hizo de la termodinámica. En ella, la cuestión esencial consistía en la producción de trabajo a partir del calor, para lo cual el sistema activo se ignoraba usando procesos cíclicos. En un artículo posterior, este autor trató de dar una interpretación intuitiva de la nueva función de estado, para lo cual se vio obligado a renunciar a los ciclos, y a tratar de penetrar en el interior de los cuerpos.
Desgraciadamente, Clausius consideró que dentro de los sistemas persistía la distinción entre calor y trabajo, que, además, cumplían las mismas leyes que se habían encontrado por esas acciones cuando eran externas. A ello se unió la aceptación de lo que, entonces, era una hipótesis: la estructura corpuscular de la materia. En este apartado, nuestra labor consistirá en extraer sus resultados generales, sin aceptar ningún conocimiento previo de la composición, de la estructura ni de la dinámica interna de los sistemas. De esa forma, se satisface una de condiciones fundacionales de la teoría del calor.
El significado físico de la entropía puede buscarse en su propia definición, pues, estando expresado su incremento como el cociente entre el calor puesto en juego y la temperatura, Clausius había expresado ya lo siguiente:
“Pero si uno de los cuerpos, ya sea por absorber él mismo la cantidad de calor Q o por alguna otra razón, cambia su temperatura durante el proceso de forma tan significativa que su cambio debe ser considerado, entonces a cada elemento de calor absorbido, dQ, hay que aplicar la temperatura a la que se encontraba el cuerpo cuando se produjo la absorción, (…). Si suponemos, en aras de la generalidad, que esta circunstancia se produce para todos los cuerpos, la definición adopta la siguiente forma.”[8]
dS = dQ/T
donde dQ es el calor tomado o cedido por un sistema, es decir, una acción externa, que modifica una función de estado del sistema, dS, de forma que ordenando la ecuación anterior:
dQ = T · dS
aparece una relación entre una causa externa, dQ, y su efecto interno, dS.
Pero el efecto que produce el calor en los materiales es un tema recogido en toda la bibliografía que trata el calor y sus acciones. Así, Joseph Black (1728 – 1799), que estableció la distinción entre calor y temperatura, escribió:
“Es bien sabido que un gran número de substancias diferentes, que comúnmente aparecen en estado sólido, pueden hacerse fluidas por el calor, y continuarán siéndolo mientras continúen calentadas al grado apropiado. Pero, además de esta consideración, encontramos razones para estar persuadidos de que la fluidez, dondequiera que la encontremos en los diversos tipos de materia, es siempre el efecto o consecuencia del calor.”[9]
Igualmente, uno de los padres de la química moderna, Jöns Jacob Berzelius (1779 – 1848), escribió respecto a la acción del calor:
”El calórico tiene la propiedad de disminuir la afinidad de agregación ó la cohesión de todos los cuerpos á quienes se comunica.”[10]
El mismo Clausius, cuando tocó los efectos del calor, escribió lo siguiente:
“Ahora bien, el efecto calor siempre tiende a debilitar la conexión entre las moléculas, aumentando así las distancias medias que las separan.«[11]
De todo lo dicho, se infiere que la entropía es una medida de la desorganización del esqueleto material que forma cualquier sistema. Esa desorganización implica que, el aumento de la entropía, va acompañado de un debilitamiento de la cohesión del sistema, una pérdida de su consistencia material o una dispersión de sus elementos compositivos. Estos efectos pueden producirse de manera continua, y el calor se conoce entonces como calor sensible, o de forma discreta, como en las transiciones de fase, donde el calor consumido se conoce como calor latente.
Esto se pone de manifiesto más palpablemente usando la relación fundamental, o combinación de los dos primeros principios, en la que se acepta el convenio de signos del maquinismo, es decir, el calor tomado por el sistema es positivo, y el trabajo realizado, o cedido, por el sistema, también es positivo:
T · dS = dU + dW
Si consideramos un sistema material sometido exclusivamente a una acción exterior no calorífica, tendremos de acuerdo con la ecuación anterior la expresión:
-dW = dU – T · dS
donde, en el primer miembro, aparece una cesión de trabajo externo al sistema y, en el segundo, un cambio en el valor de la energía interna del sistema, más una cesión de calor al mundo externo.
Pero como lo que estamos estudiando es el sistema, y queremos saber la acción del trabajo en su interior, la última cesión de calor, T·dS, no deseamos hacerla. Por esa razón, la energía que implica el sumando T·dS se quedara dentro del sistema, o, una vez extraído, lo inyectamos en su interior. En cualquier caso, tendremos que cambiarle el signo, pues lo gana el sistema. Este cambio fue expresado por Clausius de forma algo confusa, pues, haciendo referencia al calor que aparece en la definición de entropía, escribió en la página 63 del último artículo citado:
“La cantidad de calor la debe recibir el cuerpo desde fuera y, por consiguiente, debe retirarse de otro cuerpo durante el cambio de ordenación. Sin embargo, ya hemos representado por dQ la cantidad infinitamente pequeña de calor cedida a otro cuerpo por el que está sufriendo la modificación, por lo que debemos representar de la misma manera, por – dQ, el calor que se retira del otro cuerpo.”
De esa forma, el trabajo incorporado al sistema se almacena en él de dos formas diferentes:
-dW = dU + T · dS
mediante una forma energética llamada energía interna y, otra segunda forma de almacenaje, cuantificado por el producto de la temperatura por el incremento de entropía.
Como la descripción que hacemos es de un proceso elemental, las magnitudes que aparecen deben estar condicionadas por las limitaciones con que se establecieron a lo largo del razonamiento. Así, la temperatura que aparece corresponde al paso reversible de un diferencial de calor, por lo tanto, esa temperatura debe tomarse como constante. Debido a ello, el segundo sumando del segundo miembro representa una acumulación energética en la variable entropía.
Por otra parte, el incremento de energía interna debe corresponder a una acumulación preferente, pero no única, en la variable temperatura. Esta variable nació y se desarrolló con un carácter puramente empírico, facilitado por la existencia de termómetro. Su primera interpretación física la propuso el químico escocés John James Waterston (1811 – 1883), y fue tan revolucionaria que la Royal Society of London se negó a publicarla. Años más tarde, John William Strutt, Lord Rayleigh, (1842 – 1919), encontró el original en los archivos, y lo publicó. El artículo estudia los movimientos de las moléculas de un gas con ayuda de la mecánica, y relaciona la temperatura con la energía cinética media de las moléculas. Lo expresó con estas palabras:
“Los sistemas en equilibrio, con una vis viva y una presión, tienen densidades relativas proporcionales a sus pesos moleculares. Nuevamente, se debe destacar que la temperatura queda representada por la vis viva.”[12]
Esa misma idea fue confirmada por el propio Clausius, que también se interesó por establecer una teoría cinética de los gases, y escribió:
“Toda la fuerza viva presente en el gas está en relación invariable con la fuerza viva del movimiento progresivo, que nos sirve de medida de la temperatura.”[13]
Desde esas primeras publicaciones, la temperatura siempre se ha vinculado a la energía cinética de los elementos constitutivos de la materia, ya sea debida a la traslación, a la vibración o al giro de las mismas.
En resumen, debemos entender que el trabajo suministrado a un sistema material se almacena de dos formas diferentes. La primera, como energía interna, vinculada a la agitación térmica de sus elementos constitutivos y, la segunda, como una energía potencial ligada a las fuerzas que cohesionan todo el entramado material del sistema. La energía T·dS se consume en vencer esas fuerzas estructurales, debilitando el esqueleto material del sistema. La acumulación, la extracción y el intercambio de esas energías se producen en el interior del sistema sin inercias y sin coste alguno, de manera que podíamos decir, parangonando los efectos externos, que se hace reversiblemente.
La entropía queda así, como una función de estado que mide la pérdida de rigidez de la estructura material del sistema donde se define. Su aumento va acompañado de un debilitamiento de las fuerzas de cohesión del sistema que, según una nomenclatura antigua, se fluidifica. Por el contrario, la disminución de la entropía implica un fortalecimiento de la solidez estructural del sistema.
Por último, es necesario destacar que, a lo largo del siglo XX, se propusieron diversas formulaciones matemáticas para la entropía, con el fin de concederle suficiente capacidad operativa para poder aplicarla a casos concretos. Todas ellas son aproximadas y presentan las mismas características:
- La entropía aproximada no se define para una transformación, sino para un estado de equilibrio. Lo que se hace sin plantear ni discutir la realidad del estado referencial de entropía nula.
- La entropía aproximada se define en función del desorden estructural del sistema. Pero el desorden solo es un aspecto de la pérdida de cohesión de su estructura. En esa pérdida intervienen otros aspectos esenciales, como las fuerzas entre las partículas constitutivas de los cuerpos, que es el gran problema pendiente de la física clásica.
[1] Clausius, R. (1865), “Ueber verschiedene für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie” en Vierteljahrsschrift der Naturforschenden Gesellschaft in Zürich, vol. 9 – 11. Pág. 46.
[2] Gibbs, W. (1878). “On the equilibrium of heterogeneous substances” en Transactions of the Conneticut academy of arts and sciences, vol. 3. Pág. 147.
[3] NERNST, W. (1918). Grundlagen des neuen Wärmesatzes. Halle (Saale) W. Knapp. Pág. 71.
[4] Einstein, A. (1997). “Contribution to quantum theory” en The collected papers of Albert Einstein, vol. 6, A. Engel (trad.). Princenton, Princenton university press. Pág. 20.
[5] PLANCK, M. (1922). Vorlessungen über Thermodynamik”. Berlin. Gruyter & co. Pág. 255.
[6] Simon, F. E. (1956). “The third law of thermodynamics – an historical survey” en Yearbook of the physical society, Pág. 16.
[7] Simon, F. E. (1937). “On the third law of thermodynamics” en Physica, vol 4 (19). Pág. 1095.
[8] Clausius, R. (1854), “Ueber eine veränderte Form des zweiten Haupsatzes der mechanische Wärmetheorie” en Annalen de der Physik, vol.93, Pág. 499.
[9] BLACK, J. (1807). Lectures on the elements of chemistry, vol I. J. Robinson (redactor). Philadelphia. M. Carey. Pág. 102.
[10] BERZELIUS, J. J. (1845). Tratado de química, R, Saez y C. Ferrari (trads.). Madrid. I. Boix. Pág. 34.
[11] Clausius, R. (1862), “Ueber die Anwendung des Satzes von der Aequivalenz der Verwandlungen auf die innere Arbeit” en Vierteljahrsschrift der Naturforschenden Gesellschaft in Zürich, vol. 7 – 8. Pág. 55.
[12] Waterston, J. J. y Rayleigh, Lord. (1892). “On the physics of media that are composed of free and perfectly elastic molecules in a state of motion” en. Philosophical Transactions of the Royal Society of London. A, vol. 183. Pág. 16.
[13] Clausius, R. (1857). “Ueber die Art der Bewegung, welche wir Wärme nennen” en Annalen der physik und chemie, vol. 4. Pág. 357.