Revista Arte

entropía

Por Peterpank @castguer

entropía

Aunque hay cierta tendencia en los foros de internet, sobre todo en los abonados a las diversas teorías de la conspiración, a hablar de la entropía con cierta laxitud de lenguaje, el concepto de entropía está perfectamente bien definido desde el punto de vista matemático. Según la Termodinámica clásica, la entropía es una variable de estado que caracteriza la fracción de la energía interna de un sistema que nunca podrá ser convertida en trabajo útil. Que sea una variable de estado significa que esta magnitud tiene siempre el mismo valor para un sistema en un estado dado, no importa cómo se haya llegado a éste (por contraposición, el trabajo y el calor son variables de proceso, que están sólo definidas en un proceso de ir de un estado a otro y dependen que cómo concretamente se realiza ese proceso). Esta definición clásica de la entropía, aunque permite calcularla, es poco intuitiva al final, y por ello se suele mencionar más la interpretación de la entropía que nos brindó la Mecánica Estadística. Aplicando el Teorema Ergódico y varios conceptos sencillos se puede demostrar que el concepto clásico de entropía coincide con el valor esperado del logaritmo de la función de partición que describe el sistema. Esta frase es complicada y abstrusa, pero lo que quiere decir intuitivamente es fácil de comprender: la entropía mide el estado de desorden de un sistema. Cuando más ordenado es un sistema, cuando menos probable es que un sistema físico esté exactamente en el estado en que éste se encuentra, menor es su entropía, y a la inversa, a medida que un sistema es más ambiguo y desordenado, a medida que el estado macroscópicamente observado sea más probable su entropía será mayor. (sigue)

¿Qué significan estas ideas de orden y probabilidad? Cosas que, en realidad, son intuitivas y que experimentamos día a día, y que se puede resumir en una frase común: Las cosas se desgastan con el uso, y que todo tiende a desestructurarse. A descacharrarse, vamos. Los movimientos son imperfectos, las cosas no están en reposo absoluto y así poco a poco las piezas se desencajan, cogen holguras y se rompen. Incluso con un mecanizado perfecto, el simple hecho de que estén a temperatura ambiente hace que haya cierta imprecisión, cierta imperfección, cierto movimiento anárquico y desestructurado: el de las moléculas que forman los objetos.

Un montón de paja perfectamente apilado en medio de la era es algo improbable: normalmente nos encontraremos tal pila porque un agricultor así la ha apilado, pero no como resultado de una fuerza natural. Si ese mismo agricultor abandona la pila a su suerte, el viento, la lluvia, los animales que pasen, la inestabilidad creciente de la pila… harán que ésta se desmorone y al cabo de pocas semanas estará dispersa en un cierto radio alrededor de la posición original de la pila. Si se esperan meses en vez de semanas lo que se encontrará serán vagos rastros de lo que allí hubo. Tal dispersión es fruto de la estadística, de un montón de pequeños movimientos aleatorios, sin una dirección precisa. Estos movimientos aleatorios tienden llevar a la paja a un estado en el que las briznas están diseminadas de manera más o menos uniforme por el suelo. Una tal configuración es indistinguible de otra en que la brizna A se sustituye por la B y la B por la A, o si pongo una brizna un poco más lejos o más cerca. Sin embargo, en la pila ordenada de paja la libertad de disposición de cada brizna está más restringida, porque al final se ha de formar una pila. El estado es menos aleatorio, más prefijado, más determinista, y por ello más improbable. Es decir, de más baja entropía.

Lo que acabo de ilustrar con el ejemplo de la pila de paja es el llamado Segundo Principio de la Termodinámica, uno de los pilares de la Física moderna. Este Principio se puede formular de varias maneras equivalentes, pero una de las más prácticas para la discusión de hoy es la siguiente: en cualquier proceso que uno verifique en un sistema aislado la entropía no puede disminuir. Si hacemos el proceso de una manera extremadamente cuidadosa, teniendo cuidado de no golpear ese ladrillo que se puede romper, de no permitir es holgura que va minando la pieza, movemos con precisión cada parte del sistema, etc… seremos capaces de evitar el crecimiento del desorden. Eso en la práctica es imposible, y de hecho nos lo dice el Tercer Principio de la Termodinámica: sólo a temperatura igual al cero absoluto (-273,13 ºC) puedes mantener la entropía bajo control. La temperatura no es más que una medida de la energía cinética molecular, y sólo a temperatura del cero absoluto las moléculas se están quietas; a cualquier otra temperatura siempre tienes ese movimiento molecular que va desajustando poco a poco tu sistema, que va destruyendo poco a poco la estructura que tan ordenadamente habías construido.

El Segundo Principio tiene también otras implicaciones importantes. Una consecuencia del inevitable crecimiento de la entropía cuando se verifica un proceso en condiciones reales (temperatura diferente del cero absoluto, precisión limitada en los movimientos, etc) es que el aprovechamiento de una fuente de energía para hacer un trabajo útil nunca podrá ser del 100%. Y es que por más cuidadosamente que hagamos el proceso siempre tendremos cierta anarquía, cierta aleatoriedad en el movimiento a escala molecular. Por tanto, al usar nuestra fuente de energía tendremos que pagar un peaje, y una parte de la energía de la fuente se perderá, se disipará, que dirían los físicos. Atención: recuerden que de acuerdo con el Primer Principio de la Termodinámica la energía total de un sistema aislado nunca varía, sólo transformamos un tipo de energía en otra. Y así es: al disiparse parte la energía que queríamos convertir en trabajo útil (el movimiento de un pistón, por ejemplo) se pierde por ejemplo calentando el pistón (es decir, aumentando la energía cinética de las moléculas que lo forman). De hecho, la vía más habitual de disipación en la térmica, la del aumento de la temperatura del cuerpo donde se efectúa el trabajo. La cosa es simple: si cuando Vds. usan una determinada fuente de energía para accionar un motor ven que el motor se calienta en alguna de sus partes (lo que es inevitable por la fricción), no tengan dudas: ahí se ha ido parte de la energía que tenía su fuente, ahí está su pérdida de rendimiento. Por supuesto que la disipación se puede producir y se produce de otras maneras: por medio de ondas sonoras, destellos luminosos, etc. Lo que sucede es que en última instancia todas las formas de disipación convergen en una sola, que es la disipación térmica: las ondas sonoras se degradan hasta la escala molecular, la luz absorbida por los cuerpos es reemitida cada vez a más baja frecuencia hasta llegar al equilibrio térmico, etc. Al final todo acaba traduciéndose en un aumento de la temperatura, lo cual, si se analiza con cuidado, muestra de otro modo la absoluta imposibilidad del crecimiento ilimitado, como brillantemente muestra Tom Murphy en un post reciente discutiendo con un economista.

El hecho de que en un proceso cualquiera la entropía del sistema global siempre aumente hace de la Termodinámica una disciplina peculiar en Física. Y es que las ecuaciones del movimiento que describen las otras ramas de la Física son reversibles en el tiempo (dejemos ahora al margen el problema de la medida en Mecánica Cuántica), pero la Termodinámica es capaz de fijarnos una dirección determinada en el tiempo, una flecha del tiempo. El tiempo avanza en la dirección que crece la entropía, podemos distinguir pasado y futuro simplemente porque cualquier tiempo pasado fue mejor (o al menos, menos entrópico). Es decir, como sabemos que las cosas tienden a desordenarse, a romperse, dada una colección de fotografías podemos saber cuál es su ordenación temporal, que siempre será yendo de lo más ordenado a lo más degradado. En resumen, que todo va siempre a peor, como ya sabemos.

Hay, sin embargo, una curiosa excepción a esta regla general: los seres vivos. Cada ser vivo consigue, durante un período limitado de tiempo -su vida- no sólo no aumentar su entropía sino de hecho disminuirla, al convertirse en su crecimiento en un ser cada vez más estructurado, más ordenado, más improbable si tuviera que ser fruto de las aleatorias fuerzas que operan en el medio físico. Los seres vivos consiguen tal proeza porque no son sistemas aislados, y lo que hacen en realidad es disiminuir su propia entropía a base de aumentar la de su entorno. Por ejemplo, un animal ingiere alimentos perfectamente estructurados (vegetales, carne de otros animales) y expulsa detritus mucho más desorganizados. En última instancia, son las plantas y algas verdes las que consiguen el portento en el que se basa la vida de todos los demás seres vivos, y lo hacen a base de tomar la radiación más energética del Sol y aumentar su entropía reemitiéndola a frecuencias más bajas, en un proceso con baja eficiencia pero han de pensar que la radiación solar ya tiene una alta entropía, y es prácticamente un milagro que las plantas verdes consigan con ello sustentar toda la biosfera planetaria. Con todo, este “milagro” dura un tiempo limitado: a pesar de lo fantástico de los procesos desatados por los seres vivos, no pueden evitar que se vaya acumulando cierta entropía en su interior (radicales libres, acortamiento de los telómeros…). De hecho, la vejez es un proceso de acumulación de entropía, hasta que llega a niveles incompatibles con mantener un organismo estructurado y el ser vivo muere. La estrategia de los seres vivos para continuar su combate es la reproducción, una especie de cápsula de salvamento minimal: reduce la entropía de un pequeño conjunto de células, el cigoto, a base de absorberla él mismo, y lanza esa cápsula de salvamento al mundo para que tenga una nueva vida después de la muerte de su progenitor. En realidad, el aumento inexorable de la entropía no lleva solamente a la necesaria muerte de cada ser vivo, sino en última instancia del Universo completo: la muerte térmica del Universo. La esfera de la entropía es por tanto la esfera de la muerte.

Por tanto, ¿qué es la entropía? La entropía es el pozo de desorden en el que inexorablemente nos vamos hundiendo a medida que vamos transformando el Universo. Suerte que tenemos las estrellas, y en última instancia  el Big Crunch -si es que ése es el destino del Universo-  para hacer un reset y destruir toda la entropía que se haya generado. Pero ésa es ya una discusión que se escapa del ámbito de este blog.

Pero para los efectos que le interesan al lector de este blog, el hecho de vivir en un mundo real, y no uno ideal, hace que inevitablemente los cuerpos estén a una cierta temperatura, con un cierto desorden, y el aprovechamiento de la energía no pueda ser nunca óptima, sino apreciablemente inferior. Así que cuando venga el nuevo vendedor de quimeras a ofrecerle un proceso con un rendimiento del 100% ya sabe por qué debe desconfiar.

AMT


Volver a la Portada de Logo Paperblog