La entropía está relacionada con las nociones de orden y desorden microscópico y, específicamente, la transición de un estado desordenado a un estado más desordenado. Un estado es más desordenado que puede tomar muchos estados microscópicos diferentes. La entropía, de griego 'mirada atrás', es una función termodinámica. En termodinámica, la entropía es una función de estado (presión, temperatura, volumen, cantidad de materia) Introducida en medio del siglo 19 por Clausius en el marco del segundo principio, según los trabajos de Carnot. Clausius introdujo este grandor con el fin de caracterizar matemáticamente la irreversibilidad de procesos físicos tales como una transformación de trabajo en calor. Mostró que el informe Q/T (donde Q está la cantidad de calor cambiada por un sistema a la temperatura T) correspondía, en termodinámica clásica, a la variación de una función de estado que llamó entropía S y cuya unidad es el julio por kelvin (J/K). La unidad de entropía, el Julio por Kelvin corresponde a la cantidad de entropía ganada por un sistema que recibe 1 julio de calor por Kelvin. Proyectada en una turbina, el agua de una presa transforma su energía gravitacional en energía eléctrica, más tarde, lo haremos un movimiento en un motor eléctrico o el calor en un radiador.
A lo largo de estas transformaciones, la energía se degrada, en otros términos, su entropía aumenta. Una taza que se rompe no vuelve jamás para atrás, un organismo que muere no revivirá más.
La entropía total de un sistema aislado debe siempre aumentar, su desorden debe siempre crecer, es el segundo principio de la termodinámica.
Al principio, la entropía designa el fenómeno del intercambio térmico que iguala las temperaturas o la disipación de la energía en calor, pero es una ley mucho más general y que no es tan fácil interpretar. Es hasta difícil de comprender el concepto energía, este grandor que para un sistema aislado, tiene la propiedad de conservarse hasta los tiempos remotos.
La energía (mecánica, térmica, química y electromagnética) se conserva, no puede ser creado, ni destruida sino se transforma. Lavoisier lo dijo "nada se pierde, nada se crea, todo se transforma".
De otro modo sorprendente es el concepto entropía. Para el mismo sistema aislado, la entropía no puede quedar constante, sólo crecerá indefinidamente. Entropía, incertidumbre, desorden, complejidad forman parte del mismo concepto.
La termodinámica estadística luego abasteció una nueva orientación a este grandor físico abstracto. Va a medir el grado de desorden de un sistema al nivel microscópico. Cuanto más la entropía del sistema es elevada, menos sus elementos son ordenados, atados entre ellos, capaces de producir efectos mecánicos, y más grande es la parte de la energía inutilizada o utilizada de modo incoherente.
Ludwig Eduard Boltzmann (1844 - 1906) formuló una expresión matemática de la entropía estadística con arreglo al número de estados microscópicos definiendo el estado de equilibrio de un sistema dado al nivel macroscópico.
La fórmula de Boltzmann es S = k Ln Ω.
En realidad, la fórmula S = k log W es de Max Planck (1858 - 1957) pero fue Boltzmann quien la entendió.
Es corriente de decir que la entropía es una medida del desorden. En efecto, consideremos por ejemplo un juego de 52 cartas y pongamos las totalmente del mismo lado, digamos que están en una orden perfecta. Este estado macroscópico no puede ser realizado sólo por un solo modo, entonces Ω = 1. Devolvamos 1 carta, lo que es el principio del desorden; pero hay Ω = 52 modos de realizar el estado macroscópico " una sola carta devuelta ". El desorden es máximo cuando 26 cartas son de un lado y 26 cartas del otro; el número de configuraciones microscópicas de este estado de desorden máximo es entonces Ω = 4,96.1014.
En este ejemplo el número de configuraciones microscópicas (pues la entropía) es bien una medida del desorden. Si esta noción de desorden es a menudo subjetiva, lo enumera Ω de configuraciones le es, objetivo ya que es un número.
Repitamos el juego de 52 cartas y supongamos que se las echa en el aire de tal modo que cada carta recae de un lado o de la otra con la misma probabilidad. Si se empieza de nuevo la operación un gran número de veces los valores numéricos precedentes muestran que el desorden máximo aparecerá mucho más a menudo que muy diferente situación.
Reflexionemos ahora sobre un mol de gas perfeccionado en las condiciones normales de temperatura y de presión. El número de partículas es enorme NA = 6,022 1023. La posibilidad de arreglar todas las moléculas de la misma numerado por el recipiente para dejar la mitad del volumen vacío, es débil con relación a las posibilidades inmensamente más grandes para las cuales las moléculas uniformemente son repartidas en todo el volumen.
La repartición uniforme pues es realizada inmensamente más a menudo que muy diferente situación, a punto que parece como un equilibrio estacionario.
Así el equilibrio de un sistema termodinámica se produce cuando su entropía tiene el valor máximo y compatible con las coacciones a las cuales está sometido (aquí el volumen).
Ambas expresiones de la entropía simplemente resultan de dos puntos de vista diferentes, según que se considera el sistema termodinámica al nivel macroscópico o al nivel microscópico.
La dificultad en dar una definición intuitiva de la entropía de un sistema viene por el hecho de que no se conserva. Puede aumentar espontáneamente en el momento de una transformación irreversible.
En efecto, según el segundo principio de la termodinámica, la entropía de un sistema aislado no puede disminuir, aumenta o queda constante si la transformación es reversible.
La materia es formada por partículas (moléculas, átomos, electrones) en movimiento perpetuo (agitación térmica) que ejerce las unas sobre otras una interacción cuya intensidad disminuye cuando su distancia mutua aumenta. En un gas esta distancia es relativamente grande, las interacciones pues son débiles, de modo que las partículas son libres de desplazarse en todo el volumen que les es ofrecido, pero sufren numerosas colisiones en el curso de las cuales su energía varía.
En un líquido las distancias mutuas son más pequeñas y las moléculas son menos libres.
En un sólido cada molécula es atada elásticamente a sus vecinas y vibra alrededor de una posición media fija. La energía de cada partícula es aleatoria.
Ejemplos :
- al siendo los frotamientos la principal causa de irreversibilidad de la entropía, comprendemos por qué tratamos de minimizarlos; es el fin de la lubricación de las piezas en contacto y en movimiento en un conjunto mecánico.
- con la misma cantidad de esencia vamos a recuperar menos trabajo mecánico con arreglo a la velocidad del coche, cuanto más el coche va rápidamente y menos la distancia recorrida es grande.
La velocidad está allí, un factor de irreversibilidad.
- una pila eléctrica abastece más de trabajo eléctrico si su funcionamiento se acerca a la reversibilidad, es decir si tiene una tensión débil y una corriente débil de funcionamiento.
En cambio si se pone en cortocircuito los electrodos, prácticamente no recuperamos sólo, del calor.