La entropía fue introducida por Rudolf Clausius (1822–1888) en 1865 para formalizar el segundo principio de la termodinámica. Mide el grado de desorden de un sistema. Matemáticamente, se define como \(\Delta S = \frac{Q_{rev}}{T}\), donde \(Q_{rev}\) es el calor reversible intercambiado y \(T\) la temperatura absoluta.
Ludwig Boltzmann (1844–1906) dio una interpretación probabilística: \( S = k_B \ln \Omega \), donde \(k_B\) es la constante de Boltzmann y \(\Omega\) el número de microestados accesibles al sistema. Cuantos más microestados tenga un sistema, mayor será su entropía. Este enfoque relaciona directamente la entropía con el concepto de información estadística.
En 1948, Claude Shannon (1916–2001) transpuso el concepto de entropía al ámbito de la información. La entropía de Shannon \( H = -\sum p_i \log_2(p_i) \) mide la incertidumbre asociada a una fuente de mensajes. Cuanto más uniforme sea la distribución de símbolos, mayor será la incertidumbre.
"Un mazo donde todas las cartas están en orden es muy predecible: se sabe exactamente cuál vendrá después. En cambio, un mazo bien barajado hace que cada extracción sea impredecible, ya que todas las cartas tienen la misma probabilidad de salir."
En resumen: orden ↔ más predecible (macro), desorden ↔ más impredecible (macro), y entropía ↔ medida de la imprevisibilidad estadística de los microestados.
Sistema | Descripción | Previsibilidad | Entropía | Comentario |
---|---|---|---|---|
Sorteo aleatorio de símbolos A, B, C, D | En cada sorteo, cada símbolo tiene exactamente la misma probabilidad de aparecer | Imposible de predecir | Alta | Modelo abstracto para ilustrar la entropía máxima de Shannon |
Sorteo sesgado de símbolos A, B, C, D | El símbolo A aparece el 90% del tiempo; B, C, D aparecen rara vez | Fácil de predecir | Baja | Modelo abstracto de entropía baja |
Lanzamiento de un dado equilibrado | Cada cara (1–6) tiene la misma probabilidad en cada lanzamiento | Imposible de predecir | Alta | Ejemplo simple de azar máximo |
Lanzamiento de un dado cargado | El dado cae en 6 el 80% de las veces; las otras caras aparecen rara vez | Fácil de predecir | Baja | Ejemplo clásico de baja incertidumbre |
Cartas de un mazo bien barajado | Cada carta tiene la misma probabilidad de ser extraída al azar | Imposible de predecir | Alta | Muestra que el orden inicial se pierde después de barajar |
Cartas parcialmente ordenadas | La mayoría de las cartas extraídas son rojas (75%) | Relativamente fácil de predecir | Baja | Ejemplo pedagógico de entropía reducida |
Bits aleatorios | Cada bit (0 o 1) tiene exactamente la misma probabilidad en una secuencia generada aleatoriamente | Imposible de predecir | Alta | Ejemplo numérico de incertidumbre máxima |
Bits sesgados | Los bits 0 aparecen el 90% del tiempo; los bits 1, el 10% | Fácil de predecir | Baja | Ejemplo numérico de entropía baja |
La segunda ley de la termodinámica establece que, en un sistema aislado, la entropía tiende a aumentar con el tiempo: \(\Delta S = S_{\text{final}} - S_{\text{inicial}} \ge 0\).
La entropía crece en todo sistema aislado, reflejando una irreversibilidad fundamental de los fenómenos naturales y por qué tienden a evolucionar hacia estados más desordenados.
Estos estados desordenados son estadísticamente mucho más accesibles, ya que existe un número enorme de microestados (configuraciones posibles de posiciones y velocidades de las partículas) que corresponden al mismo estado macroscópico. Esta multitud de configuraciones hace que estos estados sean mucho más probables, lo que se traduce en una entropía más alta.
Así, el aumento de la entropía refleja el paso espontáneo de los sistemas de configuraciones ordenadas a configuraciones desordenadas, donde la energía y la materia pueden disponerse de muchas más formas.
La entropía mide la incertidumbre de las configuraciones posibles, explicando por qué algunos procesos naturales nunca ocurren a la inversa, como el calor que siempre se propaga de lo caliente a lo frío.
El calor siempre se propaga del cuerpo caliente al frío debido al gradiente de temperatura. Un cuerpo caliente tiene moléculas con una energía cinética media más alta que las de un cuerpo frío. Cuando los cuerpos están en contacto, las colisiones entre moléculas provocan una transferencia neta de energía del lado caliente al frío, reduciendo gradualmente la diferencia de temperatura (gradiente).
Este proceso no es absoluto a nivel de una colisión individual; algunas colisiones pueden transferir energía en sentido inverso. Pero a escala macroscópica, el flujo neto sigue el gradiente de temperatura, que es la dirección más probable para la evolución del sistema.
Hay muchas más formas de distribuir esta energía en el sistema total (caliente + frío) que cuando toda la energía está concentrada en el cuerpo caliente. En términos de entropía, esta transferencia de energía aumenta el número de microestados accesibles para el sistema total. Así, el gradiente térmico actúa como un motor natural del aumento de la entropía.
Sistema | Evolución de la entropía | Comentario |
---|---|---|
Gas perfecto | Moléculas agrupadas en un espacio restringido → Moléculas dispersas en todo el espacio disponible | Cuando las moléculas pueden ocupar más posiciones posibles, la incertidumbre sobre su disposición aumenta, lo que incrementa la entropía |
Mazo de cartas | Cartas perfectamente ordenadas por color y valor → Cartas mezcladas al azar | El orden inicial es prácticamente imposible de recuperar después de mezclar, ilustrando el aumento de la incertidumbre y la entropía |
Distribución de símbolos | Algunos símbolos predominan (ej. A 20%) → Cada símbolo tiene la misma probabilidad de aparecer (ej. A 3,7%, B 3,7%, C 3,7%, D 3,7%, ...) | Cuando los símbolos están distribuidos de manera más equilibrada, predecir el siguiente símbolo se vuelve difícil y la entropía aumenta |
Bits en una secuencia informática | Bits mayoritariamente 0 (75%) → Bits 0 y 1 equiprobables (50%) | Cuanto más equilibrados están los bits, mayor es la incertidumbre sobre la secuencia, lo que conlleva un aumento de la entropía |
Sonidos en una melodía simple | Una nota dominante repetida → Notas elegidas al azar con probabilidades equivalentes | La variedad de notas aumenta la incertidumbre e ilustra el aumento de la entropía |
El Universo | Estado muy homogéneo y denso (Big Bang) → Universo cada vez más disperso y estructurado con estrellas, galaxias, agujeros negros | La expansión y la formación de estructuras aumentan la incertidumbre sobre la posición y la energía de las partículas, reflejando el crecimiento de la entropía cósmica |
A primera vista, los organismos vivos parecen crear orden: células organizadas, ADN estructurado, tejidos complejos. Esto podría parecer contradictorio con la segunda ley de la termodinámica, que dice que la entropía debe aumentar.
Sin embargo, la Tierra no es un sistema aislado: recibe energía del Sol e intercambia calor y desechos químicos con su entorno. Los organismos utilizan esta energía para construir estructuras ordenadas, pero a cambio producen calor y desechos que aumentan el desorden en su entorno.
Así, aunque la entropía local (dentro del organismo) disminuya, la entropía total del sistema global (organismo + entorno) aumenta. La vida redistribuye la energía y la materia, aumentando el número de microestados accesibles en el entorno.
En resumen: La vida crea orden local, pero genera un desorden mayor a su alrededor, respetando la segunda ley de la termodinámica.