L'Entropiewurde eingeführt vonRudolf Clausius(1822-1888) im Jahr 1865, um den zweiten Hauptsatz der Thermodynamik zu formalisieren. Es misst den Grad derDurcheinandereines Systems. Mathematisch ist sie definiert durch \(\Delta S = \frac{Q_{rev}}{T}\), wobei \(Q_{rev}\) die ausgetauschte reversible Wärme und \(T\) die absolute Temperatur ist.
Ludwig Boltzmann(1844-1906) gab eine probabilistische Interpretation: \(S = k_B \ln \Omega \) Dabei ist \(k_B\) die Boltzmann-Konstante und \(\Omega\) die Anzahl der Mikrozustände, auf die das System zugreifen kann. Je mehr Mikrozustände ein System hat, desto höher ist seine Entropie. Dieser Ansatz verknüpft die Entropie direkt mit dem Konzept vonstatistische Informationen.
Im Jahr 1948Claude Shannon(1916-2001) überführt den Begriff der Entropie in den Bereich derInformation. Die Shannon-Entropie \(\ H = -\sum p_i \log_2(p_i) \ \) misst die mit einer Nachrichtenquelle verbundene Unsicherheit. Je gleichmäßiger die Verteilung der Symbole ist, desto größer ist die Unsicherheit.
„Ein Deck, bei dem alle Karten in der richtigen Reihenfolge sind, ist sehr vorhersehbar: Man weiß genau, welche als nächstes kommt. Andererseits macht ein gut gemischtes Deck jede Ziehung unvorhersehbar, da alle Karten die gleiche Wahrscheinlichkeit haben, herauszukommen. »
Zusammenfassend:Reihenfolge ↔ vorhersehbarer (Makro), Störung ↔ unvorhersehbarer (Makro), UndEntropie ↔ Maß für die statistische Unvorhersehbarkeit von Mikrozuständen.
| System | Beschreibung | Vorhersagbarkeit | Entropie | Kommentar |
|---|---|---|---|---|
| Zufällige Zeichnung der Symbole A, B, C, D | Bei jeder Ziehung hat jedes Symbol genau die gleiche Wahrscheinlichkeit, dass es erscheint | Unmöglich vorherzusagen | Hoch | Abstraktes Modell zur Veranschaulichung der maximalen Shannon-Entropie |
| Voreingenommenes Zeichnen der Symbole A, B, C, D | Symbol A erscheint in 90 % der Fälle, B, C, D kommen selten vor | Leicht vorherzusagen | Schwach | Abstraktes Modell mit niedriger Entropie |
| Ausgewogener Würfelwurf | Jede Seite (1 bis 6) hat bei jedem Wurf die gleiche Wahrscheinlichkeit | Unmöglich vorherzusagen | Hoch | Einfaches Beispiel für maximale Chance |
| Falscher Würfelwurf | Der Würfel fällt in 80 % der Fälle auf die 6, die anderen Gesichter selten | Leicht vorherzusagen | Schwach | Klassisches Beispiel für geringe Unsicherheit |
| Karten aus einem gut gemischten Stapel | Jede Karte hat die gleiche Chance, zufällig gezogen zu werden | Unmöglich vorherzusagen | Hoch | Zeigt, dass die ursprüngliche Ordnung nach dem Mischen verloren geht |
| Teilweise sortierte Karten | Die Mehrheit der gezogenen Karten ist rot (75 %). | Relativ einfach vorherzusagen | Schwach | Lehrbeispiel zur Darstellung reduzierter Entropie |
| Zufällige Bits | Jedes 0- oder 1-Bit hat in einer zufällig generierten Sequenz genau die gleiche Wahrscheinlichkeit | Unmöglich vorherzusagen | Hoch | Numerisches Beispiel für maximale Unsicherheit |
| Voreingenommene Teile | Bit 0 erscheint in 90 % der Fälle, Bit 1 in 10 % der Fälle. | Leicht vorherzusagen | Schwach | Numerisches Beispiel für niedrige Entropie |
Der zweite Hauptsatz der Thermodynamik besagt, dass in einem isolierten System die Entropie tendenziell mit der Zeit zunimmt: \(\Delta S = S_{\text{final}} - S_{\text{initial}} \ge 0\)
Die Entropie nimmt in jedem isolierten System zu, was die grundsätzliche Irreversibilität natürlicher Phänomene widerspiegelt und erklärt, warum sie dazu neigen, sich in ungeordnetere Zustände zu entwickeln.
Diese ungeordneten Zustände sind statistisch gesehen viel leichter zugänglich, da es eine große Anzahl von Mikrozuständen gibt (mögliche Konfigurationen von Teilchenpositionen und -geschwindigkeiten), die demselben makroskopischen Zustand entsprechen. Diese Vielzahl an Konfigurationen macht diese Zustände viel wahrscheinlicher, was zu einer höheren Entropie führt.
Somit spiegelt die Zunahme der Entropie den spontanen Übergang von Systemen von geordneten Konfigurationen zu ungeordneten Konfigurationen wider wo Energie und Materie auf viele weitere Arten angeordnet werden können.
Die Entropie misst somit die Unsicherheit möglicher Konfigurationen und erklärt, warum bestimmte natürliche Prozesse nie umgekehrt ablaufen, wie etwa Wärme, die sich immer von heiß nach kalt ausbreitet.
Aufgrund der Temperatur wandert die Wärme immer vom heißen Körper zum kalten KörperTemperaturgradient. Ein heißer Körper hat Moleküle mit einer höheren durchschnittlichen kinetischen Energie als ein kalter Körper. Wenn Körper in Kontakt sind, führen Kollisionen zwischen Molekülen zu einem Nettoenergietransfer von der heißen Seite zur kalten Seite. allmählich den Temperaturunterschied (den Gradienten) verringern.
Dieser Prozess ist auf der Ebene einer einzelnen Kollision nicht absolut, einige Kollisionen können Energie in die entgegengesetzte Richtung übertragen. Aber im makroskopischen Maßstab folgt der Nettofluss dem Temperaturgradienten, der die wahrscheinlichste Richtung für die Entwicklung des Systems darstellt.
Es gibt viel mehr verschiedene Möglichkeiten, diese Energie im Gesamtsystem (heiß + kalt) zu verteilen, als wenn die gesamte Energie im heißen Körper konzentriert ist. BezüglichEntropie, dieser Energietransfer erhöht die Anzahl der Mikrozustände, die für das Gesamtsystem zugänglich sind. Somit fungiert der Wärmegradient als natürlicher Treiber für die zunehmende Entropie.
| System | Entwicklung der Entropie | Kommentar |
|---|---|---|
| Perfektes Benzin | Auf engstem Raum gruppierte Moleküle → Über den gesamten verfügbaren Raum verteilte Moleküle | Wenn Moleküle mehr mögliche Positionen einnehmen können, steigt die Unsicherheit in ihrer Anordnung, was zu einer Erhöhung der Entropie führt. |
| Kartenspiel | Karten perfekt sortiert nach Farbe und Wert → Karten zufällig gemischt | Es ist praktisch unmöglich, die ursprüngliche Ordnung nach dem Mischen wiederherzustellen, was den Anstieg der Unsicherheit und Entropie verdeutlicht |
| Verteilung von Symbolen | Bestimmte Symbole überwiegen (z. B. A 20 %) → Jedes Symbol hat die gleiche Auftrittswahrscheinlichkeit (z. B. A 3,7 % B 3,7 % C 3,7 % D 3,7 %, ...) | Wenn Symbole gleichmäßiger verteilt sind, wird es schwieriger, das nächste Symbol vorherzusagen, und die Entropie nimmt zu |
| Bits in einer Computersequenz | Bits überwiegend 0 (75 %) → Bits 0 und 1 gleich wahrscheinlich (50 %) | Wenn die Bits ausgeglichen werden, nimmt die Unsicherheit in der Sequenz zu, was zu einem Anstieg der Entropie führt |
| Klingt in einer einfachen Melodie | Eine wiederholte dominante Note → Zufällig ausgewählte Noten mit gleicher Wahrscheinlichkeit | Die Vielfalt der Noten erhöht die Unsicherheit und verdeutlicht den Anstieg der Entropie |
| Das Universum | Sehr homogener und dichter Zustand (Urknall) → Universum zunehmend zerstreut und strukturiert mit Sternen, Galaxien, Schwarzen Löchern | Die Ausdehnung und Bildung von Strukturen erhöht die Unsicherheit über die Position und Energie von Teilchen, was die Zunahme der kosmischen Entropie widerspiegelt |
Auf den ersten Blick scheinen lebende Organismen Ordnung zu schaffen: organisierte Zellen, strukturierte DNA, komplexe Gewebe. Dies scheint im Widerspruch zum zweiten Hauptsatz der Thermodynamik zu stehen, der besagt, dass die Entropie zunehmen muss.
Allerdings ist die Erde kein isoliertes System: Sie erhält Energie von der Sonne und tauscht Wärme und chemische Abfälle mit ihrer Umgebung aus. Organismen nutzen diese Energie, um geordnete Strukturen aufzubauen, produzieren aber im Gegenzug Wärme und Abfall, die die Unordnung in ihrer Umgebung verstärken.
Selbst wenn also die lokale Entropie (im Organismus) abnimmt, nimmt die Gesamtentropie des globalen Systems (Organismus + Umwelt) zu. Leben verteilt Energie und Materie neu und erhöht so die Anzahl zugänglicher Mikrozustände in der Umwelt.
Zusammenfassend:Das Leben schafft örtliche Ordnung, erzeugt jedoch größere Unordnung um sich herum und respektiert dabei den zweiten Hauptsatz der Thermodynamik.