A entropia foi introduzida por Rudolf Clausius (1822–1888) em 1865 para formalizar o segundo princípio da termodinâmica. Ela mede o grau de desordem de um sistema. Matematicamente, é definida por \(\Delta S = \frac{Q_{rev}}{T}\), onde \(Q_{rev}\) é o calor reversível trocado e \(T\) a temperatura absoluta.
Ludwig Boltzmann (1844–1906) deu uma interpretação probabilística: \( S = k_B \ln \Omega \), onde \(k_B\) é a constante de Boltzmann e \(\Omega\) o número de microestados acessíveis ao sistema. Quanto mais microestados um sistema possui, maior sua entropia. Essa abordagem relaciona diretamente a entropia ao conceito de informação estatística.
Em 1948, Claude Shannon (1916–2001) transpôs a noção de entropia para o domínio da informação. A entropia de Shannon \( H = -\sum p_i \log_2(p_i) \) mede a incerteza associada a uma fonte de mensagens. Quanto mais uniforme a distribuição dos símbolos, maior a incerteza.
"Um baralho onde todas as cartas estão em ordem é muito previsível: sabe-se exatamente qual virá a seguir. Por outro lado, um baralho bem embaralhado torna cada sorteio imprevisível, pois todas as cartas têm a mesma probabilidade de sair."
Em resumo: ordem ↔ mais previsível (macro), desordem ↔ mais imprevisível (macro), e entropia ↔ medida da imprevisibilidade estatística dos microestados.
Sistema | Descrição | Previsibilidade | Entropia | Comentário |
---|---|---|---|---|
Sorteio aleatório de símbolos A, B, C, D | Em cada sorteio, cada símbolo tem exatamente a mesma probabilidade de aparecer | Impossível de prever | Elevada | Modelo abstrato para ilustrar a entropia máxima de Shannon |
Sorteio enviesado de símbolos A, B, C, D | O símbolo A aparece 90% das vezes; B, C, D aparecem raramente | Fácil de prever | Baixa | Modelo abstrato de entropia baixa |
Lançamento de um dado equilibrado | Cada face (1–6) tem a mesma probabilidade em cada lançamento | Impossível de prever | Elevada | Exemplo simples de aleatoriedade máxima |
Lançamento de um dado viciado | O dado cai no 6 em 80% das vezes; as outras faces aparecem raramente | Fácil de prever | Baixa | Exemplo clássico de baixa incerteza |
Cartas de um baralho bem embaralhado | Cada carta tem a mesma chance de ser sorteada aleatoriamente | Impossível de prever | Elevada | Mostra que a ordem inicial se perde após o embaralhamento |
Cartas parcialmente ordenadas | A maioria das cartas sorteadas são vermelhas (75%) | Relativamente fácil de prever | Baixa | Exemplo pedagógico de entropia reduzida |
Bits aleatórios | Cada bit (0 ou 1) tem exatamente a mesma probabilidade em uma sequência gerada aleatoriamente | Impossível de prever | Elevada | Exemplo numérico de incerteza máxima |
Bits enviesados | Os bits 0 aparecem 90% das vezes; os bits 1 aparecem 10% | Fácil de prever | Baixa | Exemplo numérico de entropia baixa |
A segunda lei da termodinâmica estabelece que, em um sistema isolado, a entropia tende a aumentar com o tempo: \(\Delta S = S_{\text{final}} - S_{\text{inicial}} \ge 0\).
A entropia cresce em qualquer sistema isolado, traduzindo uma irreversibilidade fundamental dos fenômenos naturais e por que eles tendem a evoluir para estados mais desordenados.
Esses estados desordenados são estatisticamente muito mais acessíveis, pois existe um número enorme de microestados (configurações possíveis das posições e velocidades das partículas) que correspondem ao mesmo estado macroscópico. Essa multidão de configurações torna esses estados muito mais prováveis, o que se traduz em uma entropia mais alta.
Assim, o aumento da entropia reflete a passagem espontânea dos sistemas de configurações ordenadas para configurações desordenadas, onde a energia e a matéria podem ser arranjadas de muitas mais maneiras.
A entropia mede a incerteza das configurações possíveis, explicando por que alguns processos naturais nunca ocorrem ao contrário, como o calor que sempre se propaga do quente para o frio.
O calor sempre se propaga do corpo quente para o corpo frio devido ao gradiente de temperatura. Um corpo quente possui moléculas com energia cinética média mais alta do que as de um corpo frio. Quando os corpos estão em contato, as colisões entre moléculas causam uma transferência líquida de energia do lado quente para o lado frio, reduzindo gradualmente a diferença de temperatura (gradiente).
Esse processo não é absoluto no nível de uma colisão individual; algumas colisões podem transferir energia no sentido inverso. Mas em escala macroscópica, o fluxo líquido segue o gradiente de temperatura, que é a direção mais provável para a evolução do sistema.
Há muitas mais maneiras de distribuir essa energia no sistema total (quente + frio) do que quando toda a energia está concentrada no corpo quente. Em termos de entropia, essa transferência de energia aumenta o número de microestados acessíveis para o sistema total. Assim, o gradiente térmico age como um motor natural de aumento da entropia.
Sistema | Evolução da entropia | Comentário |
---|---|---|
Gás perfeito | Moléculas agrupadas em um espaço restrito → Moléculas dispersas em todo o espaço disponível | Quando as moléculas podem ocupar mais posições possíveis, a incerteza sobre seu arranjo aumenta, o que faz crescer a entropia |
Baralho de cartas | Cartas perfeitamente ordenadas por cor e valor → Cartas embaralhadas aleatoriamente | A ordem inicial é praticamente impossível de ser recuperada após o embaralhamento, ilustrando o aumento da incerteza e da entropia |
Distribuição de símbolos | Alguns símbolos predominam (ex. A 20%) → Cada símbolo tem a mesma probabilidade de aparecer (ex. A 3,7%, B 3,7%, C 3,7%, D 3,7%, ...) | Quando os símbolos são distribuídos de forma mais equilibrada, torna-se difícil prever o próximo símbolo, e a entropia aumenta |
Bits em uma sequência computacional | Bits majoritariamente 0 (75%) → Bits 0 e 1 equiprováveis (50%) | Quanto mais equilibrados os bits se tornam, maior a incerteza sobre a sequência, o que leva a um aumento da entropia |
Sons em uma melodia simples | Uma nota dominante repetida → Notas escolhidas aleatoriamente com probabilidades equivalentes | A variedade de notas aumenta a incerteza e ilustra a elevação da entropia |
O Universo | Estado muito homogêneo e denso (Big Bang) → Universo cada vez mais disperso e estruturado com estrelas, galáxias, buracos negros | A expansão e a formação de estruturas aumentam a incerteza sobre a posição e a energia das partículas, refletindo o crescimento da entropia cósmica |
À primeira vista, os organismos vivos parecem criar ordem: células organizadas, DNA estruturado, tecidos complexos. Isso poderia parecer contraditório com a segunda lei da termodinâmica, que diz que a entropia deve aumentar.
No entanto, a Terra não é um sistema isolado: recebe energia do Sol e troca calor e resíduos químicos com seu ambiente. Os organismos usam essa energia para construir estruturas ordenadas, mas, em troca, produzem calor e resíduos que aumentam a desordem em seu entorno.
Assim, mesmo que a entropia local (dentro do organismo) diminua, a entropia total do sistema global (organismo + ambiente) aumenta. A vida redistribui energia e matéria, aumentando o número de microestados acessíveis no ambiente.
Em resumo: A vida cria ordem local, mas gera uma desordem maior ao seu redor, respeitando a segunda lei da termodinâmica.