fr en es pt
astronomia
 
Contate o autor rss astronoo
 
 

Definição de entropia

Que é a entropia?

Actualização 01 de junho de 2013

A entropia está relacionada com as noções de ordem e desordem microscópica e, especificamente, a transição de um estado desordenado para um estado mais desordenado. Um estado é mais desordenada pode levar muitos diferentes estados microscópicos. A entropia vem do grego 'voltar', é uma função termodinâmica.
Em termodinâmica, a entropia é uma função de estado (pressão, temperatura, volume, quantidade de substâncias introduzidas...), no meio do século XIX por Clausius no segundo princípio, com base no trabalho de Carnot. Clausius introduziu essa quantidade para caracterizar matematicamente a irreversibilidade dos processos físicos, como a transformação do trabalho em calor. Ele mostrou que a razão Q / T (onde Q é a quantidade de calor trocada por um sistema à temperatura T) é, na termodinâmica clássica, a mudança de uma função de estado que ele chamou de entropia S cuja unidade é o joule por kelvin (J / K).
A unidade de entropia, Joule por Kelvin é a quantidade de entropia adquirida por um sistema que recebe um calor Joule Kelvin. Projetada em uma turbina, a água de uma represa se transforma sua energia gravitacional em energia elétrica, mais tarde vamos fazer um movimento em um motor elétrico ou calor, em um radiador.

Ao longo dessas transformações, a energia é degradada, em outras palavras, a sua entropia aumenta. Um copo que quebra nunca volta para trás, um corpo que morre viverá novamente mais.
A entropia total de um sistema isolado sempre deve aumentar, a doença ainda está crescendo, é a segunda lei da termodinâmica.
Originalmente, a entropia se refere ao fenômeno da inversão térmica que equaliza a temperatura ou a dissipação de energia em calor, mas é uma lei bem mais geral que não é tão fácil de interpretar.
É até difícil entender o conceito de energia, esta quantidade para um sistema isolado que tem a propriedade de manter até o início dos tempos. A energia (mecânica, química, térmica, eletromagnética) é preservado, ele pode ser criada nem destruída, mas isto está mudando. Lavoisier disse que "nada se perde, nada se cria, tudo se transforma ".
Caso contrário, surpreendente é o conceito de entropia. Para o mesmo sistema isolado, a entropia pode permanecer constante, ele vai crescer indefinidamente. Entropia, incerteza, caos, complexidade, é parte do mesmo conceito.

entropie exemple fichier

Imagem: Arquivos de um disco rígido são também uma manifestação da entropia, eles nunca vão encontrar a ordem de partida.

Ordem ou desordem

A termodinâmica estatística desde então uma nova direção para essa quantidade abstrata física.
Ele vai medir o grau de desordem de um sistema a nível microscópico. Além disso, a entropia do sistema, o menor dos seus elementos são ordenados, interligados, podem produzir efeitos mecânicos, e quanto maior a parcela de energia não utilizados ou utilizados de forma inconsistente.
Ludwig Eduard Boltzmann (1844 - 1906) formulou uma expressão matemática da entropia de estatísticas sobre o número de estados microscópicos Ω que define o estado de equilíbrio de um determinado sistema a nível macroscópico.
A fórmula de Boltzmann é S = k Ln Ω.
Na realidade, a fórmula S = k log W é de Max Planck (1858 - 1957), mas foi Boltzmann quem a entendeu.
É comum dizer que a entropia é uma medida da desordem.
De fato, considere por exemplo um conjunto de 52 cartas e pedir-lhes todo o lado a mesma coisa, dizem que estão em perfeita ordem.
Este estado macroscópico pode ser alcançada de uma forma, então Ω = 1. Voltar um cartão, que é o início da doença, mas há Ω = 52 maneiras de tornar o macroscópico "uma carta virada."
A desordem é máxima quando 26 cartas são de um lado e os outros 26 cartões, o número de configurações microscópicas deste estado de desordem máxima é então Ω = 4,96.1014.

Neste exemplo, o número de configurações microscópicas (daí a entropia) é uma medida da desordem.
Se o conceito de doença é muitas vezes subjetiva, o número de configurações Ω é ele, pois é um número objectivo.
Deixe o conjunto de 52 cartas e assumir que eles são lançados ao ar, para que cada cartão cai de um lado ou outro com igual probabilidade. Se a operação for repetida muitas vezes os valores numéricos acima mostram que a desordem máxima aparecem significativamente mais frequentemente do que em qualquer outra situação.
Pensando agora um mol de gás ideal sob condições de temperatura e pressão normais. O número de partículas de NA é enorme = 6022,1023.
A capacidade de armazenar todas as moléculas do mesmo lado do recipiente de modo a deixar metade do volume de vazios é pequeno comparado com o potencial de moléculas imensamente maiores que são distribuídos uniformemente ao longo do volume.
A distribuição uniforme é feito imensamente mais vezes do que qualquer outra posição, tal como aparece macroscopicamente como um equilíbrio estacionário.

Assim, o equilíbrio de um sistema termodinâmico é quando sua entropia tem o valor máximo compatível com as limitações que enfrenta (por volume).

entropie

Alguns exemplos de entropia

Ambas as expressões de entropia são simplesmente o resultado de duas perspectivas diferentes, dependendo se se considera o sistema termodinâmico a nível macroscópico ou microscópico.
A dificuldade fornecendo uma definição intuitiva da entropia de um sistema é que ele não guarda. Pode aumentar espontaneamente durante uma transformação irreversível.
De fato, como a segunda lei da termodinâmica, a entropia de um sistema isolado não pode diminuir, ele aumenta ou permanece constante se a transformação é reversível. O material é composto de partículas (moléculas, átomos, elétrons...) em perpétuo movimento (movimento térmico) exercendo em cada outras interações cuja intensidade diminui quando a distância aumenta sua mútua.
Em um gás essa distância é relativamente grande, as interações são tão fracos, de modo que as partículas estão livres para se mover por todo o volume disponível para eles, mas muitos sofrem colisões com a sua energia varia.

Nos líquidos as distâncias mútuas são menores e as moléculas são menos livres. Cada molécula em um sólido é elástica ligada aos seus vizinhos e vibrar em torno de uma posição média fixa.
A energia de cada partícula é aleatória.
Exemplos:
- O atrito é a principal causa da irreversibilidade da entropia, entendemos por que tentar minimizá-los é o objetivo da lubrificação de peças de encaixe e se movendo em uma montagem mecânica.
- Com a mesma quantidade de gasolina que vai ter menos trabalho mecânico de acordo com a velocidade do carro, o carro vai mais rápido e menor distância é grande. A velocidade está lá, um fator de irreversibilidade.
- Uma bateria elétrica fornece eletricidade se trabalhar mais o seu funcionamento é semelhante ao da reversibilidade, ou seja, se ele tem uma baixa tensão e baixa corrente de operação. Mas se um curto-circuito nos eletrodos, é recuperado, mas quase nada de calor.

entropie trou noir galactique

Imagem: Entropia, incerteza, caos, complexidade, assim, aparecer como avatares de um conceito único. De acordo com uma ou outra destas formas, a entropia está associado ao conceito de probabilidade. Isso não caracteriza um objeto em si, mas o conhecimento que temos e nossa capacidade de fazer previsões. Portanto, tem um caráter objetivo e subjetivo. (Roger Balian, Universidade de todo o conhecimento).


1997 © Astronoo.com − Astronomia, Astrofísica, Evolução e Ecologia.
“Os dados disponíveis neste site poderão ser utilizados desde que a fonte seja devidamente citada.”