Entropia (termodinâmica estatística) - Entropy (statistical thermodynamics)

O conceito de entropia foi desenvolvido pela primeira vez pelo físico alemão Rudolf Clausius em meados do século XIX como uma propriedade termodinâmica que prevê que certos processos espontâneos são irreversíveis ou impossíveis. Na mecânica estatística , a entropia é formulada como uma propriedade estatística usando a teoria da probabilidade . A perspectiva da entropia estatística foi introduzida em 1870 pelo físico austríaco Ludwig Boltzmann , que estabeleceu um novo campo da física que proporcionou a ligação descritiva entre a observação macroscópica da natureza e a visão microscópica baseada no tratamento rigoroso de um grande conjunto de microestados que constituem a termodinâmica sistemas .

Princípio de Boltzmann

Ludwig Boltzmann definiu entropia como uma medida do número de possíveis estados microscópicos ( microestados ) de um sistema em equilíbrio termodinâmico , consistente com suas propriedades termodinâmicas macroscópicas, que constituem o macroestado do sistema. Uma ilustração útil é o exemplo de uma amostra de gás contida em um recipiente. Os parâmetros facilmente mensuráveis ​​de volume, pressão e temperatura do gás descrevem sua condição macroscópica ( estado ). Em um nível microscópico, o gás consiste em um grande número de átomos ou moléculas que se movem livremente , que colidem aleatoriamente uns com os outros e com as paredes do recipiente. As colisões com as paredes produzem a pressão macroscópica do gás, o que ilustra a conexão entre fenômenos microscópicos e macroscópicos.

Um microestado do sistema é uma descrição das posições e momentos de todas as suas partículas. O grande número de partículas do gás fornece um número infinito de microestados possíveis para a amostra, mas coletivamente eles exibem uma média de configuração bem definida, que é exibida como o macroestado do sistema, para o qual cada contribuição de microestado individual é desprezivelmente pequena. . O conjunto de microestados compreende uma distribuição estatística de probabilidade para cada microestado e, no máximo, um grupo de configurações mais prováveis ​​fornece o estado macroscópico. Portanto, o sistema pode ser descrito como um todo por apenas alguns parâmetros macroscópicos, chamados de variáveis ​​termodinâmicas : a energia total E , volume V , pressão P , temperatura T e assim por diante. No entanto, esta descrição é relativamente simples apenas quando o sistema está em um estado de equilíbrio.

O equilíbrio pode ser ilustrado com um exemplo simples de uma gota de corante alimentar caindo em um copo de água. O corante se difunde de maneira complicada, difícil de prever com precisão. No entanto, depois de passado um tempo suficiente, o sistema atinge uma cor uniforme, um estado muito mais fácil de descrever e explicar.

Boltzmann formulou uma relação simples entre entropia e o número de microestados possíveis de um sistema, que é denotado pelo símbolo Ω . A entropia S é proporcional ao logaritmo natural deste número:

A constante de proporcionalidade k B é uma das constantes fundamentais da física, e é chamada de constante de Boltzmann em homenagem a sua descoberta.

Como Ω é um número natural (1,2,3, ...), a entropia é zero ou positiva ( ln 1 = 0 , ln Ω ≥ 0 ).

A entropia de Boltzmann descreve o sistema quando todos os microestados acessíveis são igualmente prováveis. É a configuração correspondente ao máximo de entropia em equilíbrio. A aleatoriedade ou desordem é máxima, assim como a falta de distinção (ou informação) de cada microestado.

Entropia é uma propriedade termodinâmica, assim como pressão, volume ou temperatura. Portanto, ele conecta a visão de mundo microscópica e macroscópica.

O princípio de Boltzmann é considerado a base da mecânica estatística .

Fórmula de entropia de Gibbs

O estado macroscópico de um sistema é caracterizado por uma distribuição nos microestados . A entropia dessa distribuição é dada pela fórmula de entropia de Gibbs, em homenagem a J. Willard Gibbs . Para um sistema clássico (ou seja, uma coleção de partículas clássicas) com um conjunto discreto de microestados, se é a energia do microestado i , e é a probabilidade de ocorrer durante as flutuações do sistema, então a entropia do sistema é

Mudanças de entropia para sistemas em um estado canônico

Um sistema com temperatura bem definida, ou seja, em equilíbrio térmico com reservatório térmico, tem a probabilidade de estar em um microestado i dada pela distribuição de Boltzmann .

Mudanças na entropia causadas por mudanças nas restrições externas são então dadas por:

onde usamos duas vezes a conservação da probabilidade, Σ dp i = 0 .

Agora, Σ i d ( E i p i ) é o valor esperado da mudança na energia total do sistema.

Se as mudanças são suficientemente lentas, de modo que o sistema permanece no mesmo estado microscópico, mas o estado muda lentamente (e reversivelmente), então Σ i ( dE i ) p i é o valor esperado do trabalho realizado no sistema através deste processo reversível, dw rev .

Mas da primeira lei da termodinâmica, dE = δw + δq . Portanto,

No limite termodinâmico , a flutuação das grandezas macroscópicas de seus valores médios torna-se desprezível; portanto, isso reproduz a definição de entropia da termodinâmica clássica, dada acima.

A quantidade é uma constante física conhecida como constante de Boltzmann , que, como a entropia, tem unidades de capacidade térmica . O logaritmo não tem dimensão , assim como todos os logaritmos.

Essa definição permanece significativa mesmo quando o sistema está longe do equilíbrio. Outras definições pressupõem que o sistema está em equilíbrio térmico , seja como um sistema isolado ou como um sistema em troca com seu entorno. O conjunto de microestados (com distribuição de probabilidade) em que a soma é feita é chamado de conjunto estatístico . Cada tipo de conjunto estatístico (microcanônico, canônico, grand-canônico, etc.) descreve uma configuração diferente das trocas do sistema com o exterior, variando de um sistema completamente isolado a um sistema que pode trocar uma ou mais quantidades com um reservatório , como energia, volume ou moléculas. Em todo conjunto, a configuração de equilíbrio do sistema é ditada pela maximização da entropia da união do sistema e seu reservatório, de acordo com a segunda lei da termodinâmica (ver artigo sobre mecânica estatística ).

Negligenciar correlações (ou, mais geralmente, dependências estatísticas ) entre os estados de partículas individuais levará a uma distribuição de probabilidade incorreta nos microestados e, portanto, a uma superestimativa da entropia. Essas correlações ocorrem em qualquer sistema com partículas de interação não trivial, ou seja, em todos os sistemas mais complexos do que um gás ideal .

Este S é quase universalmente chamado simplesmente de entropia . Também pode ser chamada de entropia estatística ou entropia termodinâmica sem alterar o significado. Observe que a expressão acima da entropia estatística é uma versão discretizada da entropia de Shannon . A fórmula de entropia de von Neumann é uma extensão da fórmula de entropia de Gibbs para o caso da mecânica quântica .

Foi demonstrado que a entropia de Gibbs é igual à entropia da "máquina térmica" clássica caracterizada por

Conjuntos

Os vários conjuntos usados ​​na termodinâmica estatística estão ligados à entropia pelas seguintes relações:

é a função de partição microcanónico é a função de partição canónica é a função de partição grande canónico

Falta de conhecimento e a segunda lei da termodinâmica

Podemos ver Ω como uma medida de nossa falta de conhecimento sobre um sistema. Como ilustração dessa ideia, considere um conjunto de 100 moedas , cada uma delas cara ou coroa . Os macroestados são especificados pelo número total de cara e coroa, enquanto os microestados são especificados pelas faces de cada moeda individual. Para os macroestados de 100 caras ou 100 coroas, existe exatamente uma configuração possível, portanto nosso conhecimento do sistema é completo. No extremo oposto, o macroestado que nos dá o mínimo de conhecimento sobre o sistema consiste em 50 caras e 50 caudas em qualquer ordem, para os quais existem 100.891.344.545.564.193.334.812.497.256 ( 100 escolha 50 ) ≈ 10 29 microestados possíveis.

Mesmo quando um sistema está totalmente isolado de influências externas, seu microestado está em constante mudança. Por exemplo, as partículas de um gás estão em constante movimento e, portanto, ocupam uma posição diferente a cada momento; seus momentos também mudam constantemente à medida que colidem uns com os outros ou com as paredes do contêiner. Suponha que preparemos o sistema em um estado de equilíbrio artificialmente altamente ordenado. Por exemplo, imagine dividir um recipiente com uma divisória e colocar um gás de um lado da divisória e um vácuo do outro lado. Se removermos a partição e observarmos o comportamento subsequente do gás, descobriremos que seu microestado evolui de acordo com algum padrão caótico e imprevisível e que, em média, esses microestados corresponderão a um macroestado mais desordenado do que antes. É possível , mas extremamente improvável , que as moléculas de gás ricocheteiem umas nas outras de modo que permaneçam em uma das metades do recipiente. É extremamente provável que o gás se espalhe para encher o recipiente de maneira uniforme, que é o novo macroestado de equilíbrio do sistema.

Este é um exemplo que ilustra a segunda lei da termodinâmica :

a entropia total de qualquer sistema termodinâmico isolado tende a aumentar com o tempo, aproximando-se de um valor máximo .

Desde a sua descoberta, esta ideia tem sido o foco de muitas reflexões, algumas delas confusas. O principal ponto de confusão é o fato de que a Segunda Lei se aplica apenas a sistemas isolados . Por exemplo, a Terra não é um sistema isolado porque está constantemente recebendo energia na forma de luz solar . Em contraste, o universo pode ser considerado um sistema isolado, de modo que sua entropia total está aumentando constantemente. (Precisa de esclarecimento. Veja: Segunda lei da termodinâmica # cite nota-Grandy 151-21 )

Contagem de microestados

Na mecânica estatística clássica , o número de microestados é na verdade incontavelmente infinito , uma vez que as propriedades dos sistemas clássicos são contínuas. Por exemplo, um microestado de um gás ideal clássico é especificado pelas posições e momentos de todos os átomos, que variam continuamente sobre os números reais . Se quisermos definir Ω, temos que encontrar um método de agrupar os microestados para obter um conjunto contável. Este procedimento é conhecido como granulação grossa . No caso do gás ideal, contamos dois estados de um átomo como o "mesmo" estado se suas posições e momentos estiverem dentro de δx e δp um do outro. Uma vez que os valores de δx e δp podem ser escolhidos arbitrariamente, a entropia não é definida de forma única. É definido apenas até uma constante aditiva. (Como veremos, a definição termodinâmica de entropia também é definida apenas até uma constante.)

Para evitar granulação grossa pode-se levar a entropia, tal como definido pela H-teorema .

No entanto, essa ambigüidade pode ser resolvida com a mecânica quântica . O estado quântico de um sistema pode ser expresso como uma superposição de estados "básicos", que podem ser escolhidos como estados próprios de energia (isto é, estados próprios do hamiltoniano quântico ). Normalmente, os estados quânticos são discretos, embora possa haver um número infinito deles. Para um sistema com alguma energia especificada E , toma-se Ω como o número de estados próprios de energia dentro de uma faixa de energia macroscopicamente pequena entre E e E + δE . No limite termodinâmico , a entropia específica torna-se independente da escolha de δE .

Um resultado importante, conhecido como teorema de Nernst ou terceira lei da termodinâmica , afirma que a entropia de um sistema à temperatura absoluta zero é uma constante bem definida. Isso ocorre porque um sistema à temperatura zero existe em seu estado de energia mais baixa, ou estado fundamental , de modo que sua entropia é determinada pela degeneração do estado fundamental. Muitos sistemas, como redes cristalinas , têm um estado fundamental único e (uma vez que ln (1) = 0 ) isso significa que eles têm entropia zero no zero absoluto. Outros sistemas têm mais de um estado com a mesma energia mais baixa e têm uma "entropia de ponto zero" que não desaparece. Por exemplo, o gelo comum tem uma entropia de ponto zero de3,41 J / (mol⋅K) , porque sua estrutura cristalina subjacente possui múltiplas configurações com a mesma energia (um fenômeno conhecido como frustração geométrica ).

A terceira lei da termodinâmica afirma que a entropia de um cristal perfeito no zero absoluto (0 kelvin ) é zero. Isso significa que quase todo o movimento molecular deve cessar. A equação do oscilador para prever níveis vibracionais quantizados mostra que mesmo quando o número quântico vibracional é 0, a molécula ainda tem energia vibracional:

onde está a constante de Planck, é a frequência característica da vibração e é o número quântico vibracional. Mesmo quando (a energia do ponto zero ), não é igual a 0, em conformidade com o princípio da incerteza de Heisenberg .

Veja também

Referências