Entropia - Entropy

Entropia
Símbolos comuns
S
Unidade SI joules por Kelvin (J⋅K -1 )
Em unidades de base SI kg⋅m 2 ⋅s −2 ⋅K −1

Entropia é um conceito científico, bem como uma propriedade física mensurável que é mais comumente associada a um estado de desordem, aleatoriedade ou incerteza. O termo e o conceito são usados ​​em diversos campos, desde a termodinâmica clássica , onde foi reconhecido pela primeira vez, até a descrição microscópica da natureza na física estatística e até os princípios da teoria da informação . Encontrou aplicações de longo alcance na química e na física , em sistemas biológicos e sua relação com a vida, em cosmologia , economia , sociologia , ciência do tempo , mudança climática e sistemas de informação, incluindo a transmissão de informações em telecomunicações .

O conceito termodinâmico foi referido pelo cientista e engenheiro escocês Macquorn Rankine em 1850 com os nomes função termodinâmica e potencial térmico . Em 1865, o físico alemão Rudolph Clausius , um dos principais fundadores do campo da termodinâmica, definiu-o como o quociente de uma quantidade infinitesimal de calor para a temperatura instantânea . Ele inicialmente o descreveu como conteúdo de transformação , em alemão Verwandlungsinhalt , e mais tarde cunhou o termo entropia de uma palavra grega para transformação . Referindo-se à constituição e estrutura microscópicas, em 1862, Clausius interpretou o conceito como desagregação de significado .

Uma consequência da entropia é que certos processos são irreversíveis ou impossíveis, além da exigência de não violar a conservação da energia , esta última sendo expressa na primeira lei da termodinâmica . A entropia é central para a segunda lei da termodinâmica , que afirma que a entropia dos sistemas isolados deixados para a evolução espontânea não pode diminuir com o tempo, pois eles sempre chegam a um estado de equilíbrio termodinâmico, onde a entropia é maior.

O físico austríaco Ludwig Boltzmann explicou a entropia como a medida do número de possíveis arranjos microscópicos ou estados de átomos e moléculas individuais de um sistema que obedece à condição macroscópica do sistema. Com isso, ele introduziu o conceito de desordem estatística e distribuições de probabilidade em um novo campo da termodinâmica, chamado mecânica estatística , e encontrou a ligação entre as interações microscópicas, que flutuam em uma configuração média, para o comportamento macroscopicamente observável, na forma de um simples logarítmico lei, com uma constante de proporcionalidade , a constante de Boltzmann , que se tornou uma das constantes universais definidoras do moderno Sistema Internacional de Unidades (SI).

Em 1948, o cientista do Bell Labs Claude Shannon desenvolveu conceitos estatísticos semelhantes de medição da incerteza microscópica e multiplicidade ao problema de perdas aleatórias de informação em sinais de telecomunicação. Por sugestão de John von Neumann , Shannon chamou essa entidade de informação ausente de maneira análoga ao seu uso na mecânica estatística como entropia , e deu origem ao campo da teoria da informação . Esta descrição foi proposta como uma definição universal do conceito de entropia.

História

Rudolf Clausius (1822-1888), criador do conceito de entropia

Em seu artigo de 1803, Princípios Fundamentais de Equilíbrio e Movimento , o matemático francês Lazare Carnot propôs que em qualquer máquina, as acelerações e choques das partes móveis representam perdas de momento de atividade ; em qualquer processo natural existe uma tendência inerente à dissipação da energia útil. Em 1824, com base nesse trabalho, o filho de Lazare, Sadi Carnot , publicou Reflexões sobre a força motriz do fogo , que postulou que em todos os motores térmicos, sempre que " calórico " (o que agora é conhecido como calor) cai por uma diferença de temperatura, o trabalho ou a força motriz podem ser produzidos a partir das ações de sua queda de um corpo quente para o frio. Ele usou uma analogia de como a água cai em uma roda d'água . Esse foi um dos primeiros insights sobre a segunda lei da termodinâmica . Carnot baseou suas opiniões sobre o calor parcialmente na "hipótese newtoniana" do início do século 18 de que tanto o calor quanto a luz eram tipos de formas indestrutíveis de matéria, que são atraídas e repelidas por outra matéria, e parcialmente nas opiniões contemporâneas do conde Rumford , que mostrou em 1789 que o calor pode ser criado por fricção, como quando os canhões são usinados. Carnot argumentou que se o corpo da substância de trabalho, como um corpo de vapor, retorna ao seu estado original no final de um ciclo completo do motor , "nenhuma mudança ocorre na condição do corpo de trabalho".

A primeira lei da termodinâmica , deduzida dos experimentos de atrito térmico de James Joule em 1843, expressa o conceito de energia e sua conservação em todos os processos; a primeira lei, entretanto, é inadequada para quantificar separadamente os efeitos de atrito e dissipação .

Nas décadas de 1850 e 1860, o físico alemão Rudolf Clausius objetou à suposição de que nenhuma mudança ocorre no corpo de trabalho e deu a essa mudança uma interpretação matemática, questionando a natureza da perda inerente de calor utilizável quando o trabalho é feito, por exemplo, calor produzido por fricção. Ele descreveu suas observações como um uso dissipativo de energia, resultando em um conteúdo de transformação ( Verwandlungsinhalt em alemão), de um sistema termodinâmico ou corpo de trabalho de espécies químicas durante uma mudança de estado . Isso contrastava com as visões anteriores, baseadas nas teorias de Isaac Newton , de que o calor era uma partícula indestrutível que tinha massa. Clausius descobriu que a energia não utilizável aumenta à medida que o vapor vai da entrada para o escapamento em uma máquina a vapor. Do prefixo en- , como em 'energia', e da palavra grega τροπή [tropē], que é traduzida em um léxico estabelecido como giro ou mudança e que ele traduziu em alemão como Verwandlung , uma palavra frequentemente traduzida para o inglês como transformação , em 1865, Clausius cunhou o nome dessa propriedade como entropia . A palavra foi adotada na língua inglesa em 1868.

Mais tarde, cientistas como Ludwig Boltzmann , Josiah Willard Gibbs e James Clerk Maxwell deram à entropia uma base estatística. Em 1877, Boltzmann visualizou uma forma probabilística de medir a entropia de um conjunto de partículas de gás ideais , na qual definiu a entropia como proporcional ao logaritmo natural do número de microestados que esse gás poderia ocupar. Daí em diante, o problema essencial da termodinâmica estatística tem sido determinar a distribuição de uma determinada quantidade de energia E em N sistemas idênticos. Constantin Carathéodory , um matemático grego, relacionou a entropia com uma definição matemática de irreversibilidade, em termos de trajetórias e integrabilidade.

Etimologia

Em 1865, Clausius denominou o conceito de "diferencial de uma quantidade que depende da configuração do sistema", entropia ( Entropie ) após a palavra grega para 'transformação'. Ele deu "conteúdo transformacional" ( Verwandlungsinhalt ) como sinônimo, paralelamente ao seu "conteúdo térmico e ergonômico" ( Wärme- und Werkinhalt ) como o nome de , mas preferindo o termo entropia como um paralelo próximo da palavra energia , pois ele encontrou o conceitos quase "análogos em seu significado físico". Este termo foi formado pela substituição da raiz de ἔργον ('trabalho') pela de τροπή ('transformação').

Definições e descrições

Qualquer método envolvendo a noção de entropia, cuja própria existência depende da segunda lei da termodinâmica, sem dúvida parecerá a muitos rebuscado e pode repelir os iniciantes como obscuros e difíceis de compreensão.

Willard Gibbs , Métodos gráficos na termodinâmica dos fluidos

O conceito de entropia é descrito por duas abordagens principais, a perspectiva macroscópica da termodinâmica clássica e a descrição microscópica central para a mecânica estatística . A abordagem clássica define entropia em termos de propriedades físicas macroscopicamente mensuráveis, como massa aparente, volume, pressão e temperatura. A definição estatística de entropia a define em termos das estatísticas dos movimentos dos constituintes microscópicos de um sistema - modelados inicialmente classicamente, por exemplo, partículas newtonianas constituindo um gás e, posteriormente, quântico-mecanicamente (fótons, fônons , spins, etc.) . As duas abordagens formam uma visão consistente e unificada do mesmo fenômeno expresso na segunda lei da termodinâmica, que encontrou aplicabilidade universal aos processos físicos.

Função de estado

Muitas propriedades termodinâmicas têm uma característica especial, pois formam um conjunto de variáveis ​​físicas que definem um estado de equilíbrio; são funções de estado . Freqüentemente, se duas propriedades de um sistema são determinadas, elas são suficientes para determinar o estado do sistema e, portanto, os valores de outras propriedades. Por exemplo, a temperatura e a pressão de uma determinada quantidade de gás determinam seu estado e, portanto, também seu volume. Como outro exemplo, um sistema composto de uma substância pura de uma única fase em uma determinada temperatura e pressão uniformes é determinado (e é, portanto, um determinado estado) e não está apenas em um determinado volume, mas também em uma determinada entropia. O fato de a entropia ser uma função de estado é um dos motivos pelos quais ela é útil. No ciclo de Carnot, o fluido de trabalho retorna ao mesmo estado que tinha no início do ciclo, portanto, a mudança ou integral de linha de qualquer função de estado, como entropia, ao longo deste ciclo reversível é zero.

Processo reversível

A entropia total pode ser conservada durante um processo reversível , e a mudança de entropia do sistema é bem definida como calor sobre temperatura ,. Um processo reversível é um quase - estático que não se desvia mais do que infinitesimalmente do equilíbrio termodinâmico e evita o atrito ou outra dissipação. Qualquer processo que aconteça com rapidez suficiente para se desviar do equilíbrio térmico não pode ser reversível, a entropia total aumenta e o potencial de trabalho máximo a ser realizado no processo também é perdido. Por exemplo, no ciclo de Carnot, enquanto o fluxo de calor do reservatório quente para o reservatório frio representa um aumento na entropia, a saída de trabalho, se reversível e perfeitamente armazenada em algum mecanismo de armazenamento de energia, representa uma diminuição na entropia que poderia ser usada operar a máquina térmica em sentido inverso e retornar ao estado anterior; assim, a mudança total de entropia pode ainda ser zero em todos os momentos se todo o processo for reversível. Um processo irreversível aumenta a entropia total do sistema e arredores.

Ciclo de Carnot

O conceito de entropia surgiu do estudo de Rudolf Clausius do ciclo de Carnot . Num ciclo de Carnot, calor Q H é absorvida isotermicamente a temperatura T H a partir de um reservatório 'quente' e dada acima isotermicamente como calor Q C a um reservatório 'frio' na T C . De acordo com o princípio de Carnot, o trabalho só pode ser produzido pelo sistema quando há uma diferença de temperatura, e o trabalho deve ser alguma função da diferença de temperatura e do calor absorvido ( Q H ). Carnot não fez distinção entre Q H e Q C , pois estava usando a hipótese incorreta de que a teoria calórica era válida e, portanto, o calor foi conservado (a suposição incorreta de que Q H e Q C eram iguais em magnitude) quando, na verdade, Q H é maior do que a grandeza de Q C . Através dos esforços de Clausius e Kelvin , sabe-se agora que o trabalho máximo que uma máquina de calor pode produzir é o produto da eficiência de Carnot e do calor absorvido do reservatório quente:

 

 

 

 

( 1 )

Para derivar a eficiência de Carnot, que é 1 - T C / T H (um número menor que um), Kelvin teve que avaliar a razão da produção de trabalho para o calor absorvido durante a expansão isotérmica com a ajuda da equação de Carnot-Clapeyron , que continha uma função desconhecida chamada função Carnot. A possibilidade de que a função de Carnot pudesse ser a temperatura medida a partir de um ponto zero da temperatura foi sugerida por Joule em uma carta a Kelvin. Isso permitiu a Kelvin estabelecer sua escala de temperatura absoluta. Sabe-se também que o trabalho líquido W produzido pelo sistema em um ciclo é o calor líquido absorvido, que é a soma (ou diferença das magnitudes) do calor Q H > 0 absorvido do reservatório quente e o calor Q C <0 entregue ao reservatório de frio:

 

 

 

 

( 2 )

Uma vez que o último é válido ao longo de todo o ciclo, isso deu a Clausius a dica de que em cada estágio do ciclo, trabalho e calor não seriam iguais, mas sim sua diferença seria a mudança de uma função de estado que desapareceria após a conclusão do ciclo. A função de estado foi chamada de energia interna central para a primeira lei da termodinâmica .

Agora, igualar ( 1 ) e ( 2 ) dá

Isso implica que existe uma função de estado cuja mudança é Q / T e que é conservada ao longo de um ciclo completo do ciclo de Carnot. Clausius chamou essa função de estado de entropia . Pode-se ver que a entropia foi descoberta por meio da matemática, e não por meio de resultados de laboratório. É uma construção matemática e não tem analogia física fácil. Isso torna o conceito um tanto obscuro ou abstrato, semelhante a como o conceito de energia surgiu.

Clausius então perguntou o que aconteceria se houvesse menos trabalho produzido pelo sistema do que o previsto pelo princípio de Carnot. O lado direito da primeira equação seria o limite superior da produção de trabalho pelo sistema, que agora seria convertido em uma desigualdade

Quando a segunda equação é usada para expressar o trabalho como uma rede ou total de calor trocado em um ciclo, obtemos

ou

Portanto, mais calor é dado ao reservatório de frio do que no ciclo de Carnot. Se denotarmos as mudanças de entropia por Δ S i = Q i / T i para os dois estágios do processo, então a desigualdade acima pode ser escrita como uma diminuição na entropia

ou

A magnitude da entropia que sai do sistema é maior do que a entropia que entra no sistema, implicando que algum processo irreversível impede que o ciclo produza a quantidade máxima de trabalho prevista pela equação de Carnot.

O ciclo de Carnot e a eficiência são úteis porque definem o limite superior da saída de trabalho possível e a eficiência de qualquer motor térmico termodinâmico clássico. Outros ciclos, como o ciclo Otto , o ciclo Diesel e o ciclo Brayton , podem ser analisados ​​do ponto de vista do ciclo de Carnot. Qualquer máquina ou processo cíclico que converta calor em trabalho e que produza uma eficiência maior do que a de Carnot não é viável porque viola a segunda lei da termodinâmica. Para um número muito pequeno de partículas no sistema, a termodinâmica estatística deve ser usada. A eficiência de dispositivos como as células fotovoltaicas requer uma análise do ponto de vista da mecânica quântica.

Termodinâmica clássica

A definição termodinâmica de entropia foi desenvolvida no início da década de 1850 por Rudolf Clausius e essencialmente descreve como medir a entropia de um sistema isolado em equilíbrio termodinâmico com suas partes. Clausius criou o termo entropia como uma extensa variável termodinâmica que se mostrou útil na caracterização do ciclo de Carnot . A transferência de calor ao longo das etapas isotérmicas do ciclo de Carnot foi considerada proporcional à temperatura de um sistema (conhecida como temperatura absoluta ). Essa relação foi expressa em incrementos de entropia iguais à razão de transferência de calor incremental dividida pela temperatura, que foi encontrada para variar no ciclo termodinâmico, mas acabou retornando ao mesmo valor no final de cada ciclo. Assim, descobriu-se que era uma função de estado , especificamente um estado termodinâmico do sistema.

Enquanto Clausius baseou sua definição em um processo reversível, também existem processos irreversíveis que alteram a entropia. Seguindo a segunda lei da termodinâmica , a entropia de um sistema isolado sempre aumenta para processos irreversíveis. A diferença entre um sistema isolado e um sistema fechado é que a energia pode não fluir de e para um sistema isolado, mas o fluxo de energia de e para um sistema fechado é possível. No entanto, para sistemas fechados e isolados e, de fato, também em sistemas abertos, podem ocorrer processos termodinâmicos irreversíveis.

De acordo com a igualdade Clausius , por um processo cíclico reversível: . Isso significa que a integral de linha é independente do caminho .

Portanto, podemos definir uma função de estado S chamada entropia, que satisfaz .

Para encontrar a diferença de entropia entre quaisquer dois estados de um sistema, a integral deve ser avaliada para algum caminho reversível entre os estados inicial e final. Visto que a entropia é uma função de estado, a mudança de entropia do sistema para um caminho irreversível é a mesma que para um caminho reversível entre os mesmos dois estados. No entanto, o calor transferido de ou para o ambiente e a mudança de entropia são diferentes.

Só podemos obter a mudança de entropia integrando a fórmula acima. Para obter o valor absoluto da entropia, precisamos da terceira lei da termodinâmica , que afirma que S = 0 no zero absoluto para cristais perfeitos.

De uma perspectiva macroscópica, na termodinâmica clássica a entropia é interpretada como uma função de estado de um sistema termodinâmico : ou seja, uma propriedade que depende apenas do estado atual do sistema, independente de como esse estado veio a ser alcançado. Em qualquer processo onde o sistema desiste de energia Δ E , e sua entropia cai por Δ S , uma quantidade de pelo menos T R Δ S dessa energia deve ser dada aos arredores do sistema como calor ( T R é a temperatura do sistema ambiente externo). Caso contrário, o processo não pode prosseguir. Na termodinâmica clássica, a entropia de um sistema é definida apenas se estiver em equilíbrio físico termodinâmico (mas o equilíbrio químico não é necessário: a entropia de uma mistura de dois moles de hidrogênio e um mol de oxigênio a 1 bar de pressão e 298 K é bem definido).

Mecânica estatística

A definição estatística foi desenvolvida por Ludwig Boltzmann na década de 1870, analisando o comportamento estatístico dos componentes microscópicos do sistema. Boltzmann mostrou que essa definição de entropia era equivalente à entropia termodinâmica dentro de um fator constante - conhecido como constante de Boltzmann . Em resumo, a definição termodinâmica de entropia fornece a definição experimental de entropia, enquanto a definição estatística de entropia amplia o conceito, fornecendo uma explicação e um entendimento mais profundo de sua natureza.

A interpretação da entropia na mecânica estatística é a medida da incerteza, desordem ou confusão na frase de Gibbs , que permanece sobre um sistema após suas propriedades macroscópicas observáveis, como temperatura, pressão e volume, terem sido levadas em consideração. Para um determinado conjunto de variáveis ​​macroscópicas, a entropia mede o grau em que a probabilidade do sistema está espalhada por diferentes microestados possíveis . Em contraste com o macroestado, que caracteriza as quantidades médias claramente observáveis, um microestado especifica todos os detalhes moleculares sobre o sistema, incluindo a posição e a velocidade de cada molécula. Quanto mais tais estados estiverem disponíveis para o sistema com probabilidade apreciável, maior será a entropia. Na mecânica estatística, a entropia é uma medida do número de maneiras pelas quais um sistema pode ser organizado, muitas vezes considerada uma medida de "desordem" (quanto maior a entropia, maior a desordem). Esta definição descreve a entropia como sendo proporcional ao logaritmo natural do número de configurações microscópicas possíveis dos átomos e moléculas individuais do sistema ( microestados ) que poderiam causar o estado macroscópico observado ( macroestado ) do sistema. A constante de proporcionalidade é a constante de Boltzmann .

A constante de Boltzmann e, portanto, a entropia, têm dimensões de energia divididas pela temperatura, que tem uma unidade de joules por kelvin (J⋅K −1 ) no Sistema Internacional de Unidades (ou kg⋅m 2 ⋅s −2 ⋅K −1 em termos de unidades básicas). A entropia de uma substância é geralmente dada como uma propriedade intensiva  - seja entropia por unidade de massa (unidade SI: J⋅K −1 ⋅kg −1 ) ou entropia por unidade de quantidade de substância (unidade SI: J⋅K −1 ⋅mol -1 ).

Especificamente, a entropia é uma medida logarítmica do número de estados do sistema com probabilidade significativa de estar ocupado:

( é a probabilidade de o sistema estar no estado, geralmente dada pela distribuição de Boltzmann ; se os estados são definidos de maneira contínua, a soma é substituída por uma integral sobre todos os estados possíveis) ou, de forma equivalente, o valor esperado do logaritmo da probabilidade de que um microestado esteja ocupado

onde k B é a constante de Boltzmann , igual a1,380 65 × 10 -23  J / K . A soma é sobre todos os possíveis microestados do sistema, e p i é a probabilidade de que o sistema está no i microstate -ésimo. Essa definição pressupõe que o conjunto básico de estados foi escolhido de forma que não haja informações sobre suas fases relativas. Em um conjunto de base diferente, a expressão mais geral é

onde é a matriz de densidade , é traço e é o logaritmo da matriz . Esta formulação de matriz de densidade não é necessária em casos de equilíbrio térmico, desde que os estados básicos sejam escolhidos como autoestados de energia. Para a maioria dos propósitos práticos, isso pode ser tomado como a definição fundamental de entropia, uma vez que todas as outras fórmulas para S podem ser derivadas matematicamente dela, mas não vice-versa.

No que foi chamado de pressuposto fundamental da termodinâmica estatística ou o postulado fundamental da mecânica estatística , entre os microestados do sistema da mesma energia ( microestados degenerados ) cada microestado é considerado populado com igual probabilidade; esta suposição é geralmente justificada para um sistema isolado em equilíbrio. Então, para um sistema isolado p i = 1 / Ω, onde Ω é o número de microestados cuja energia é igual à energia do sistema, e a equação anterior se reduz a

Em termodinâmica, tal sistema é aquele em que o volume, o número de moléculas e a energia interna são fixos (o conjunto microcanônico ).

Para um determinado sistema termodinâmico, o excesso de entropia é definido como a entropia menos a de um gás ideal na mesma densidade e temperatura, uma quantidade que é sempre negativa porque um gás ideal é desordenado ao máximo. Este conceito desempenha um papel importante na teoria do estado líquido. Por exemplo, o princípio de escalonamento de entropia de excesso de Rosenfeld afirma que coeficientes de transporte reduzidos em todo o diagrama de fase bidimensional são funções exclusivamente determinadas pelo excesso de entropia.

A interpretação mais geral da entropia é como uma medida de nossa incerteza sobre um sistema. O estado de equilíbrio de um sistema maximiza a entropia porque perdemos todas as informações sobre as condições iniciais, exceto para as variáveis ​​conservadas; maximizar a entropia maximiza nossa ignorância sobre os detalhes do sistema. Essa incerteza não é do tipo subjetivo cotidiano, mas sim a incerteza inerente ao método experimental e ao modelo interpretativo.

O modelo interpretativo tem um papel central na determinação da entropia. O qualificador "para um determinado conjunto de variáveis ​​macroscópicas" acima tem implicações profundas: se dois observadores usarem conjuntos diferentes de variáveis ​​macroscópicas, eles verão entropias diferentes. Por exemplo, se o observador A usa as variáveis U , V e W , e o observador B usa U , V , W , X , então, mudando X , o observador B pode causar um efeito que parece uma violação da segunda lei da termodinâmica ao observador A. Em outras palavras: o conjunto de variáveis ​​macroscópicas que alguém escolhe deve incluir tudo o que pode mudar no experimento, caso contrário, pode-se ver entropia decrescente.

A entropia pode ser definida para qualquer processo de Markov com dinâmica reversível e a propriedade de equilíbrio detalhada .

Em Boltzmann's 1896 Lectures on Gas Theory , ele mostrou que esta expressão dá uma medida de entropia para sistemas de átomos e moléculas na fase gasosa, fornecendo assim uma medida para a entropia da termodinâmica clássica.

Entropia de um sistema

Um diagrama de temperatura-entropia para vapor. O eixo vertical representa a temperatura uniforme e o eixo horizontal representa a entropia específica. Cada linha escura no gráfico representa a pressão constante e estas formam uma malha com linhas cinza claro de volume constante. (Azul escuro é água líquida, azul claro é mistura de vapor líquido e azul claro é vapor. Azul cinza representa água líquida supercrítica.)

A entropia surge diretamente do ciclo de Carnot . Também pode ser descrito como o calor reversível dividido pela temperatura. A entropia é uma função fundamental do estado.

Em um sistema termodinâmico , pressão, densidade e temperatura tendem a se tornar uniformes ao longo do tempo porque o estado de equilíbrio tem maior probabilidade (mais combinações possíveis de microestados ) do que qualquer outro estado.

Por exemplo, para um copo de água gelada no ar em temperatura ambiente , a diferença de temperatura entre uma sala quente (os arredores) e um copo frio de gelo e água (o sistema e não parte da sala), começa a se equalizar conforme porções da energia térmica dos arredores quentes se espalham para o sistema mais frio de gelo e água. Com o tempo, a temperatura do vidro e seu conteúdo e a temperatura da sala tornam-se iguais. Em outras palavras, a entropia da sala diminuiu à medida que parte de sua energia foi dispersa no gelo e na água, cuja entropia aumentou.

No entanto, conforme calculado no exemplo, a entropia do sistema de gelo e água aumentou mais do que a entropia da sala circundante diminuiu. Em um sistema isolado , como a sala e a água gelada em conjunto, a dispersão de energia do mais quente para o mais frio sempre resulta em um aumento líquido na entropia. Assim, quando o "universo" da sala e do sistema de água gelada atingiu um equilíbrio de temperatura, a mudança de entropia do estado inicial está no máximo. A entropia do sistema termodinâmico é uma medida de quão longe a equalização progrediu.

A entropia termodinâmica é uma função de estado não conservado de grande importância nas ciências da física e da química . Historicamente, o conceito de entropia evoluiu para explicar por que alguns processos (permitidos pelas leis de conservação) ocorrem espontaneamente, enquanto suas reversões de tempo (também permitidas pelas leis de conservação) não; os sistemas tendem a progredir no sentido de aumentar a entropia. Para sistemas isolados , a entropia nunca diminui. Esse fato tem várias consequências importantes na ciência: primeiro, ele proíbe as máquinas de " movimento perpétuo "; e segundo, implica que a flecha da entropia tem a mesma direção que a flecha do tempo . Aumentos na entropia total do sistema e arredores correspondem a mudanças irreversíveis, porque alguma energia é gasta como calor residual, limitando a quantidade de trabalho que um sistema pode fazer.

Ao contrário de muitas outras funções de estado, a entropia não pode ser observada diretamente, mas deve ser calculada. A entropia molar padrão absoluta de uma substância pode ser calculada a partir da dependência da temperatura medida de sua capacidade de calor . A entropia molar de íons é obtida como uma diferença na entropia de um estado de referência definido como entropia zero. A segunda lei da termodinâmica afirma que a entropia de um sistema isolado deve aumentar ou permanecer constante. Portanto, entropia não é uma quantidade conservada: por exemplo, em um sistema isolado com temperatura não uniforme, o calor pode fluir irreversivelmente e a temperatura se tornar mais uniforme, de modo que a entropia aumenta. As reações químicas causam mudanças na entropia e a entropia do sistema, em conjunto com a entalpia , desempenha um papel importante na determinação da direção em que uma reação química ocorre espontaneamente.

Uma definição de entropia no dicionário é que ela é "uma medida de energia térmica por unidade de temperatura que não está disponível para trabalho útil" em um processo cíclico. Por exemplo, uma substância em temperatura uniforme está em entropia máxima e não pode acionar uma máquina térmica. Uma substância em temperatura não uniforme está em uma entropia mais baixa (do que se a distribuição de calor fosse permitida) e parte da energia térmica pode acionar uma máquina de calor.

Um caso especial de aumento de entropia, a entropia da mistura , ocorre quando duas ou mais substâncias diferentes são misturadas. Se as substâncias estão na mesma temperatura e pressão, não há troca líquida de calor ou trabalho - a mudança de entropia é inteiramente devida à mistura das diferentes substâncias. Em um nível estatístico mecânico, isso ocorre devido à mudança no volume disponível por partícula com a mistura.

Equivalência de definições

Provas de equivalência entre a definição de entropia na mecânica estatística (a fórmula de entropia de Gibbs ) e na termodinâmica clássica ( junto com a relação termodinâmica fundamental ) são conhecidas para o conjunto microcanônico , o conjunto canônico , o grande conjunto canônico e o isotérmico-isobárico conjunto . Essas provas são baseadas na densidade de probabilidade de microestados da distribuição de Boltzmann generalizada e na identificação da energia interna termodinâmica como a média do conjunto . Relações termodinâmicas são então empregadas para derivar a conhecida fórmula de entropia de Gibbs . No entanto, a equivalência entre a fórmula de entropia de Gibbs e a definição termodinâmica de entropia não é uma relação termodinâmica fundamental, mas sim uma consequência da forma da distribuição de Boltzmann generalizada .

Segunda lei da termodinâmica

A segunda lei da termodinâmica exige que, em geral, a entropia total de qualquer sistema não diminua a não ser pelo aumento da entropia de algum outro sistema. Portanto, em um sistema isolado de seu ambiente, a entropia desse sistema tende a não diminuir. Segue-se que o calor não pode fluir de um corpo mais frio para um corpo mais quente sem a aplicação de trabalho no corpo mais frio. Em segundo lugar, é impossível para qualquer dispositivo operando em um ciclo produzir rede a partir de um único reservatório de temperatura; a produção de rede requer fluxo de calor de um reservatório mais quente para um reservatório mais frio, ou um único reservatório em expansão passando por resfriamento adiabático , que realiza trabalho adiabático . Como resultado, não há possibilidade de uma máquina de movimento perpétuo . Conclui-se que uma redução no aumento da entropia em um processo específico, como uma reação química , significa que ele é energeticamente mais eficiente.

Segue da segunda lei da termodinâmica que a entropia de um sistema que não está isolado pode diminuir. Um ar condicionado , por exemplo, pode resfriar o ar de uma sala, reduzindo assim a entropia do ar desse sistema. O calor expelido da sala (o sistema), que o ar condicionado transporta e descarrega para o ar exterior, contribui sempre mais para a entropia do ambiente do que a diminuição da entropia do ar desse sistema. Assim, o total de entropia da sala mais a entropia do ambiente aumenta, de acordo com a segunda lei da termodinâmica.

Na mecânica, a segunda lei, em conjunto com a relação termodinâmica fundamental, impõe limites à capacidade de um sistema de realizar trabalhos úteis . A mudança de entropia de um sistema em temperatura absorvendo uma quantidade infinitesimal de calor de forma reversível, é dada por . Mais explicitamente, uma energia não está disponível para fazer trabalho útil, onde é a temperatura do reservatório acessível mais frio ou dissipador de calor externo ao sistema. Para uma discussão mais aprofundada, consulte Exergy .

A mecânica estatística demonstra que a entropia é governada pela probabilidade, permitindo assim uma diminuição da desordem mesmo em um sistema isolado. Embora seja possível, tal evento tem uma pequena probabilidade de ocorrer, o que o torna improvável.

A aplicabilidade de uma segunda lei da termodinâmica é limitada a sistemas próximos ou em estado de equilíbrio . Ao mesmo tempo, as leis que governam sistemas longe do equilíbrio ainda são discutíveis. Um dos princípios orientadores para tais sistemas é o princípio de produção de entropia máxima. Ele afirma que os sistemas de não equilíbrio evoluem de forma a maximizar sua produção de entropia.

Formulários

A relação termodinâmica fundamental

A entropia de um sistema depende de sua energia interna e de seus parâmetros externos, como seu volume. No limite termodinâmico, esse fato leva a uma equação relacionando a mudança na energia interna com mudanças na entropia e nos parâmetros externos. Essa relação é conhecida como relação termodinâmica fundamental . Se a pressão externa incide sobre o volume como o único parâmetro externo, esta relação é:

Uma vez que a energia interna e a entropia são funções monotônicas da temperatura , o que implica que a energia interna é fixa quando se especifica a entropia e o volume, esta relação é válida mesmo se a mudança de um estado de equilíbrio térmico para outro com entropia e volume infinitesimalmente maiores acontece de uma forma não quasistática (portanto, durante essa mudança, o sistema pode estar muito fora do equilíbrio térmico e a entropia, pressão e temperatura do sistema inteiro podem não existir).

A relação termodinâmica fundamental implica muitas identidades termodinâmicas que são válidas em geral, independentemente dos detalhes microscópicos do sistema. Exemplos importantes são as relações de Maxwell e as relações entre as capacidades térmicas .

Entropia em termodinâmica química

A entropia termodinâmica é central na termodinâmica química , permitindo que as mudanças sejam quantificadas e o resultado das reações previsto. A segunda lei da termodinâmica afirma que a entropia em um sistema isolado - a combinação de um subsistema em estudo e seus arredores - aumenta durante todos os processos químicos e físicos espontâneos. A equação de Clausius de introduz a medição da mudança de entropia ,. A mudança de entropia descreve a direção e quantifica a magnitude de mudanças simples, como a transferência de calor entre sistemas - sempre de mais quente para mais frio espontaneamente.

A entropia termodinâmica, portanto, tem a dimensão da energia dividida pela temperatura, e a unidade joule por kelvin (J / K) no Sistema Internacional de Unidades (SI).

A entropia termodinâmica é uma propriedade extensa , o que significa que é dimensionada com o tamanho ou extensão de um sistema. Em muitos processos é útil especificar a entropia como uma propriedade intensiva independente do tamanho, como uma entropia característica específica do tipo de sistema estudado. A entropia específica pode ser expressa em relação a uma unidade de massa, tipicamente o quilograma (unidade: J⋅kg −1 ⋅K −1 ). Alternativamente, em química, também é referido a um mol de substância, caso em que é chamado de entropia molar com uma unidade de J⋅mol −1 ⋅K −1 .

Assim, quando um mole de substância em cerca de 0 K é aquecido por seus arredores para298 K , a soma dos valores incrementais de constituem a entropia molar padrão de cada elemento ou composto, um indicador da quantidade de energia armazenada por uma substância em298 K . A mudança de entropia também mede a mistura de substâncias como um somatório de suas quantidades relativas na mistura final.

A entropia é igualmente essencial para prever a extensão e a direção de reações químicas complexas. Para tais aplicações, deve ser incorporado em uma expressão que inclua tanto o sistema quanto seu entorno ,. Essa expressão se torna, por meio de alguns passos, a equação de energia livre de Gibbs para reagentes e produtos no sistema: [a mudança de energia livre de Gibbs do sistema] [a mudança de entalpia] [a mudança de entropia].

Capacidade tecnológica mundial para armazenar e comunicar informações entrópicas

Um estudo de 2011 na Science (periódico) estimou a capacidade tecnológica mundial para armazenar e comunicar informações compactadas de forma otimizada, normalizadas nos algoritmos de compactação mais eficazes disponíveis no ano de 2007, estimando, portanto, a entropia das fontes tecnologicamente disponíveis. A estimativa do autor de que a capacidade tecnológica da humanidade de armazenar informações cresceu de 2,6 (entropicamente compactados) exabytes em 1986 para 295 (entropicamente compactados) exabytes em 2007. A capacidade tecnológica mundial de receber informações por meio de redes de transmissão unilateral era de 432 exabytes (entropicamente informações compactadas em 1986, para 1,9 zetabytes em 2007. A capacidade mundial efetiva de trocar informações por meio de redes de telecomunicações bidirecionais era de 281 petabytes de informações (compactadas entropicamente) em 1986, para 65 exabytes (compactados entropicamente) em 2007.

Equação de equilíbrio de entropia para sistemas abertos

Durante a operação contínua em estado estacionário , um equilíbrio de entropia aplicado a um sistema aberto é responsável pelas mudanças de entropia do sistema relacionadas ao fluxo de calor e fluxo de massa através da fronteira do sistema.

Na engenharia química , os princípios da termodinâmica são comumente aplicados a " sistemas abertos ", ou seja, aqueles nos quais calor, trabalho e fluxo de massa através da fronteira do sistema. Fluxos de calor ( ) e trabalho, isto é ( trabalho do eixo ) e (trabalho pressão-volume), através dos limites do sistema, em geral causam mudanças na entropia do sistema. A transferência como calor envolve a transferência de entropia , onde é a temperatura termodinâmica absoluta do sistema no ponto do fluxo de calor. Se houver fluxos de massa através dos limites do sistema, eles também influenciam a entropia total do sistema. Esta conta, em termos de calor e trabalho, é válida apenas para os casos em que o trabalho e as transferências de calor são por caminhos fisicamente distintos dos caminhos de entrada e saída da matéria do sistema.

Para derivar uma equação balanceada de entropia generalizada, começamos com a equação de equilíbrio geral para a mudança em qualquer quantidade extensa em um sistema termodinâmico , uma quantidade que pode ser conservada, como energia, ou não conservada, como entropia. A expressão de equilíbrio genérica básica afirma que , ou seja, a taxa de mudança no sistema, é igual à taxa na qual entra no sistema nas fronteiras, menos a taxa na qual sai do sistema através das fronteiras do sistema, mais a taxa na qual é gerada dentro do sistema. Para um sistema termodinâmico aberto no qual calor e trabalho são transferidos por caminhos separados dos caminhos para transferência de matéria, usando esta equação de equilíbrio genérica, com relação à taxa de variação com o tempo da entropia de quantidade extensa , a equação de equilíbrio de entropia é:

Onde

é a taxa líquida de fluxo de entropia devido aos fluxos de massa para dentro e para fora do sistema (onde é entropia por unidade de massa).
é a taxa de fluxo de entropia devido ao fluxo de calor através da fronteira do sistema.
é a taxa de produção de entropia dentro do sistema. Esta produção de entropia surge de processos dentro do sistema, incluindo reações químicas, difusão de matéria interna, transferência de calor interna e efeitos de fricção, como viscosidade que ocorre dentro do sistema a partir da transferência de trabalho mecânico para ou do sistema.

Se houver vários fluxos de calor, o termo é substituído por onde está o fluxo de calor e é a temperatura na porta de fluxo de calor no sistema.

Observe que a nomenclatura "equilíbrio de entropia" é enganosa e muitas vezes considerada inadequada porque a entropia não é uma quantidade conservada. Em outras palavras, o termo nunca é uma quantidade conhecida, mas sempre uma derivada com base na expressão acima. Portanto, a versão de sistema aberto da segunda lei é mais apropriadamente descrita como a "equação de geração de entropia", uma vez que especifica isso , com zero para processos reversíveis ou maior que zero para os irreversíveis.

Fórmulas de mudança de entropia para processos simples

Para certas transformações simples em sistemas de composição constante, as mudanças de entropia são dadas por fórmulas simples.

Expansão isotérmica ou compressão de um gás ideal

Para a expansão (ou compressão) de um gás ideal de um volume inicial e pressão para um volume final e pressão em qualquer temperatura constante, a mudança na entropia é dada por:

Aqui está a quantidade de gás (em moles ) e é a constante de gás ideal . Essas equações também se aplicam à expansão para um vácuo finito ou um processo de estrangulamento , onde a temperatura, a energia interna e a entalpia para um gás ideal permanecem constantes.

Resfriamento e aquecimento

Para aquecimento ou resfriamento puro de qualquer sistema (gás, líquido ou sólido) a pressão constante de uma temperatura inicial a uma temperatura final , a mudança de entropia é

desde que a capacidade de calor molar de pressão constante (ou calor específico) C P seja constante e que nenhuma transição de fase ocorra neste intervalo de temperatura.

Da mesma forma, em volume constante, a mudança de entropia é

onde a capacidade de calor molar de volume constante C v é constante e não há mudança de fase.

Em baixas temperaturas próximas do zero absoluto, as capacidades de calor dos sólidos caem rapidamente para perto de zero , portanto, a suposição de capacidade de calor constante não se aplica.

Como a entropia é uma função de estado , a mudança de entropia de qualquer processo no qual a temperatura e o volume variam é a mesma que para um caminho dividido em duas etapas - aquecimento em volume constante e expansão em temperatura constante. Para um gás ideal, a mudança total de entropia é

Da mesma forma, se a temperatura e a pressão de um gás ideal variam,

Transições de fase

As transições de fase reversíveis ocorrem a temperatura e pressão constantes. O calor reversível é a mudança de entalpia para a transição, e a mudança de entropia é a mudança de entalpia dividida pela temperatura termodinâmica. Para a fusão ( fusão ) de um sólido a um líquido no ponto de fusão T m , a entropia de fusão é

Da mesma forma, para a vaporização de um líquido em um gás no ponto de ebulição T b , a entropia de vaporização é

Abordagens para entender a entropia

Como um aspecto fundamental da termodinâmica e da física, várias abordagens diferentes para a entropia além da de Clausius e Boltzmann são válidas.

Definições padrão de livros didáticos

A seguir está uma lista de definições adicionais de entropia de uma coleção de livros didáticos:

  • uma medida de dispersão de energia em uma temperatura específica.
  • uma medida de desordem no universo ou da disponibilidade de energia em um sistema para trabalhar.
  • uma medida da energia térmica de um sistema por unidade de temperatura que não está disponível para fazer um trabalho útil .

Na definição de Boltzmann, entropia é uma medida do número de possíveis estados microscópicos (ou microestados) de um sistema em equilíbrio termodinâmico. Consistente com a definição de Boltzmann, a segunda lei da termodinâmica precisa ser reformulada como tal que a entropia aumenta com o tempo, embora o princípio subjacente permaneça o mesmo.

Ordem e desordem

A entropia costuma estar vagamente associada à quantidade de ordem ou desordem , ou ao caos , em um sistema termodinâmico . A descrição qualitativa tradicional de entropia é que ela se refere a mudanças no status quo do sistema e é uma medida de "desordem molecular" e a quantidade de energia desperdiçada em uma transformação de energia dinâmica de um estado ou forma para outro. Nessa direção, vários autores recentes derivaram fórmulas de entropia exatas para explicar e medir a desordem e a ordem em conjuntos atômicos e moleculares. Uma das fórmulas de ordem / desordem de entropia mais simples é aquela derivada em 1984 pelo físico termodinâmico Peter Landsberg, com base em uma combinação de argumentos da termodinâmica e da teoria da informação . Ele argumenta que quando as restrições operam em um sistema, de modo que ele é impedido de entrar em um ou mais de seus estados possíveis ou permitidos, em contraste com seus estados proibidos, a medida da quantidade total de "desordem" no sistema é dada por :

Da mesma forma, o valor total do "pedido" no sistema é dado por:

Em que C D é a capacidade de "desordem" do sistema, que é a entropia das partes contidas no conjunto permitido, C I é a capacidade de "informação" do sistema, expressão semelhante à capacidade de canal de Shannon , e C O é a capacidade de "ordem" do sistema.

Dispersão de energia

O conceito de entropia pode ser descrito qualitativamente como uma medida de dispersão de energia em uma temperatura específica. Termos semelhantes têm sido usados ​​desde o início da história da termodinâmica clássica , e com o desenvolvimento da termodinâmica estatística e da teoria quântica , as mudanças de entropia foram descritas em termos da mistura ou "espalhamento" da energia total de cada constituinte de um sistema sobre seus níveis específicos de energia quantizada.

Ambiguidades nos termos desordem e caos , que geralmente têm significados diretamente opostos ao equilíbrio, contribuem para a confusão generalizada e dificultam a compreensão da entropia para a maioria dos alunos. Como mostra a segunda lei da termodinâmica , em um sistema isolado, porções internas em diferentes temperaturas tendem a se ajustar a uma única temperatura uniforme e, assim, produzir equilíbrio. Uma abordagem educacional desenvolvida recentemente evita termos ambíguos e descreve esse espalhamento de energia como dispersão, o que leva à perda dos diferenciais necessários para o trabalho, embora a energia total permaneça constante de acordo com a primeira lei da termodinâmica (compare a discussão na próxima seção) . O físico-químico Peter Atkins , em seu livro Physical Chemistry , introduz a entropia com a afirmação de que "mudanças espontâneas são sempre acompanhadas por uma dispersão de energia".

Relacionando entropia com utilidade energética

Seguindo o que foi dito acima, é possível (em um contexto térmico) considerar a baixa entropia como um indicador ou medida da eficácia ou utilidade de uma determinada quantidade de energia. Isso ocorre porque a energia fornecida em uma temperatura mais alta (isto é, com baixa entropia) tende a ser mais útil do que a mesma quantidade de energia disponível em uma temperatura mais baixa. A mistura de uma parcela quente de um fluido com uma fria produz uma parcela de temperatura intermediária, na qual o aumento geral da entropia representa uma "perda" que nunca pode ser substituída.

Assim, o fato de que a entropia do universo está aumentando constantemente, significa que sua energia total está se tornando menos útil: eventualmente, isso leva à " morte térmica do universo ".

Entropia e acessibilidade adiabática

Uma definição de entropia baseada inteiramente na relação de acessibilidade adiabática entre estados de equilíbrio foi dada por EHLieb e J. Yngvason em 1999. Esta abordagem tem vários predecessores, incluindo o trabalho pioneiro de Constantin Carathéodory de 1909 e a monografia de R. Giles. No cenário de Lieb e Yngvason, começa-se por escolher, para uma quantidade unitária da substância em consideração, dois estados de referência e de modo que o último seja adiabaticamente acessível a partir do primeiro, mas não vice-versa. Definindo as entropias dos estados de referência como 0 e 1, respectivamente, a entropia de um estado é definida como o maior número tal que é adiabaticamente acessível a partir de um estado composto que consiste em uma quantidade no estado e uma quantidade complementar , no estado . Um resultado simples, mas importante, dentro desse cenário é que a entropia é determinada de forma única, além de uma escolha de unidade e uma constante aditiva para cada elemento químico, pelas seguintes propriedades: É monotônica com respeito à relação de acessibilidade adiabática, aditiva sobre compósito sistemas e extenso em escala.

Entropia na mecânica quântica

Na mecânica estatística quântica , o conceito de entropia foi desenvolvido por John von Neumann e é geralmente referido como " entropia de von Neumann ",

onde ρ é a matriz de densidade e Tr é o operador de rastreamento .

Isso mantém o princípio da correspondência , porque no limite clássico , quando as fases entre os estados de base usados ​​para as probabilidades clássicas são puramente aleatórias, esta expressão é equivalente à definição clássica familiar de entropia,

ou seja, nessa base, a matriz de densidade é diagonal.

Von Neumann estabeleceu uma estrutura matemática rigorosa para a mecânica quântica com seu trabalho Mathematische Grundlagen der Quantenmechanik . Ele forneceu neste trabalho uma teoria da medição, onde a noção usual de colapso da função de onda é descrita como um processo irreversível (a chamada von Neumann ou medição projetiva). Usando este conceito, em conjunto com a matriz de densidade, ele estendeu o conceito clássico de entropia para o domínio quântico.

Teoria da informação

Pensei em chamar de "informação", mas a palavra era muito usada, então decidi chamá-la de "incerteza". [...] Von Neumann me disse: "Você deveria chamá-lo de entropia, por duas razões. Em primeiro lugar, sua função de incerteza foi usada na mecânica estatística com esse nome, então ela já tem um nome. Em segundo lugar, e mais importante, ninguém sabe o que realmente é entropia, então em um debate você sempre terá a vantagem. "

Conversa entre Claude Shannon e John von Neumann sobre qual nome dar à atenuação nos sinais da linha telefônica

Quando vista em termos da teoria da informação , a função de estado de entropia é a quantidade de informações no sistema que é necessária para especificar totalmente o microestado do sistema. Entropia é a medida da quantidade de informações perdidas antes da recepção. Freqüentemente chamada de entropia de Shannon , foi originalmente concebida por Claude Shannon em 1948 para estudar o tamanho da informação de uma mensagem transmitida. A definição de entropia de informação é expressa em termos de um conjunto discreto de probabilidades de modo que

No caso de mensagens transmitidas, essas probabilidades eram as probabilidades de que uma determinada mensagem fosse realmente transmitida, e a entropia do sistema de mensagens era uma medida do tamanho médio da informação de uma mensagem. Para o caso de probabilidades iguais (ou seja, cada mensagem é igualmente provável), a entropia de Shannon (em bits) é apenas o número de questões binárias necessárias para determinar o conteúdo da mensagem.

A maioria dos pesquisadores considera a entropia da informação e a entropia termodinâmica diretamente ligadas ao mesmo conceito, enquanto outros argumentam que são distintas. Ambas as expressões são matematicamente semelhantes. Se for o número de microestados que podem gerar um dado macroestado, e cada microestado tiver a mesma probabilidade a priori , então essa probabilidade é . A entropia de Shannon (in nats ) é:

e se a entropia é medida em unidades de per nat, então a entropia é dada por:

que é a fórmula da entropia de Boltzmann , onde é a constante de Boltzmann, que pode ser interpretada como a entropia termodinâmica per nat. Alguns autores defendem o abandono da palavra entropia para a função da teoria da informação e, em vez disso, o uso de outro termo de Shannon, "incerteza".

Medição

A entropia de uma substância pode ser medida, embora de forma indireta. A medição, conhecida como entropimetria, é feita em sistema fechado (com número de partículas N e volume V constantes) e usa a definição de temperatura em termos de entropia, enquanto limita a troca de energia para calor ( ).

A relação resultante descreve como a entropia muda quando uma pequena quantidade de energia é introduzida no sistema em uma determinada temperatura  .

O processo de medição é o seguinte. Primeiro, uma amostra da substância é resfriada o mais próximo possível do zero absoluto. Nessas temperaturas, a entropia se aproxima de zero - devido à definição de temperatura. Em seguida, pequenas quantidades de calor são introduzidas na amostra e a mudança na temperatura é registrada, até que a temperatura atinja o valor desejado (geralmente 25 ° C). Os dados obtidos permitem ao usuário integrar a equação acima, obtendo o valor absoluto da entropia da substância na temperatura final. Este valor de entropia é denominado entropia calorimétrica.

Aplicações interdisciplinares

Embora o conceito de entropia fosse originalmente um conceito termodinâmico, ele foi adaptado em outros campos de estudo, incluindo teoria da informação , psicodinâmica , termoeconomia / economia ecológica e evolução . Por exemplo, um argumento entrópico foi proposto para explicar a preferência das aranhas das cavernas na escolha de uma área adequada para a postura de seus ovos. Com essa expansão dos campos / sistemas aos quais se aplica a segunda lei da termodinâmica, o significado da palavra entropia também se expandiu e é baseado na energia motriz desse sistema. O conceito divide os sistemas em três categorias, naturais, híbridos e feitos pelo homem, com base na quantidade de controle que os humanos têm em desacelerar a marcha implacável da entropia e na escala de tempo de cada categoria para atingir a entropia máxima.

Lista de disciplinas de entropia em termodinâmica e mecânica estatística

  • Unidade de entropia - uma unidade não SI de entropia termodinâmica, geralmente denotada como "eu" e igual a uma caloria por kelvin por mole, ou 4,184 joules por kelvin por mole.
  • Entropia de Gibbs - a entropia mecânica estatística usual de um sistema termodinâmico.
  • Entropia de Boltzmann - um tipo de entropia de Gibbs, que negligencia as correlações estatísticas internas na distribuição geral das partículas.
  • Entropia de Tsallis - uma generalização da entropia de Boltzmann-Gibbs padrão.
  • Entropia molar padrão - é o conteúdo de entropia de um mol de substância, sob condições de temperatura e pressão padrão.
  • Entropia residual - a entropia presente depois que uma substância é resfriada arbitrariamente perto do zero absoluto .
  • Entropia de mistura - a mudança na entropia quando duas substâncias ou componentes químicos diferentes são misturados.
  • Entropia de loop - é a entropia perdida ao reunir dois resíduos de um polímero dentro de uma distância prescrita.
  • Entropia conformacional - é a entropia associada ao arranjo físico de uma cadeia polimérica que assume um estado compacto ou globular em solução.
  • Força entrópica - uma força microscópica ou tendência de reação relacionada a mudanças na organização do sistema, considerações de atrito molecular e variações estatísticas.
  • Entropia livre - um potencial termodinâmico entrópico análogo à energia livre.
  • Explosão entrópica - uma explosão na qual os reagentes sofrem uma grande mudança de volume sem liberar uma grande quantidade de calor.
  • Mudança de entropia - uma mudança na entropia dS entre dois estados de equilíbrio é dada pelo calor transferido dQ rev dividido pela temperatura absoluta T do sistema neste intervalo.
  • Entropia de Sackur-Tetrode - a entropia de um gás ideal monoatômico clássico determinada por meio de considerações quânticas.

Seta do tempo

A entropia é a única quantidade nas ciências físicas que parece implicar uma direção particular de progresso, às vezes chamada de flecha do tempo . À medida que o tempo passa, a segunda lei da termodinâmica afirma que a entropia de um sistema isolado nunca diminui em grandes sistemas durante períodos de tempo significativos. Portanto, a partir dessa perspectiva, a medição da entropia é pensada como um relógio nessas condições.

Entropia de sequências de DNA

A entropia tem se mostrado útil na análise de sequências de DNA. Muitas medidas baseadas em entropia foram mostradas para distinguir entre diferentes regiões estruturais do genoma, diferenciar entre regiões codificantes e não codificantes do DNA e também podem ser aplicadas para a recriação de árvores evolutivas, determinando a distância evolutiva entre diferentes espécies.

Cosmologia

Assumindo que um universo finito é um sistema isolado, a segunda lei da termodinâmica afirma que sua entropia total está aumentando continuamente. Especula-se, desde o século 19, que o universo está fadado a uma morte por calor em que toda a energia acaba como uma distribuição homogênea de energia térmica de forma que nenhum trabalho mais possa ser extraído de qualquer fonte.

Se o universo pode ser considerado como tendo entropia geralmente crescente, então - como Roger Penrose apontou - a gravidade desempenha um papel importante no aumento porque a gravidade faz com que a matéria dispersa se acumule em estrelas, que eventualmente colapsam em buracos negros . A entropia de um buraco negro é proporcional à área de superfície do horizonte de eventos do buraco negro . Jacob Bekenstein e Stephen Hawking mostraram que os buracos negros têm a entropia máxima possível de qualquer objeto de tamanho igual. Isso os torna prováveis ​​pontos finais de todos os processos de aumento de entropia, se forem armadilhas de matéria e energia totalmente eficazes. No entanto, a fuga de energia dos buracos negros pode ser possível devido à atividade quântica (ver radiação Hawking ).

O papel da entropia na cosmologia permanece um assunto controverso desde a época de Ludwig Boltzmann . Trabalhos recentes lançaram algumas dúvidas sobre a hipótese da morte por calor e a aplicabilidade de qualquer modelo termodinâmico simples ao universo em geral. Embora a entropia aumente no modelo de um universo em expansão, a entropia máxima possível aumenta muito mais rapidamente, movendo o universo para mais longe da morte de calor com o tempo, não para perto. Isso resulta em uma "lacuna de entropia" empurrando o sistema ainda mais para longe do equilíbrio postulado de morte por calor. Outros fatores complicadores, como a densidade de energia do vácuo e os efeitos quânticos macroscópicos , são difíceis de conciliar com os modelos termodinâmicos, tornando qualquer previsão da termodinâmica em grande escala extremamente difícil.

As teorias atuais sugerem que a lacuna de entropia foi originalmente aberta pela rápida expansão exponencial do universo.

Economia

O economista romeno americano Nicholas Georgescu-Roegen , um progenitor da economia e um fundador do paradigma da economia ecológica , fez uso extensivo do conceito de entropia em sua magnum opus sobre A Lei da Entropia e o Processo Econômico . Devido ao trabalho de Georgescu-Roegen, as leis da termodinâmica agora fazem parte integrante da escola de economia ecológica . Embora seu trabalho tenha sido um tanto manchado por erros , um capítulo completo sobre a economia de Georgescu-Roegen foi aprovado em um livro de física elementar sobre o desenvolvimento histórico da termodinâmica.

Em economia, o trabalho de Georgescu-Roegen gerou o termo "pessimismo de entropia" . Desde a década de 1990, o importante economista ecológico e teórico do estado estacionário Herman Daly - um aluno de Georgescu-Roegen - tem sido o defensor mais influente da posição de pessimismo da entropia na profissão de economista.

Hermenêutica

Na Hermenêutica , Arianna Béatrice Fabbricatore utilizou o termo entropia, apoiando-se nas obras de Umberto Eco, para identificar e avaliar a perda de sentido entre a descrição verbal da dança e o coreotexto (a seda móvel envolvida pela dançarina na encenação da escrita coreográfica ) gerado por operações de tradução intersemiótica.

Este uso está ligado às noções de logotexto e coreotexto. Na transição do logotexto para o coreotexto é possível identificar duas tipologias de entropia: a primeira, denominada "natural", está relacionada à singularidade do ato performativo e ao seu caráter efêmero. A segunda é causada por "vazios" mais ou menos importantes no logotexto ( ou seja, o texto verbal que reflete a ação dançada).

Veja também

Notas

Referências

Leitura adicional

links externos