Introdução à entropia - Introduction to entropy

Em termodinâmica , a entropia é uma quantidade numérica que mostra que muitos processos físicos podem ir em apenas uma direção no tempo. Por exemplo, você pode colocar creme no café e misturá-lo, mas não pode "descompactá-lo"; você pode queimar um pedaço de madeira, mas não pode "desfazê-lo". A palavra 'entropia' entrou no uso popular para se referir a uma falta de ordem ou previsibilidade, ou a um declínio gradual na desordem. Uma interpretação mais física da entropia termodinâmica se refere à propagação de energia ou matéria, ou à extensão e diversidade do movimento microscópico.

Se você reverter um filme de café sendo misturado ou madeira sendo queimada, verá coisas que são impossíveis no mundo real. Outra forma de dizer que esses processos inversos são impossíveis é dizer que misturar café e queimar lenha são "irreversíveis". A irreversibilidade é descrita por uma importante lei da natureza conhecida como segunda lei da termodinâmica , que diz que em um sistema isolado (um sistema não conectado a nenhum outro sistema) que está passando por mudanças, a entropia aumenta com o tempo.

A entropia não aumenta indefinidamente. Um corpo de matéria e radiação eventualmente atingirá um estado imutável, sem fluxos detectáveis, e então é dito que está em um estado de equilíbrio termodinâmico . A entropia termodinâmica tem um valor definido para tal corpo e está em seu valor máximo. Quando corpos de matéria ou radiação, inicialmente em seus próprios estados de equilíbrio termodinâmico interno, são reunidos de modo a interagir intimamente e atingir um novo equilíbrio conjunto, então sua entropia total aumenta. Por exemplo, um copo de água quente com um cubo de gelo terá uma entropia mais baixa do que o mesmo sistema algum tempo depois, quando o gelo derreter, deixando um copo de água fria. Esses processos são irreversíveis: um cubo de gelo em um copo de água morna não se formará espontaneamente em um copo de água fria. Alguns processos na natureza são quase reversíveis. Por exemplo, a órbita dos planetas ao redor do sol pode ser considerada praticamente reversível: um filme dos planetas orbitando o sol que é executado ao contrário não parece impossível.

Embora a segunda lei, e a termodinâmica em geral, sejam precisas em suas previsões de interações íntimas de sistemas físicos complexos se comportam, os cientistas não se contentam em simplesmente saber como um sistema se comporta, mas querem saber também POR QUE ele se comporta dessa maneira. A questão de por que a entropia aumenta até que o equilíbrio seja alcançado foi respondida com muito sucesso em 1877 por um famoso cientista chamado Ludwig Boltzmann . A teoria desenvolvida por Boltzmann e outros, é conhecida como mecânica estatística . A mecânica estatística é uma teoria física que explica a termodinâmica em termos do comportamento estatístico dos átomos e moléculas que constituem o sistema. A teoria não apenas explica a termodinâmica, mas também uma série de outros fenômenos que estão fora do escopo da termodinâmica.

Explicação

Entropia termodinâmica

O conceito de entropia termodinâmica surge da segunda lei da termodinâmica . Essa lei de aumento de entropia quantifica a redução na capacidade de um sistema termodinâmico composto isolado de fazer trabalho termodinâmico em seu entorno, ou indica se um processo termodinâmico pode ocorrer. Por exemplo, sempre que existe um caminho adequado, o calor flui espontaneamente de um corpo mais quente para um mais frio.

A entropia termodinâmica é medida apenas como uma mudança na entropia ( ) para um sistema contendo um subsistema que sofre transferência de calor para seu entorno (dentro do sistema de interesse). Baseia-se na relação macroscópica entre o fluxo de calor para o subsistema e a temperatura na qual ocorre somada ao limite desse subsistema.

Seguindo o formalismo de Clausius , o cálculo básico pode ser matematicamente declarado como:

onde está o aumento ou diminuição da entropia, é o calor adicionado ao sistema ou subtraído dele e é a temperatura. O sinal de 'igual' e o símbolo indicam que a transferência de calor deve ser tão pequena e lenta que dificilmente muda a temperatura .

Se a temperatura puder variar, a equação deve ser integrada ao longo do caminho da temperatura. Este cálculo da variação da entropia não permite a determinação do valor absoluto, apenas diferenças. Neste contexto, a Segunda Lei da Termodinâmica pode ser afirmada que para o calor transferido sobre qualquer processo válido para qualquer sistema, isolado ou não,

De acordo com a primeira lei da termodinâmica , que trata da conservação de energia , a perda de calor resultará em uma diminuição da energia interna do sistema termodinâmico . A entropia termodinâmica fornece uma medida comparativa da quantidade de diminuição na energia interna e o aumento correspondente na energia interna do ambiente a uma dada temperatura. Em muitos casos, uma visualização da segunda lei é que a energia de todos os tipos muda de ser localizada para se tornar dispersa ou espalhada, se não for impedida de fazê-lo. Quando aplicável, o aumento da entropia é a medida quantitativa desse tipo de processo espontâneo: quanta energia foi efetivamente perdida ou se tornou indisponível, por se dispersar ou espalhar, avaliada em uma temperatura específica. Para esta avaliação, quando a temperatura é mais alta, a quantidade de energia dispersa é avaliada como 'custando' proporcionalmente menos. Isso ocorre porque um corpo mais quente geralmente é mais capaz de fazer trabalho termodinâmico, outros fatores, como energia interna, sendo iguais. É por isso que uma máquina a vapor tem uma fornalha quente.

A segunda lei da termodinâmica lida apenas com mudanças de entropia ( ). A entropia absoluta (S) de um sistema pode ser determinada usando a terceira lei da termodinâmica , que especifica que a entropia de todas as substâncias perfeitamente cristalinas é zero no zero absoluto da temperatura. A entropia em outra temperatura é então igual ao aumento na entropia no aquecimento reversível do sistema do zero absoluto para a temperatura de interesse.

Mecânica estatística e entropia de informação

A entropia termodinâmica tem uma relação estreita com o conceito de entropia de informação ( H ). A entropia da informação é uma medida da "propagação" de uma densidade de probabilidade ou função de massa de probabilidade. A termodinâmica não faz suposições sobre a natureza atomística da matéria, mas quando a matéria é vista desta forma, como uma coleção de partículas em movimento constante e trocando energia entre si, e que pode ser descrita de maneira probabilística, a teoria da informação pode ser aplicada com sucesso para explicar os resultados da termodinâmica. A teoria resultante é conhecida como mecânica estatística .

Um conceito importante em mecânica estatística é a ideia do microestado e do macroestado de um sistema. Se temos um recipiente de gás, por exemplo, e sabemos a posição e a velocidade de cada molécula nesse sistema, então conhecemos o microestado desse sistema. Se conhecermos apenas a descrição termodinâmica desse sistema, a pressão, o volume, a temperatura e / ou a entropia, saberemos o macroestado desse sistema. O que Boltzmann percebeu foi que existem muitos microestados diferentes que podem produzir o mesmo macroestado e, como as partículas estão colidindo umas com as outras e mudando suas velocidades e posições, o microestado do gás está sempre mudando. Mas se o gás está em equilíbrio, parece não haver mudança em seu comportamento macroscópico: nenhuma mudança na pressão, temperatura, etc. A mecânica estatística relaciona a entropia termodinâmica de um macroestado ao número de microestados que poderiam produzir esse macroestado. Na mecânica estatística, a entropia do sistema é dada pela famosa equação de Ludwig Boltzmann:

onde S é a entropia termodinâmica, W é o número de microestados que podem gerar o macroestado e é a constante de Boltzmann . O logaritmo natural do número de microestados ( ) é conhecido como entropia da informação do sistema. Isso pode ser ilustrado por um exemplo simples:

Se você lançar duas moedas, poderá obter quatro resultados diferentes. Se H é cara e T é coroa, podemos ter ( H , H ), ( H , T ), ( T , H ) e ( T , T ). Podemos chamar cada um deles de "microestado", para o qual sabemos exatamente os resultados do processo. Mas e se tivermos menos informações? Suponha que saibamos apenas o número total de cabeças ?. Pode ser 0, 1 ou 2. Podemos chamá-los de "macroestados". Somente o microestado ( T , T ) dará o macroestado zero, ( H , T ) e ( T , H ) dará o macroestado 1, e somente ( H , H ) dará o macroestado 2. Portanto, podemos dizer que a entropia de informação dos macroestados 0 e 2 são ln (1) que é zero, mas a entropia de informação do macroestado 1 é ln (2) que é cerca de 0,69. De todos os microestados, o macroestado 1 é responsável por metade deles.

Acontece que, se você virar um grande número de moedas, os macroestados na metade ou próximo a meia cara e meia coroa respondem por quase todos os microestados. Em outras palavras, para um milhão de moedas, você pode ter quase certeza de que cerca de metade será cara e metade coroa. O macroestado em torno de uma proporção de 50–50 de cara a coroa será o macroestado de "equilíbrio". Um sistema físico real em equilíbrio tem um grande número de microestados possíveis e quase todos eles são o macroestado de equilíbrio, e esse é o macroestado que você quase certamente verá se esperar o tempo suficiente. No exemplo da moeda, se você começar com um macroestado muito improvável (como todas as caras, por exemplo, com entropia zero) e começar a jogar uma moeda de cada vez, a entropia do macroestado começará a aumentar, assim como a entropia termodinâmica, e depois de um tempo, as moedas provavelmente estarão em ou perto desse macroestado 50-50, que tem a maior entropia de informação - a entropia de equilíbrio.

O macroestado de um sistema é o que sabemos sobre o sistema, por exemplo, a temperatura , pressão e volume de um gás em uma caixa. Para cada conjunto de valores de temperatura, pressão e volume, existem muitos arranjos de moléculas que resultam nesses valores. O número de arranjos de moléculas que podem resultar nos mesmos valores de temperatura, pressão e volume é o número de microestados.

O conceito de entropia de informação foi desenvolvido para descrever qualquer um dos vários fenômenos, dependendo do campo e do contexto em que está sendo usado. Quando é aplicado ao problema de um grande número de partículas interagindo, junto com algumas outras restrições, como a conservação de energia e a suposição de que todos os microestados são igualmente prováveis, a teoria resultante da mecânica estatística é extremamente bem-sucedida em explicar as leis da termodinâmica .

O derretimento do gelo fornece um exemplo de aumento da entropia

Exemplo de aumento de entropia

O derretimento do gelo fornece um exemplo em que a entropia aumenta em um sistema pequeno, um sistema termodinâmico que consiste nos arredores (a sala quente) e a entidade de recipiente de vidro, gelo e água que foi permitido atingir o equilíbrio termodinâmico na temperatura de derretimento do gelo . Neste sistema, algum calor ( δQ ) do ambiente mais quente a 298 K (25 ° C; 77 ° F) é transferido para o sistema mais frio de gelo e água em sua temperatura constante ( T ) de 273 K (0 ° C; 32 ° F), a temperatura de derretimento do gelo. A entropia do sistema, que é δ Q / T , aumenta em δ Q / 273 K . O calor δ Q para este processo é a energia necessária para mudar a água do estado sólido para o estado líquido e é chamado de entalpia de fusão , ou seja, Δ H para a fusão do gelo.

É importante perceber que a entropia da sala circundante diminui menos do que a entropia do gelo e a água aumenta: a temperatura ambiente de 298 K é maior do que 273 K e, portanto, a razão, (mudança de entropia), de δ Q / 298 K pois o ambiente é menor do que a razão (mudança de entropia), de δ Q / 273 K para o sistema de gelo e água. Isso sempre é verdade em eventos espontâneos em um sistema termodinâmico e mostra a importância preditiva da entropia: a entropia líquida final após tal evento é sempre maior do que a entropia inicial.

À medida que a temperatura da água fria sobe para a da sala e a sala esfria ainda mais imperceptivelmente, a soma do δ Q / T na faixa contínua, “em muitos incrementos”, da água inicialmente fria até a água finalmente quente pode ser encontrada por cálculo. Todo o 'universo' em miniatura, ou seja, este sistema termodinâmico, aumentou em entropia. A energia espontaneamente se tornou mais dispersa e espalhada naquele "universo" do que quando o copo de gelo e água foi introduzido e se tornou um "sistema" dentro dele.

Origens e usos

Originalmente, a entropia foi nomeada para descrever o "calor residual", ou mais precisamente, a perda de energia dos motores térmicos e outros dispositivos mecânicos que nunca poderiam funcionar com 100% de eficiência na conversão de energia em trabalho. Posteriormente, o termo passou a adquirir várias descrições adicionais, à medida que mais se entendia sobre o comportamento das moléculas no nível microscópico. No final do século 19, a palavra "desordem" foi usada por Ludwig Boltzmann no desenvolvimento de visões estatísticas da entropia usando a teoria da probabilidade para descrever o aumento do movimento molecular no nível microscópico. Isso foi antes de o comportamento quântico ser melhor compreendido por Werner Heisenberg e seus seguidores. As descrições da entropia termodinâmica (calor) no nível microscópico são encontradas na termodinâmica estatística e na mecânica estatística .

Durante a maior parte do século 20, os livros didáticos tendiam a descrever a entropia como "desordem", seguindo a conceituação inicial de Boltzmann da energia "motora" (isto é, cinética) das moléculas. Mais recentemente, tem havido uma tendência nos livros de química e física de descrever a entropia como dispersão de energia . A entropia também pode envolver a dispersão de partículas, que são elas mesmas energéticas. Portanto, há casos em que as partículas e a energia se dispersam em taxas diferentes quando as substâncias são misturadas.

A matemática desenvolvida em termodinâmica estatística foi considerada aplicável em outras disciplinas. Em particular, as ciências da informação desenvolveram o conceito de entropia da informação , que carece da constante de Boltzmann inerente à entropia termodinâmica.

Cálculo clássico de entropia

Quando a palavra 'entropia' foi definida e usada pela primeira vez em 1865, a própria existência de átomos ainda era controversa, embora se especulasse que a temperatura era devido ao movimento de constituintes microscópicos e que "calor" era a transferência desse movimento de um lugar para outro. A alteração da entropia,, foi descrita em termos macroscópicos que podem ser medidos diretamente, como volume, temperatura ou pressão. No entanto, hoje a equação clássica da entropia, pode ser explicada, parte por parte, em termos modernos, descrevendo como as moléculas são responsáveis ​​pelo que está acontecendo:

  • é a mudança na entropia de um sistema (alguma substância física de interesse) depois que alguma energia de movimento (“calor”) foi transferida para ele por moléculas em movimento rápido. Então ,.
  • Então, o quociente da energia motora ("calor") q que é transferida "reversivelmente" (rev) para o sistema do entorno (ou de outro sistema em contato com o primeiro sistema) dividido por T, a temperatura absoluta em em que ocorre a transferência.
    • “Reversível” ou “reversível” (rev) significa simplesmente que T, a temperatura do sistema, tem que permanecer (quase) exatamente a mesma enquanto qualquer energia está sendo transferida de ou para ele. Isso é fácil no caso de mudanças de fase, onde o sistema deve absolutamente permanecer na forma sólida ou líquida até que energia suficiente seja dada a ele para quebrar as ligações entre as moléculas antes que possa mudar para um líquido ou um gás. Por exemplo, no derretimento do gelo a 273,15 K, não importa a temperatura do ambiente - de 273,20 K a 500 K ou até mais, a temperatura do gelo permanecerá em 273,15 K até que as últimas moléculas do gelo sejam alteradas para água líquida, isto é, até que todas as ligações de hidrogênio entre as moléculas de água no gelo sejam quebradas e novas ligações de hidrogênio, menos exatamente fixas, entre as moléculas de água líquida sejam formadas. Esta quantidade de energia necessária para o derretimento do gelo por mol foi encontrada em 6008 joules a 273 K. Portanto, a mudança de entropia por mol é , ou 22 J / K.
    • Quando a temperatura não está no ponto de fusão ou ebulição de uma substância, nenhuma quebra de ligação intermolecular é possível e, portanto, qualquer energia molecular de movimento ("calor") dos arredores transferida para um sistema aumenta sua temperatura, fazendo com que suas moléculas se movam mais rápido e mais rápido. Como a temperatura está constantemente aumentando, não há mais um valor particular de “T” no qual a energia é transferida. No entanto, uma transferência de energia "reversível" pode ser medida em um aumento muito pequeno de temperatura, e um total cumulativo pode ser encontrado adicionando cada um dos muitos pequenos intervalos ou incrementos de temperatura. Por exemplo, para encontrar a mudança de entropia de 300 K para 310 K, meça a quantidade de energia transferida em dezenas ou centenas de incrementos de temperatura, digamos de 300,00 K a 300,01 K e então 300,01 a 300,02 e assim por diante, dividindo o q por cada T e, finalmente, adicionando todos eles.
    • O cálculo pode ser usado para tornar este cálculo mais fácil se o efeito da entrada de energia no sistema for linearmente dependente da mudança de temperatura, como no simples aquecimento de um sistema em temperaturas moderadas a relativamente altas. Assim, a energia sendo transferida “por mudança incremental na temperatura” (a capacidade de calor, ), multiplicada pela integral de de a , é dada diretamente por .

Explicações alternativas de entropia

Entropia Termodinâmica

  • Uma medida de energia indisponível para o trabalho : Esta é uma frase frequentemente repetida que, embora seja verdadeira, requer um esclarecimento considerável para ser compreendida. Não é verdade, exceto para processos reversíveis cíclicos e, nesse sentido, é enganoso. Por "trabalho" entende-se mover um objeto, por exemplo, levantar um peso, aumentar a velocidade de um volante ou carregar uma carga colina acima. Para converter calor em trabalho, usando uma máquina a vapor a carvão, por exemplo, é necessário ter dois sistemas em temperaturas diferentes, e a quantidade de trabalho que você pode extrair depende de quão grande é a diferença de temperatura e de quão grandes são os sistemas estão. Se um dos sistemas estiver à temperatura ambiente, e o outro sistema for muito maior, e perto da temperatura zero absoluta, então quase TODA a energia do sistema de temperatura ambiente pode ser convertida para funcionar. Se ambos estiverem na mesma temperatura ambiente, NENHUMA da energia do sistema de temperatura ambiente pode ser convertida para funcionar. A entropia é então uma medida de quanta energia não pode ser convertida para o trabalho, dadas essas condições. Mais precisamente, para um sistema isolado que compreende dois sistemas fechados a temperaturas diferentes, no processo de atingir o equilíbrio a quantidade de entropia perdida pelo sistema quente, multiplicada pela temperatura do sistema quente, é a quantidade de energia que não pode ser convertida em trabalho .
  • Um indicador de irreversibilidade : ajustando-se intimamente à interpretação de 'indisponibilidade de energia' está a interpretação de 'irreversibilidade'. Os processos termodinâmicos espontâneos são irreversíveis, no sentido de que não se desfazem espontaneamente. Os processos termodinâmicos impostos artificialmente por agentes nos arredores de um corpo também têm efeitos irreversíveis no corpo. Por exemplo, quando James Prescott Joule usou um dispositivo que distribuía uma quantidade medida de trabalho mecânico das redondezas por meio de uma pá que agitava um corpo d'água, a energia transferida era recebida pela água na forma de calor. Houve escassa expansão da água fazendo trabalho termodinâmico nas redondezas. A massa de água não mostrou nenhum sinal de retornar a energia mexendo o remo ao contrário. A transferência de trabalho apareceu como calor e não era recuperável sem um reservatório frio adequado nas redondezas. A entropia fornece um relato preciso dessa irreversibilidade.
  • Dispersão : Edward A. Guggenheim propôs uma interpretação de linguagem comum da entropia que pode ser traduzida como 'dispersão de modos de movimento microscópico ao longo de sua gama acessível'. Mais tarde, junto com uma crítica à ideia de entropia como "desordem", a interpretação da dispersão foi defendida por Frank L. Lambert e é usada em alguns livros didáticos de estudantes.
A interpretação se refere apropriadamente à dispersão em espaços abstratos de microestado, mas pode ser visualizada vagamente em alguns exemplos simples de propagação espacial de matéria ou energia. Se uma partição é removida entre dois gases diferentes, as moléculas de cada gás se dispersam espontaneamente tão amplamente quanto possível em seus respectivos volumes recém-acessíveis; isso pode ser considerado uma mistura. Se uma partição, que bloqueia a transferência de calor entre dois corpos de diferentes temperaturas, é removida para que o calor possa passar entre os corpos, então a energia se dispersa espontaneamente ou se espalha como calor do mais quente para o mais frio.
Além dessas visualizações soltas, em um processo termodinâmico geral, considerado microscopicamente, a dispersão espontânea ocorre no espaço de fase microscópico abstrato . De acordo com as leis de Newton e outras leis do movimento, o espaço de fase fornece um esquema sistemático para a descrição da diversidade do movimento microscópico que ocorre nos corpos da matéria e da radiação. A segunda lei da termodinâmica pode ser considerada quantitativamente responsável pelas interações íntimas, dispersão ou mistura de tais movimentos microscópicos. Em outras palavras, a entropia pode ser considerada como medindo a extensão da diversidade de movimentos de constituintes microscópicos de corpos de matéria e radiação em seus próprios estados de equilíbrio termodinâmico interno.


Entropia de informação e mecânica estatística

  • Como medida de desordem : Tradicionalmente, os livros didáticos do século 20 introduziram a entropia como ordem e desordem, de modo que ela fornece "uma medida da desordem ou aleatoriedade de um sistema". Tem sido argumentado que ambigüidades e interpretações arbitrárias dos termos usados ​​(como "desordem" e "caos") contribuem para a confusão generalizada e podem impedir a compreensão da entropia para a maioria dos alunos. Por outro lado, em uma interpretação conveniente embora arbitrária, "desordem" pode ser claramente definida como a entropia de Shannon da distribuição de probabilidade de microestados dado um macroestado particular, caso em que a conexão de "desordem" com a entropia termodinâmica é direta, mas arbitrário e não imediatamente óbvio para alguém não familiarizado com a teoria da informação.
  • Informações ausentes : A ideia de que a entropia da informação é uma medida de quanto não se sabe sobre um sistema é bastante útil. Infelizmente, no entanto, dá uma visão menos intuitiva do conceito físico de entropia termodinâmica do que outras abordagens para entender a entropia.
Se, em vez de usar o logaritmo natural para definir a entropia da informação, usarmos o logaritmo de base 2, então a entropia da informação é igual ao número médio de (cuidadosamente escolhidas) perguntas sim-não que teríamos que fazer para ficar completo informações sobre o sistema com o qual estamos lidando. No exemplo introdutório de duas moedas viradas, a entropia de informação para o macroestado que contém uma cabeça e uma cauda, ​​precisaríamos apenas de uma pergunta para determinar seu estado exato, (por exemplo, a primeira é cara? ") E em vez de expressar o entropia como ln (2) podemos dizer, equivalentemente, que é Log 2 (2), que é igual ao número de perguntas que precisaríamos fazer: Um. Ao medir a entropia usando o logaritmo natural (ln), a unidade de entropia da informação é chamado de "nat", mas quando é medido usando o logaritmo de base 2, a unidade de entropia da informação é chamada de "bit". Esta é apenas uma diferença em unidades, muito parecida com a diferença entre polegadas e centímetros.
Os conceitos de "desordem" e "disseminação" podem ser analisados ​​com esse conceito de entropia de informação em mente. Por exemplo, se tirarmos um novo baralho de cartas da caixa, ele é organizado em "ordem perfeita" (espadas, copas, ouros, paus, cada naipe começando com o ás e terminando com o rei), podemos dizer que temos então um baralho "ordenado" com uma entropia de informação igual a zero. Se embaralharmos completamente o baralho, a entropia de informações será de cerca de 225,6 bits: precisaremos fazer cerca de 225,6 perguntas, em média, para determinar a ordem exata do baralho embaralhado. Também podemos dizer que o baralho embaralhado ficou completamente "desordenado" ou que as cartas ordenadas foram "espalhadas" por todo o baralho. Mas a entropia de informação não diz que o baralho precisa ser ordenado de alguma maneira particular. Se pegarmos nosso baralho embaralhado e anotar os nomes das cartas, em ordem, a entropia da informação torna-se zero. Se embaralharmos novamente o baralho, a entropia da informação será novamente de cerca de 225,6 bits, mesmo que por algum milagre ela seja reorganizada na mesma ordem de quando saiu da caixa, porque mesmo que saísse, não saberíamos disso. Portanto, o conceito de "desordem" é útil se, por ordem, queremos dizer conhecimento máximo e por desordem queremos dizer falta de conhecimento máximo. O conceito de "espalhar" é útil porque dá uma ideia do que acontece com as cartas quando são embaralhadas. A probabilidade de uma carta estar em um determinado lugar em um baralho ordenado é 0 ou 1, em um baralho embaralhado é 1/52. A probabilidade "espalhou-se" por todo o baralho. Analogamente, em um sistema físico, a entropia é geralmente associada a um "espalhamento" de massa ou energia.
A ligação entre a entropia termodinâmica e a entropia da informação é dada pela equação de Boltzmann, que diz que S = k B ln W . Se tomarmos o logaritmo de base 2 de W , ele produzirá o número médio de perguntas que devemos fazer sobre o microestado do sistema físico para determinar seu macroestado.

Veja também

Referências

Leitura adicional