Negentropia - Negentropy

Em teoria da informação e estatística , negentropia é usada como uma medida de distância da normalidade. O conceito e a frase " entropia negativa " foram introduzidos por Erwin Schrödinger em seu livro de ciência popular de 1944 O que é a vida? Mais tarde, Léon Brillouin encurtou a frase para negentropia . Em 1974, Albert Szent-Györgyi propôs a substituição do termo neguentropia com sintropia . Esse termo pode ter se originado na década de 1940 com o matemático italiano Luigi Fantappiè , que tentou construir uma teoria unificada da biologia e da física . Buckminster Fuller tentou popularizar esse uso, mas a negentropia continua comum.

Em uma nota para O que é vida? Schrödinger explicou seu uso dessa frase.

... se eu estivesse atendendo apenas a eles [físicos], deveria ter deixado a discussão girar em torno da energia livre . É a noção mais familiar neste contexto. Mas esse termo altamente técnico parecia linguisticamente muito próximo da energia para tornar o leitor médio ciente do contraste entre as duas coisas.

Teoria da informação

Em teoria da informação e estatística , negentropia é usada como uma medida de distância da normalidade. De todas as distribuições com uma dada média e variância, a distribuição normal ou gaussiana é aquela com a entropia mais alta. Negentropia mede a diferença na entropia entre uma dada distribuição e a distribuição Gaussiana com a mesma média e variância. Assim, neguentropia é sempre não negativa, é invariante por qualquer mudança linear invertível de coordenadas e desaparece se e somente se o sinal for gaussiano.

Negentropia é definida como

onde é a entropia diferencial da densidade gaussiana com a mesma média e variância que e é a entropia diferencial de :

Negentropy é usado em estatísticas e processamento de sinais . Está relacionado à entropia da rede , que é usada na análise de componentes independentes .

A neguentropia de uma distribuição é igual à divergência de Kullback-Leibler entre e uma distribuição Gaussiana com a mesma média e variância que (ver entropia diferencial § Maximização na distribuição normal para uma prova). Em particular, é sempre não negativo.

Correlação entre negentropia estatística e energia livre de Gibbs

Gráfico da energia disponível ( energia livre ) de Willard Gibbs de 1873 , que mostra um plano perpendicular ao eixo de v ( volume ) e passando pelo ponto A, que representa o estado inicial do corpo. MN é a seção da superfície de energia dissipada . Qε e Qη são seções dos planos η = 0 e ε = 0 e, portanto, paralelas aos eixos de ε ( energia interna ) e η ( entropia ) respectivamente. AD e AE são a energia e entropia do corpo em seu estado inicial, AB e AC sua energia disponível ( energia de Gibbs ) e sua capacidade de entropia (a quantidade pela qual a entropia do corpo pode ser aumentada sem alterar a energia do corpo ou aumentando seu volume), respectivamente.

Existe uma quantidade física intimamente ligada à energia livre ( entalpia livre ), com uma unidade de entropia e isomorfa à negentropia conhecida em estatística e teoria da informação. Em 1873, Willard Gibbs criou um diagrama ilustrando o conceito de energia livre correspondente à entalpia livre . No diagrama pode-se ver a quantidade chamada capacidade de entropia . Esta quantidade é a quantidade de entropia que pode ser aumentada sem alterar uma energia interna ou aumentar seu volume. Em outras palavras, é uma diferença entre o máximo possível, sob condições assumidas, entropia e sua entropia real. Corresponde exatamente à definição de neguentropia adotada na estatística e na teoria da informação. Uma quantidade física semelhante foi introduzida em 1869 por Massieu para o processo isotérmico (ambas as quantidades diferem apenas com um sinal de figura) e então Planck para o processo isotérmico - isobárico . Mais recentemente, o potencial termodinâmico de Massieu-Planck , também conhecido como entropia livre , tem demonstrado desempenhar um grande papel na chamada formulação entrópica da mecânica estatística , aplicada entre outras em biologia molecular e processos termodinâmicos de desequilíbrio.

Onde:
é entropia
é negentropia (Gibbs "capacidade de entropia")
é o potencial de Massieu
é a função de partição
a constante de Boltzmann

Em particular, matematicamente a negentropia (a função de entropia negativa, em física interpretada como entropia livre) é o conjugado convexo de LogSumExp (em física interpretado como a energia livre).

Princípio de negentropia da informação de Brillouin

Em 1953, Léon Brillouin derivou uma equação geral afirmando que a mudança de um valor de bit de informação requer pelo menos energia. Esta é a mesma energia que o trabalho do motor de Leó Szilárd produz no caso idealista. Em seu livro, ele explorou ainda mais esse problema, concluindo que qualquer causa dessa mudança de valor de bit (medição, decisão sobre uma pergunta sim / não, apagamento, exibição, etc.) exigirá a mesma quantidade de energia.

Veja também

Notas