Função de partição (matemática) - Partition function (mathematics)

A função de partição ou integral de configuração , conforme usada na teoria da probabilidade , teoria da informação e sistemas dinâmicos , é uma generalização da definição de uma função de partição na mecânica estatística . É um caso especial de uma constante de normalização na teoria da probabilidade, para a distribuição de Boltzmann . A função de partição ocorre em muitos problemas da teoria das probabilidades porque, em situações onde existe uma simetria natural, sua medida de probabilidade associada , a medida de Gibbs , possui a propriedade Markov . Isso significa que a função de partição ocorre não apenas em sistemas físicos com simetria de tradução, mas também em configurações tão variadas como redes neurais (a rede Hopfield ) e aplicações como genômica , linguística de corpus e inteligência artificial , que empregam redes de Markov e Markov redes lógicas . A medida de Gibbs também é a única medida que tem a propriedade de maximizar a entropia para um valor fixo de expectativa da energia; isto está subjacente ao aparecimento da função de partição em métodos de entropia máxima e os algoritmos derivados deles.

A função de partição reúne muitos conceitos diferentes e, portanto, oferece uma estrutura geral na qual muitos tipos diferentes de quantidades podem ser calculados. Em particular, mostra como calcular os valores esperados e as funções de Green , formando uma ponte para a teoria de Fredholm . Ele também fornece um cenário natural para a abordagem da geometria da informação para a teoria da informação, onde a métrica de informação de Fisher pode ser entendida como uma função de correlação derivada da função de partição; acontece de definir uma variedade Riemanniana .

Quando a configuração das variáveis ​​aleatórias está no espaço projetivo complexo ou no espaço de Hilbert projetivo , geometrizado com a métrica Fubini-Study , a teoria da mecânica quântica e, mais geralmente, a teoria quântica de campos resulta. Nessas teorias, a função de partição é amplamente explorada na formulação da integral de caminho , com grande sucesso, levando a muitas fórmulas quase idênticas àquelas revisadas aqui. No entanto, como o espaço de medida subjacente é de valor complexo, ao contrário do simplex de valor real da teoria da probabilidade, um fator extra de i aparece em muitas fórmulas. Rastrear esse fator é problemático e não é feito aqui. Este artigo enfoca principalmente a teoria de probabilidade clássica, onde a soma das probabilidades totaliza um.

Definição

Dado um conjunto de variáveis ​​aleatórias assumindo valores , e algum tipo de função potencial ou Hamiltoniana , a função de partição é definida como

A função H é entendida como uma função de valor real no espaço de estados , enquanto é um parâmetro livre de valor real (convencionalmente, a temperatura inversa ). A soma de é entendida como a soma de todos os valores possíveis que cada uma das variáveis ​​aleatórias pode assumir. Assim, a soma deve ser substituída por uma integral quando são contínuas, ao invés de discretas. Assim, alguém escreve

para o caso de variação contínua .

Quando H é um observável , como uma matriz de dimensão finita ou um operador de espaço de Hilbert de dimensão infinita ou elemento de uma álgebra de estrela C , é comum expressar a soma como um traço , de modo que

Quando H é infinito dimensional, então, para a notação acima ser válida, o argumento deve ser uma classe de rastreamento , isto é, de uma forma tal que a soma exista e seja limitada.

O número de variáveis não precisa ser contável , caso em que as somas devem ser substituídas por integrais funcionais . Embora existam muitas notações para integrais funcionais, uma comum seria

Esse é o caso da função de partição na teoria quântica de campos .

Uma modificação comum e útil para a função de partição é a introdução de funções auxiliares. Isso permite, por exemplo, que a função de partição seja usada como uma função geradora para funções de correlação . Isso é discutido em mais detalhes abaixo.

O parâmetro β

O papel ou significado do parâmetro pode ser entendido de várias maneiras diferentes. Na termodinâmica clássica, é uma temperatura inversa . De maneira mais geral, poderíamos dizer que é a variável que é conjugada a alguma função (arbitrária) das variáveis ​​aleatórias . A palavra conjugado aqui é usada no sentido de coordenadas generalizadas conjugadas na mecânica de Lagrange , portanto, propriamente é um multiplicador de Lagrange . Não é incomum que seja chamada de força generalizada . Todos esses conceitos têm em comum a ideia de que um valor deve ser mantido fixo, enquanto outros, interligados de alguma forma complicada, podem variar. No caso atual, o valor a ser mantido fixo é o valor esperado de , mesmo que muitas distribuições de probabilidade diferentes possam dar origem a exatamente esse mesmo valor (fixo).

Para o caso geral, considera-se um conjunto de funções em que cada uma depende das variáveis ​​aleatórias . Essas funções são escolhidas porque se deseja manter seus valores de expectativa constantes, por um motivo ou outro. Para restringir os valores esperados desta forma, aplica-se o método dos multiplicadores de Lagrange . No caso geral, os métodos de entropia máxima ilustram a maneira como isso é feito.

Alguns exemplos específicos são necessários. Em problemas básicos de termodinâmica, ao usar o conjunto canônico , o uso de apenas um parâmetro reflete o fato de que há apenas um valor de expectativa que deve ser mantido constante: a energia livre (devido à conservação de energia ). Para problemas de química envolvendo reações químicas, o grande conjunto canônico fornece a base apropriada e existem dois multiplicadores de Lagrange. Uma é manter a energia constante, e a outra, a fugacidade , é manter a contagem de partículas constante (já que as reações químicas envolvem a recombinação de um número fixo de átomos).

Para o caso geral, um tem

com um ponto em um espaço.

Para uma coleção de observáveis , escrever-se-ia

Como antes, presume-se que o argumento de tr é uma classe de rastreamento .

A medida de Gibbs correspondente então fornece uma distribuição de probabilidade de modo que o valor esperado de cada um seja um valor fixo. Mais precisamente, um tem

com os colchetes angulares denotando o valor esperado de , e sendo uma notação alternativa comum. Uma definição precisa desse valor esperado é fornecida a seguir.

Embora o valor de seja comumente considerado real, não precisa ser, em geral; isso é discutido na seção Normalização abaixo. Os valores de podem ser entendidos como as coordenadas de pontos em um espaço; este espaço é de fato um múltiplo , como esboçado abaixo. O estudo desses espaços como variedades constitui o campo da geometria da informação .

Simetria

A função potencial em si geralmente assume a forma de uma soma:

onde a soma sobre s é uma soma sobre algum subconjunto do conjunto de potência P ( X ) do conjunto . Por exemplo, em mecânica estatística , como o modelo de Ising , a soma é sobre pares de vizinhos mais próximos. Na teoria da probabilidade, como nas redes de Markov , a soma pode ser sobre os cliques de um grafo; então, para o modelo de Ising e outros modelos de rede , os cliques máximos são arestas.

O fato de que a função potencial pode ser escrita como uma soma geralmente reflete o fato de que ela é invariante sob a ação de uma simetria de grupo , como a invariância translacional . Essas simetrias podem ser discretas ou contínuas; eles se materializam nas funções de correlação para as variáveis ​​aleatórias (discutidas abaixo). Assim, uma simetria no hamiltoniano torna-se uma simetria da função de correlação (e vice-versa).

Essa simetria tem uma interpretação criticamente importante na teoria da probabilidade: ela implica que a medida de Gibbs tem a propriedade de Markov ; ou seja, é independente das variáveis ​​aleatórias de uma certa maneira, ou, equivalentemente, a medida é idêntica nas classes de equivalência da simetria. Isso leva ao aparecimento generalizado da função de partição em problemas com a propriedade Markov, como redes Hopfield .

Como medida

O valor da expressão

pode ser interpretado como uma probabilidade de que uma configuração específica de valores ocorra no sistema. Assim, dada uma configuração específica ,

é a probabilidade de a configuração ocorrer no sistema, que agora está devidamente normalizada de modo que , e de forma que a soma de todas as configurações totalize um. Como tal, a função de partição pode ser entendida para fornecer uma medida (uma medida de probabilidade ) no espaço de probabilidade ; formalmente, é chamada de medida de Gibbs . Ele generaliza os conceitos mais restritos do grande conjunto canônico e do conjunto canônico na mecânica estatística.

Existe pelo menos uma configuração para a qual a probabilidade é maximizada; esta configuração é convencionalmente chamada de estado fundamental . Se a configuração for única, o estado fundamental é considerado não degenerado e o sistema é ergódico ; caso contrário, o estado fundamental é degenerado . O estado fundamental pode ou não comutar com os geradores da simetria; se comuta, é considerada uma medida invariável . Quando não comuta, diz-se que a simetria é quebrada espontaneamente .

As condições sob as quais um estado fundamental existe e é único são fornecidas pelas condições de Karush – Kuhn – Tucker ; essas condições são comumente usadas para justificar o uso da medida de Gibbs em problemas de entropia máxima.

Normalização

Os valores obtidos por dependem do espaço matemático no qual o campo aleatório varia. Assim, os campos aleatórios de valor real assumem valores em um simplex : esta é a maneira geométrica de dizer que a soma das probabilidades deve totalizar um. Para a mecânica quântica, as variáveis ​​aleatórias variam no espaço projetivo complexo (ou espaço de Hilbert projetivo de valor complexo ), onde as variáveis ​​aleatórias são interpretadas como amplitudes de probabilidade . A ênfase aqui está na palavra projetiva , já que as amplitudes ainda são normalizadas para um. A normalização para a função potencial é a Jacobiana para o espaço matemático apropriado: é 1 para probabilidades ordinárias ei para o espaço de Hilbert; assim, na teoria quântica de campos , vê-se no exponencial, ao invés de . A função de partição é muito explorada na formulação integral de caminho da teoria quântica de campos, com grande efeito. A teoria ali é quase idêntica à apresentada aqui, exceto por esta diferença e pelo fato de que geralmente é formulada no espaço-tempo quadridimensional, ao invés de uma maneira geral.

Valores de expectativa

A função de partição é comumente usada como uma função geradora de probabilidade para valores esperados de várias funções das variáveis ​​aleatórias. Então, por exemplo, tomando como um parâmetro ajustável, então a derivada de em relação a

dá a (valor esperado) média de H . Em física, isso seria chamado de energia média do sistema.

Dada a definição da medida de probabilidade acima, o valor esperado de qualquer função f das variáveis ​​aleatórias X pode agora ser escrito como esperado: então, para X de valor discreto , escreve-se

A notação acima é estritamente correta para um número finito de variáveis ​​aleatórias discretas, mas deve ser vista como algo 'informal' para variáveis ​​contínuas; apropriadamente, as somas acima devem ser substituídas pelas notações da álgebra sigma subjacente usada para definir um espaço de probabilidade . Dito isso, as identidades continuam a se manter, quando devidamente formuladas em um espaço de medida .

Assim, por exemplo, a entropia é dada por

A medida de Gibbs é a distribuição estatística única que maximiza a entropia para um valor de expectativa fixo da energia; isso fundamenta seu uso em métodos de entropia máxima .

Geometria da informação

Os pontos podem ser entendidos como formando um espaço e, especificamente, um múltiplo . Assim, é razoável perguntar sobre a estrutura desse manifold; esta é a tarefa da geometria da informação .

Derivadas múltiplas em relação aos multiplicadores de Lagrange dão origem a uma matriz de covariância semi-definida positiva

Esta matriz é semi-definida positiva, e pode ser interpretada como um tensor métrico , especificamente, uma métrica Riemanniana . Equipar o espaço dos multiplicadores de lagrange com uma métrica, dessa forma, o transforma em uma variedade Riemanniana . O estudo de tais variedades é conhecido como geometria da informação ; a métrica acima é a métrica de informações de Fisher . Aqui, serve como uma coordenada no manifold. É interessante comparar a definição acima com as informações mais simples de Fisher , da qual foi inspirada.

Que o acima define a métrica de informação Fisher pode ser facilmente visto substituindo explicitamente o valor esperado:

onde temos escrito para e o somatório entende-se sobre todos os valores de todas as variáveis aleatórias . Para variáveis ​​aleatórias de valor contínuo, as somas são substituídas por integrais, é claro.

Curiosamente, a métrica de informação de Fisher também pode ser entendida como a métrica euclidiana de espaço plano , após mudança adequada de variáveis, conforme descrito no artigo principal sobre ela. Quando têm valores complexos, a métrica resultante é a métrica Fubini-Study . Quando escrito em termos de estados mistos , em vez de estados puros , é conhecido como a métrica de Bures .

Funções de correlação

Ao introduzir funções auxiliares artificiais na função de partição, ela pode então ser usada para obter o valor esperado das variáveis ​​aleatórias. Assim, por exemplo, escrevendo

um então tem

como o valor esperado de . Na formulação integral do caminho da teoria quântica de campos , essas funções auxiliares são comumente chamadas de campos de origem .

Múltiplas diferenciações levam às funções de correlação conectadas das variáveis ​​aleatórias. Assim, a função de correlação entre as variáveis e é dada por:

Integrais de Gauss

Para o caso em que H pode ser escrito como uma forma quadrática envolvendo um operador diferencial , isto é, como

então a função de partição pode ser entendida como uma soma ou integral sobre gaussianas. A função de correlação pode ser entendida como a função de Green para o operador diferencial (e geralmente dando origem à teoria de Fredholm ). No cenário da teoria quântica de campos, tais funções são chamadas de propagadores ; correlacionadores de ordem superior são chamados de funções de n pontos; trabalhar com eles define a ação efetiva de uma teoria.

Quando as variáveis aleatórias são anti-pendulares números Grassmann , em seguida, a função de partição pode ser expresso como um determinante do operador D . Isso é feito escrevendo-o como uma integral de Berezin (também chamada de integral de Grassmann).

Propriedades gerais

As funções de partição são usadas para discutir dimensionamento crítico , universalidade e estão sujeitas ao grupo de renormalização .

Veja também

Referências