Matriz aleatória - Random matrix

Na teoria da probabilidade e na física matemática , uma matriz aleatória é uma variável aleatória avaliada por matriz - isto é, uma matriz na qual alguns ou todos os elementos são variáveis ​​aleatórias. Muitas propriedades importantes de sistemas físicos podem ser representadas matematicamente como problemas de matriz. Por exemplo, a condutividade térmica de uma rede pode ser calculada a partir da matriz dinâmica das interações partícula-partícula dentro da rede.

Formulários

Física

Na física nuclear , matrizes aleatórias foram introduzidas por Eugene Wigner para modelar os núcleos de átomos pesados. Ele postulou que os espaçamentos entre as linhas no espectro de um núcleo de átomo pesado deveriam ser semelhantes aos espaçamentos entre os valores próprios de uma matriz aleatória e deveriam depender apenas da classe de simetria da evolução subjacente. Na física do estado sólido , as matrizes aleatórias modelam o comportamento de grandes hamiltonianos desordenados na aproximação do campo médio .

No caos quântico , a conjectura de Bohigas – Giannoni – Schmit (BGS) afirma que as estatísticas espectrais de sistemas quânticos cujas contrapartes clássicas exibem comportamento caótico são descritas pela teoria da matriz aleatória.

Na óptica quântica , as transformações descritas por matrizes unitárias aleatórias são cruciais para demonstrar a vantagem do quantum sobre a computação clássica (ver, por exemplo, o modelo de amostragem de bóson ). Além disso, tais transformações unitárias aleatórias podem ser implementadas diretamente em um circuito óptico, mapeando seus parâmetros para componentes do circuito óptico (ou seja , divisores de feixe e deslocadores de fase).

A teoria da matriz aleatória também encontrou aplicações para o operador quiral Dirac em cromodinâmica quântica , gravidade quântica em duas dimensões, física mesoscópica , torque de transferência de spin , efeito Hall quântico fracionário , localização de Anderson , pontos quânticos e supercondutores

Estatística matemática e análise numérica

Em estatísticas multivariadas , matrizes aleatórias foram introduzidas por John Wishart para análise estatística de grandes amostras; veja estimativa de matrizes de covariância .

Foram mostrados resultados significativos que estendem as desigualdades escalares clássicas de Chernoff , Bernstein e Hoeffding aos maiores autovalores de somas finitas de matrizes Hermitianas aleatórias . Os resultados corolários são derivados para os valores singulares máximos de matrizes retangulares.

Na análise numérica , matrizes aleatórias têm sido usadas desde o trabalho de John von Neumann e Herman Goldstine para descrever erros de computação em operações como a multiplicação de matrizes . Veja também para resultados mais recentes.

Teoria dos Números

Na teoria dos números , a distribuição de zeros da função zeta de Riemann (e outras funções L ) é modelada pela distribuição de autovalores de certas matrizes aleatórias. A conexão foi descoberta pela primeira vez por Hugh Montgomery e Freeman J. Dyson . Ele está conectado à conjectura de Hilbert – Pólya .

Neurociência teórica

No campo da neurociência teórica, matrizes aleatórias são cada vez mais usadas para modelar a rede de conexões sinápticas entre neurônios no cérebro. Modelos dinâmicos de redes neuronais com matriz de conectividade aleatória mostraram exibir uma transição de fase para o caos quando a variância dos pesos sinápticos cruza um valor crítico, no limite do tamanho infinito do sistema. Relacionar as propriedades estatísticas do espectro de modelos de matriz aleatória inspirados biologicamente ao comportamento dinâmico de redes neurais conectadas aleatoriamente é um tópico de pesquisa intensiva.

Controle ótimo

Na teoria de controle ótimo , a evolução de n variáveis ​​de estado ao longo do tempo depende, a qualquer momento, de seus próprios valores e dos valores de k variáveis ​​de controle. Com a evolução linear, matrizes de coeficientes aparecem na equação de estado (equação de evolução). Em alguns problemas, os valores dos parâmetros nessas matrizes não são conhecidos com certeza, caso em que existem matrizes aleatórias na equação de estado e o problema é conhecido como de controle estocástico . Um resultado chave no caso de controle linear-quadrático com matrizes estocásticas é que o princípio de equivalência de certeza não se aplica: enquanto na ausência de incerteza multiplicadora (isto é, com apenas incerteza aditiva) a política ótima com uma função de perda quadrática coincide com o que seria decidido se a incerteza fosse ignorada, isso não é mais válido na presença de coeficientes aleatórios na equação de estado.

Conjuntos gaussianos

Os conjuntos de matrizes aleatórias mais estudados são os conjuntos Gaussianos.

O conjunto unitário gaussiano é descrito pela medida gaussiana com densidade

no espaço das matrizes hermitianas . Aqui está uma constante de normalização, escolhida de forma que a integral da densidade seja igual a um. O termo unitário refere-se ao fato de que a distribuição é invariante sob conjugação unitária. O conjunto unitário gaussiano modela hamiltonianos sem simetria de reversão de tempo.

O conjunto ortogonal gaussiano é descrito pela medida gaussiana com densidade

no espaço de matrizes simétricas reais n × n H  = ( H ij )n
i , j = 1
. Sua distribuição é invariante sob conjugação ortogonal e modela os hamiltonianos com simetria de reversão no tempo.

O conjunto simplético gaussiano é descrito pela medida gaussiana com densidade

no espaço de nxn hermitianas matrizes quaterniônicos , por exemplo simétrica matrizes quadradas compostas de quatérnions , H  = ( H ij )n
i , j = 1
. Sua distribuição é invariante sob a conjugação pelo grupo simplético e modela os hamiltonianos com simetria de reversão no tempo, mas sem simetria rotacional.

Os conjuntos gaussianos GOE, GUE e GSE são frequentemente denotados por seu índice de Dyson , β  = 1 para GOE, β  = 2 para GUE e β  = 4 para GSE. Este índice conta o número de componentes reais por elemento da matriz. Os conjuntos, tal como definido aqui têm elementos de matriz Gaussiano distribuído com média ⟨ H ij correlações⟩ = 0, e dois pontos indicados por

,

a partir do qual todas as correlações superiores seguem o teorema de Isserlis .

A densidade de probabilidade conjunta para os valores próprios λ 1 , λ 2 , ..., λ n de GUE / GOE / GSE é dada por

onde Z β , n é uma constante de normalização que pode ser explicitamente calculada, veja a integral de Selberg . No caso de GUE ( β  = 2), a fórmula (1) descreve um processo de ponto determinante . Os autovalores se repelem porque a densidade de probabilidade conjunta tem um zero (da ordem) para autovalores coincidentes .

Para a distribuição do maior autovalor para matrizes GOE, GUE e Wishart de dimensões finitas, consulte.

Distribuição de espaçamentos de nível

A partir da sequência ordenada de autovalores , define-se os espaçamentos normalizados , onde está o espaçamento médio. A distribuição de probabilidade dos espaçamentos é aproximadamente dada por,

para o conjunto ortogonal GOE ,

para o conjunto unitário GUE , e

para o conjunto simplético GSE .

As constantes numéricas são normalizadas:

e o espaçamento médio é,

para .

Generalizações

As matrizes Wigner são matrizes Hermitianas aleatórias, de modo que as entradas

acima da diagonal principal estão variáveis ​​aleatórias independentes com média zero e segundos momentos idênticos.

Os conjuntos de matrizes invariantes são matrizes Hermitianas aleatórias com densidade no espaço de matrizes Hermitianas simétricas / Hermitianas / quaterniônicas reais, que tem a forma em que a função V é chamada de potencial.

Os ensembles gaussianos são os únicos casos especiais comuns dessas duas classes de matrizes aleatórias.

Teoria espectral de matrizes aleatórias

A teoria espectral de matrizes aleatórias estuda a distribuição dos autovalores conforme o tamanho da matriz vai para o infinito.

Regime global

No regime global , interessa-se pela distribuição das estatísticas lineares da forma .

Medida espectral empírica

A medida espectral empírica μ H de H é definida por

Normalmente, o limite de é uma medida determinística; este é um caso particular de auto-média . A função de distribuição cumulativa da medida limitante é chamada de densidade integrada de estados e é denotada por N ( λ ). Se a densidade integrada de estados é diferenciável, sua derivada é chamada de densidade de estados e é denotada por  ρ ( λ ).

O limite da medida espectral empírica para matrizes de Wigner foi descrito por Eugene Wigner ; veja a distribuição do semicírculo de Wigner e a suposição de Wigner . No que diz respeito às matrizes de covariância de amostra, uma teoria foi desenvolvida por Marčenko e Pastur.

O limite da medida espectral empírica de conjuntos de matrizes invariantes é descrito por uma certa equação integral que surge da teoria do potencial .

Flutuações

Para as estatísticas lineares N f , H  =  n −1  Σ  f ( λ j ), também se está interessado nas flutuações sobre ∫  f ( λdN ( λ ). Para muitas classes de matrizes aleatórias, um teorema do limite central da forma

é conhecido, veja, etc.

Regime local

No regime local , interessa-se os espaçamentos entre os autovalores e, mais geralmente, a distribuição conjunta dos autovalores em um intervalo de comprimento da ordem 1 / n . Distingue-se entre estatísticas em massa , relativas a intervalos dentro do suporte da medida espectral limitante, e estatísticas de borda , relativas a intervalos próximos ao limite do suporte.

Estatísticas em massa

Formalmente, fixe no interior do suporte de . Em seguida, considere o processo de pontuação

onde estão os autovalores da matriz aleatória.

O processo de ponto captura as propriedades estatísticas dos autovalores nas proximidades de . Para os conjuntos gaussianos , o limite de é conhecido; assim, para GUE é um processo de ponto determinante com o kernel

(o kernel do seno ).

O princípio de universalidade postula que o limite de as deve depender apenas da classe de simetria da matriz aleatória (e nem do modelo específico de matrizes aleatórias nem de ). Isso foi rigorosamente provado para vários modelos de matrizes aleatórias: para conjuntos de matrizes invariantes, para matrizes de Wigner, etc.

Estatísticas de borda

Veja a distribuição Tracy – Widom .

Funções de correlação

A densidade de probabilidade conjunta dos valores próprios de matrizes Hermitianas aleatórias , com funções de partição da forma

Onde

e é a medida de Lebesgue padrão no espaço das matrizes Hermitianas , é dada por

As funções de correlação de pontos (ou distribuições marginais ) são definidas como

que são funções simétricas assimétricas de suas variáveis. Em particular, a função de correlação de um ponto, ou densidade de estados , é

Sua integral sobre um conjunto de Borel dá o número esperado de autovalores contidos em :

O resultado a seguir expressa essas funções de correlação como determinantes das matrizes formadas a partir da avaliação do kernel integral apropriado nos pares de pontos que aparecem no correlacionador.

Teorema [Dyson-Mehta] Para qualquer um , a função de correlação de pontos pode ser escrita como um determinante

onde está o º kernel Christoffel-Darboux

associado a , escrito em termos dos quase-polinômios

onde é uma seqüência completa de polinômios mônicos, dos graus indicados, atendendo às condições de ortogonildade

Outras classes de matrizes aleatórias

Matrizes de Wishart

As matrizes de Wishart são n × n matrizes aleatórias da forma H  =  X  X * , onde X é uma matriz aleatória n × m ( m  ≥  n ) com entradas independentes e X * é sua transposta conjugada . No importante caso especial considerado por Wishart, as entradas de X são variáveis ​​aleatórias Gaussianas distribuídas de forma idêntica (reais ou complexas).

O limite da medida espectral empírica das matrizes de Wishart foi encontrado por Vladimir Marchenko e Leonid Pastur , ver distribuição Marchenko-Pastur .

Matrizes unitárias aleatórias

Veja conjuntos circulares .

Matrizes aleatórias não hermitianas

Veja a lei circular .

Guia de referências

  • Livros sobre a teoria da matriz aleatória:
  • Artigos de pesquisa sobre a teoria da matriz aleatória:
  • Obras históricas:

Referências

links externos