Independência de pares - Pairwise independence

Na teoria da probabilidade , uma coleção independente de pares de variáveis ​​aleatórias é um conjunto de variáveis ​​aleatórias quaisquer duas das quais são independentes . Qualquer coleção de variáveis ​​aleatórias mutuamente independentes é independente de pares, mas algumas coleções independentes de pares não são mutuamente independentes. Variáveis ​​aleatórias independentes de pares com variância finita não são correlacionadas .

Um par de variáveis ​​aleatórias X e Y são independentes se e somente se o vetor aleatório ( X , Y ) com função de distribuição cumulativa conjunta (CDF) satisfaz

ou equivalentemente, sua densidade de junta satisfaz

Ou seja, a distribuição conjunta é igual ao produto das distribuições marginais.

A menos que não esteja claro no contexto, na prática, o modificador "mútuo" é geralmente descartado, de modo que independência significa independência mútua . Uma declaração como " X , Y , Z são variáveis ​​aleatórias independentes" significa que X , Y , Z são mutuamente independentes.

Exemplo

A independência dos pares não implica independência mútua, como mostra o seguinte exemplo atribuído a S. Bernstein.

Suponha que X e Y sejam dois lançamentos independentes de uma moeda justa, onde designamos 1 para cara e 0 para coroa. Deixe a terceira variável aleatória Z ser igual a 1 se exatamente um dos lançamentos de moeda resultou em "cara", e 0 caso contrário. Então, conjuntamente, o triplo ( X , Y , Z ) tem a seguinte distribuição de probabilidade :

Aqui, as distribuições de probabilidade marginal são idênticas: e As distribuições bivariadas também concordam: onde

Uma vez que cada uma das distribuições conjuntas de pares é igual ao produto de suas respectivas distribuições marginais, as variáveis ​​são independentes de pares:

  • X e Y são independentes, e
  • X e Z são independentes e
  • Y e Z são independentes.

No entanto, X , Y e Z não são mutuamente independentes , uma vez que o lado esquerdo é igual, por exemplo, 1/4 para ( x , y , z ) = (0, 0, 0) enquanto o lado direito é igual a 1/8 para ( x , y , z ) = (0, 0, 0). Na verdade, qualquer um de é completamente determinado pelos outros dois (qualquer um de X , Y , Z é a soma (módulo 2) dos outros). Isso é o mais longe da independência que as variáveis ​​aleatórias podem chegar.

Probabilidade de união de eventos independentes de pares

Limites na probabilidade de que a soma das variáveis ​​aleatórias de Bernoulli seja pelo menos um, comumente conhecido como limite de união , são fornecidos pelas desigualdades de Boole-Fréchet . Enquanto esses limites assumem apenas informações univariadas , vários limites com o conhecimento de probabilidades bivariadas gerais também foram propostos. Denote por um conjunto de eventos de Bernoulli com probabilidade de ocorrência para cada um . Suponha que as probabilidades bivariadas sejam fornecidas por para cada par de índices . Kounias derivou o seguinte limite superior :


que subtrai o peso máximo de uma árvore estelar em um gráfico completo com nós (onde os pesos das arestas são dados por ) da soma das probabilidades marginais . Hunter-Worsley apertou este limite superior otimizando da seguinte forma:

onde está o conjunto de todas as árvores abrangentes no gráfico. Esses limites não são os mais estreitos possíveis com bivariadas gerais, mesmo quando a viabilidade é garantida, conforme mostrado em Boros et.al. No entanto, quando as variáveis ​​são independentes entre pares ( ), Ramachandra-Natarajan mostrou que o limite de Kounias-Hunter-Worsley é estreito , provando que a probabilidade máxima de união de eventos admite uma expressão de forma fechada dada como:

 

 

 

 

( 1 )

onde as probabilidades são classificadas em ordem crescente como . É interessante notar que o limite estreito na Eq. 1 depende apenas da soma das menores probabilidades e da maior probabilidade . Assim, embora a ordenação das probabilidades desempenhe um papel na derivação do limite, a ordenação entre as menores probabilidades é irrelevante, uma vez que apenas sua soma é usada.

Comparação com o limite sindical Boole-Fréchet

É útil comparar os menores limites da probabilidade de união com dependência arbitrária e independência de pares, respectivamente. O limite de união superior de Boole-Fréchet mais estreito (assumindo apenas informações univariadas ) é dado como:

 

 

 

 

( 2 )

Conforme mostrado em Ramachandra-Natarajan, pode ser facilmente verificado que a razão dos dois limites restritos na Eq. 2 e Eq. 1 é o limite superior de onde o valor máximo de é atingido quando

,

onde as probabilidades são classificadas em ordem crescente como . Em outras palavras, no melhor cenário, a independência dos pares limitada na Eq. 1 fornece uma melhoria em relação ao limite univariado na Eq. 2 .

Generalização

De forma mais geral, podemos falar sobre independência k -wise, para qualquer k  ≥ 2. A ideia é semelhante: um conjunto de variáveis ​​aleatórias é independente k -wise se cada subconjunto de tamanho k dessas variáveis ​​for independente. A independência k -wise tem sido usada na ciência da computação teórica, onde foi usada para provar um teorema sobre o problema MAXEkSAT .

A independência k -wise é usada na prova de que as funções de hash independentes de k são códigos de autenticação de mensagem não passíveis de segurança .

Veja também

Referências