Independência de pares - Pairwise independence
Na teoria da probabilidade , uma coleção independente de pares de variáveis aleatórias é um conjunto de variáveis aleatórias quaisquer duas das quais são independentes . Qualquer coleção de variáveis aleatórias mutuamente independentes é independente de pares, mas algumas coleções independentes de pares não são mutuamente independentes. Variáveis aleatórias independentes de pares com variância finita não são correlacionadas .
Um par de variáveis aleatórias X e Y são independentes se e somente se o vetor aleatório ( X , Y ) com função de distribuição cumulativa conjunta (CDF) satisfaz
ou equivalentemente, sua densidade de junta satisfaz
Ou seja, a distribuição conjunta é igual ao produto das distribuições marginais.
A menos que não esteja claro no contexto, na prática, o modificador "mútuo" é geralmente descartado, de modo que independência significa independência mútua . Uma declaração como " X , Y , Z são variáveis aleatórias independentes" significa que X , Y , Z são mutuamente independentes.
Exemplo
A independência dos pares não implica independência mútua, como mostra o seguinte exemplo atribuído a S. Bernstein.
Suponha que X e Y sejam dois lançamentos independentes de uma moeda justa, onde designamos 1 para cara e 0 para coroa. Deixe a terceira variável aleatória Z ser igual a 1 se exatamente um dos lançamentos de moeda resultou em "cara", e 0 caso contrário. Então, conjuntamente, o triplo ( X , Y , Z ) tem a seguinte distribuição de probabilidade :
Aqui, as distribuições de probabilidade marginal são idênticas: e As distribuições bivariadas também concordam: onde
Uma vez que cada uma das distribuições conjuntas de pares é igual ao produto de suas respectivas distribuições marginais, as variáveis são independentes de pares:
- X e Y são independentes, e
- X e Z são independentes e
- Y e Z são independentes.
No entanto, X , Y e Z não são mutuamente independentes , uma vez que o lado esquerdo é igual, por exemplo, 1/4 para ( x , y , z ) = (0, 0, 0) enquanto o lado direito é igual a 1/8 para ( x , y , z ) = (0, 0, 0). Na verdade, qualquer um de é completamente determinado pelos outros dois (qualquer um de X , Y , Z é a soma (módulo 2) dos outros). Isso é o mais longe da independência que as variáveis aleatórias podem chegar.
Probabilidade de união de eventos independentes de pares
Limites na probabilidade de que a soma das variáveis aleatórias de Bernoulli seja pelo menos um, comumente conhecido como limite de união , são fornecidos pelas desigualdades de Boole-Fréchet . Enquanto esses limites assumem apenas informações univariadas , vários limites com o conhecimento de probabilidades bivariadas gerais também foram propostos. Denote por um conjunto de eventos de Bernoulli com probabilidade de ocorrência para cada um . Suponha que as probabilidades bivariadas sejam fornecidas por para cada par de índices . Kounias derivou o seguinte limite superior :
que subtrai o peso máximo de uma árvore estelar em um gráfico completo com nós (onde os pesos das arestas são dados por ) da soma das probabilidades marginais .
Hunter-Worsley apertou este limite superior otimizando da seguinte forma:
onde está o conjunto de todas as árvores abrangentes no gráfico. Esses limites não são os mais estreitos possíveis com bivariadas gerais, mesmo quando a viabilidade é garantida, conforme mostrado em Boros et.al. No entanto, quando as variáveis são independentes entre pares ( ), Ramachandra-Natarajan mostrou que o limite de Kounias-Hunter-Worsley é estreito , provando que a probabilidade máxima de união de eventos admite uma expressão de forma fechada dada como:
-
( 1 )
-
onde as probabilidades são classificadas em ordem crescente como . É interessante notar que o limite estreito na Eq. 1 depende apenas da soma das menores probabilidades e da maior probabilidade . Assim, embora a ordenação das probabilidades desempenhe um papel na derivação do limite, a ordenação entre as menores probabilidades é irrelevante, uma vez que apenas sua soma é usada.
Comparação com o limite sindical Boole-Fréchet
É útil comparar os menores limites da probabilidade de união com dependência arbitrária e independência de pares, respectivamente. O limite de união superior de Boole-Fréchet mais estreito (assumindo apenas informações univariadas ) é dado como:
-
( 2 )
-
Conforme mostrado em Ramachandra-Natarajan, pode ser facilmente verificado que a razão dos dois limites restritos na Eq. 2 e Eq. 1 é o limite superior de onde o valor máximo de é atingido quando
-
,
-
,
onde as probabilidades são classificadas em ordem crescente como . Em outras palavras, no melhor cenário, a independência dos pares limitada na Eq. 1 fornece uma melhoria em relação ao limite univariado na Eq. 2 .
Generalização
De forma mais geral, podemos falar sobre independência k -wise, para qualquer k ≥ 2. A ideia é semelhante: um conjunto de variáveis aleatórias é independente k -wise se cada subconjunto de tamanho k dessas variáveis for independente. A independência k -wise tem sido usada na ciência da computação teórica, onde foi usada para provar um teorema sobre o problema MAXEkSAT .
A independência k -wise é usada na prova de que as funções de hash independentes de k são códigos de autenticação de mensagem não passíveis de segurança .