Distribuição de probabilidade conjunta - Joint probability distribution

Muitas observações de amostra (preto) são mostradas a partir de uma distribuição de probabilidade conjunta. As densidades marginais também são mostradas.

Dadas variáveis ​​aleatórias , que são definidas em um espaço de probabilidade , a distribuição de probabilidade conjunta para é uma distribuição de probabilidade que dá a probabilidade de que cada um caia em qualquer intervalo particular ou conjunto discreto de valores especificados para essa variável. No caso de apenas duas variáveis ​​aleatórias, isso é chamado de distribuição bivariada , mas o conceito generaliza para qualquer número de variáveis ​​aleatórias, dando uma distribuição multivariada .

A distribuição de probabilidade conjunta pode ser expressa em termos de uma função de distribuição cumulativa conjunta e em termos de uma função de densidade de probabilidade conjunta (no caso de variáveis ​​contínuas ) ou função de massa de probabilidade conjunta (no caso de variáveis discretas ). Estes, por sua vez, podem ser usados ​​para encontrar dois outros tipos de distribuições: a distribuição marginal dando as probabilidades para qualquer uma das variáveis ​​sem referência a quaisquer intervalos específicos de valores para as outras variáveis, e a distribuição de probabilidade condicional dando as probabilidades para qualquer subconjunto das variáveis ​​condicionais a valores particulares das variáveis ​​restantes.

Exemplos

Retira de uma urna

Suponha que cada uma das duas urnas contenha duas vezes mais bolas vermelhas do que bolas azuis, e nenhuma outra, e suponha que uma bola seja selecionada aleatoriamente de cada urna, com os dois sorteios independentes um do outro. Sejam e sejam variáveis ​​aleatórias discretas associadas aos resultados do sorteio da primeira e da segunda urna, respectivamente. A probabilidade de tirar uma bola vermelha de qualquer uma das urnas é de 2/3, e a probabilidade de tirar uma bola azul é de 1/3. A distribuição de probabilidade conjunta é apresentada na seguinte tabela:

A = Vermelho A = Azul P (B)
B = vermelho (2/3) (2/3) = 4/9 (1/3) (2/3) = 2/9 4/9 + 2/9 = 2/3
B = Azul (2/3) (1/3) = 2/9 (1/3) (1/3) = 1/9 2/9 + 1/9 = 1/3
P (A) 4/9 + 2/9 = 2/3 2/9 + 1/9 = 1/3

Cada uma das quatro células internas mostra a probabilidade de uma combinação particular de resultados dos dois sorteios; essas probabilidades são a distribuição conjunta. Em qualquer célula, a probabilidade de ocorrência de uma combinação específica é (uma vez que os sorteios são independentes) o produto da probabilidade do resultado especificado para A e a probabilidade do resultado especificado para B. As probabilidades nessas quatro células somam 1, como sempre é verdadeiro para distribuições de probabilidade.

Além disso, a linha final e a coluna final fornecem a distribuição de probabilidade marginal para A e a distribuição de probabilidade marginal para B, respectivamente. Por exemplo, para A, a primeira dessas células fornece a soma das probabilidades de A ser vermelho, independentemente de qual possibilidade para B na coluna acima da célula ocorrer, como 2/3. Assim, a distribuição de probabilidade para marginal dá 's probabilidades incondicional em , numa margem da mesa.

Moedas viradas

Considere o lançamento de duas moedas justas ; sejam e sejam variáveis ​​aleatórias discretas associadas aos resultados do primeiro e do segundo lançamento de moeda, respectivamente. Cada cara ou coroa é um teste de Bernoulli e tem uma distribuição de Bernoulli . Se uma moeda exibe "cara", a variável aleatória associada assume o valor 1 e, caso contrário, assume o valor 0. A probabilidade de cada um desses resultados é 1/2, então as funções de densidade marginal (incondicional) são

A função de massa de probabilidade conjunta de e define as probabilidades para cada par de resultados. Todos os resultados possíveis são

Uma vez que cada resultado é igualmente provável, a função de massa de probabilidade conjunta torna-se

Uma vez que os lançamentos da moeda são independentes, a função de massa de probabilidade conjunta é o produto dos marginais:

Jogando um dado

Considere o lançamento de um dado justo e deixe se o número for par (ou seja, 2, 4 ou 6) e caso contrário. Além disso, deixe se o número for primo (ou seja, 2, 3 ou 5) e de outra forma.

1 2 3 4 5 6
UMA 0 1 0 1 0 1
B 0 1 1 0 1 0

Então, a distribuição conjunta de e , expressa como uma função de massa de probabilidade, é

Estas probabilidades necessariamente resumir a 1, uma vez que a probabilidade de alguma combinação de e ocorrendo é um.

Exemplo da vida real

Considere uma unidade de produção que enche garrafas plásticas com sabão em pó. O peso de cada garrafa (Y) e o volume de sabão em pó que contém (X) são medidos.

Distribuição de probabilidade marginal

Se mais de uma variável aleatória for definida em um experimento aleatório, é importante distinguir entre a distribuição de probabilidade conjunta de X e Y e a distribuição de probabilidade de cada variável individualmente. A distribuição de probabilidade individual de uma variável aleatória é chamada de distribuição de probabilidade marginal. Em geral, a distribuição de probabilidade marginal de X pode ser determinada a partir da distribuição de probabilidade conjunta de X e outras variáveis ​​aleatórias.

Se a função de densidade de probabilidade conjunta das variáveis ​​aleatórias X e Y for , a função de densidade de probabilidade marginal de X e Y, que define a distribuição Marginal , é dada por:

,

onde a primeira integral está sobre todos os pontos no intervalo de (X, Y) para os quais X = xe a segunda integral está sobre todos os pontos no intervalo de (X, Y) para os quais Y = y.

Função de distribuição cumulativa conjunta

Para um par de variáveis ​​aleatórias , a função de distribuição cumulativa conjunta (CDF) é dada por

 

 

 

 

( Eq.1 )

onde o lado direito representa a probabilidade de que a variável aleatória assuma um valor menor ou igual a e que assuma um valor menor ou igual a .

Para variáveis ​​aleatórias , o CDF conjunto é dado por

 

 

 

 

( Eq.2 )

Interpretar as variáveis ​​aleatórias como um vetor aleatório produz uma notação mais curta:

Função de densidade da junta ou função de massa

Caso discreto

A função de massa de probabilidade conjunta de duas variáveis ​​aleatórias discretas é:

 

 

 

 

( Eq.3 )

ou escrito em termos de distribuições condicionais

onde está a probabilidade de isso acontecer .

A generalização do caso anterior de duas variáveis ​​é a distribuição de probabilidade conjunta de variáveis ​​aleatórias discretas que é:

 

 

 

 

( Eq.4 )

ou equivalente

.

Essa identidade é conhecida como regra da cadeia de probabilidade .

Uma vez que essas são probabilidades, no caso de duas variáveis

que generaliza para variáveis ​​aleatórias discretas para

Caso contínuo

A função de densidade de probabilidade conjunta para duas variáveis ​​aleatórias contínuas é definida como a derivada da função de distribuição cumulativa conjunta (ver Eq.1 ):

 

 

 

 

( Eq.5 )

Isso é igual a:

onde e são as distribuições condicionais de dado e de dado respectivamente, e e são as distribuições marginais de e respectivamente.

A definição se estende naturalmente a mais de duas variáveis ​​aleatórias:

 

 

 

 

( Eq.6 )

Novamente, uma vez que essas são distribuições de probabilidade, tem-se

respectivamente

Caso misto

A "densidade conjunta mista" pode ser definida onde uma ou mais variáveis ​​aleatórias são contínuas e as outras variáveis ​​aleatórias são discretas. Com uma variável de cada tipo

Um exemplo de situação em que se pode desejar encontrar a distribuição cumulativa de uma variável aleatória que é contínua e outra variável aleatória que é discreta surge quando se deseja usar uma regressão logística para prever a probabilidade de um resultado binário Y condicional ao valor de um resultado continuamente distribuído . Um deve usar a densidade conjunta "mista" quando encontrar a distribuição cumulativa desse resultado binário porque as variáveis de entrada foram inicialmente definidos de forma tal que não se podia coletivamente atribuí-la ou uma função densidade de probabilidade ou uma função de massa de probabilidade. Formalmente, é a função densidade de probabilidade de em relação à medida do produto nos respectivos suportes de e . Qualquer uma dessas duas decomposições pode então ser usada para recuperar a função de distribuição cumulativa conjunta:

A definição generaliza para uma mistura de números arbitrários de variáveis ​​aleatórias discretas e contínuas.

Propriedades Adicionais

Distribuição conjunta para variáveis ​​independentes

Em geral, duas variáveis ​​aleatórias e são independentes se e somente se a função de distribuição cumulativa conjunta satisfaz

Duas variáveis ​​aleatórias discretas e são independentes se e somente se a função de massa de probabilidade conjunta satisfaz

para todos e .

Enquanto o número de eventos aleatórios independentes aumenta, o valor de probabilidade conjunta relacionado diminui rapidamente para zero, de acordo com uma lei exponencial negativa.

Da mesma forma, duas variáveis ​​aleatórias absolutamente contínuas são independentes se e somente se

para todos e . Isso significa que a aquisição de qualquer informação sobre o valor de uma ou mais das variáveis ​​aleatórias leva a uma distribuição condicional de qualquer outra variável que seja idêntica à sua distribuição incondicional (marginal); portanto, nenhuma variável fornece qualquer informação sobre qualquer outra variável.

Distribuição conjunta para variáveis ​​condicionalmente dependentes

Se um subconjunto das variáveis é condicionalmente dependente dado outro subconjunto dessas variáveis, então a função de massa de probabilidade da distribuição conjunta é . é igual a . Portanto, pode ser eficientemente representado pelas distribuições de probabilidade de dimensão inferior e . Essas relações de independência condicional podem ser representadas com uma rede bayesiana ou funções de cópula .

Covariância

Quando duas ou mais variáveis ​​aleatórias são definidas em um espaço de probabilidade, é útil descrever como elas variam juntas; ou seja, é útil medir a relação entre as variáveis. Uma medida comum da relação entre duas variáveis ​​aleatórias é a covariância. Covariância é uma medida de relacionamento linear entre as variáveis ​​aleatórias. Se a relação entre as variáveis ​​aleatórias for não linear, a covariância pode não ser sensível à relação, ou seja, não relaciona a correlação entre duas variáveis.

A covariância entre a variável aleatória X e Y, denotada como cov (X, Y), é:

Correlação

Existe outra medida da relação entre duas variáveis ​​aleatórias que geralmente é mais fácil de interpretar do que a covariância.

A correlação apenas dimensiona a covariância pelo produto do desvio padrão de cada variável. Consequentemente, a correlação é uma quantidade adimensional que pode ser usada para comparar as relações lineares entre pares de variáveis ​​em unidades diferentes. Se os pontos na distribuição de probabilidade conjunta de X e Y que recebem probabilidade positiva tendem a cair ao longo de uma linha de inclinação positiva (ou negativa), ρ XY está próximo de +1 (ou -1). Se ρ XY for igual a +1 ou −1, pode-se mostrar que os pontos na distribuição de probabilidade conjunta que recebem probabilidade positiva caem exatamente ao longo de uma linha reta. Duas variáveis ​​aleatórias com correlação diferente de zero são consideradas correlacionadas. Semelhante à covariância, a correlação é uma medida da relação linear entre variáveis ​​aleatórias.

A correlação entre a variável aleatória X e Y, denotada como

Distribuições nomeadas importantes

As distribuições conjuntas nomeadas que surgem frequentemente nas estatísticas incluem a distribuição normal multivariada , a distribuição estável multivariada , a distribuição multinomial , a distribuição multinomial negativa , a distribuição hipergeométrica multivariada e a distribuição elíptica .

Veja também

Referências

links externos