Distribuição de probabilidade conjunta - Joint probability distribution
Parte de uma série de estatísticas |
Teoria da probabilidade |
---|
Dadas variáveis aleatórias , que são definidas em um espaço de probabilidade , a distribuição de probabilidade conjunta para é uma distribuição de probabilidade que dá a probabilidade de que cada um caia em qualquer intervalo particular ou conjunto discreto de valores especificados para essa variável. No caso de apenas duas variáveis aleatórias, isso é chamado de distribuição bivariada , mas o conceito generaliza para qualquer número de variáveis aleatórias, dando uma distribuição multivariada .
A distribuição de probabilidade conjunta pode ser expressa em termos de uma função de distribuição cumulativa conjunta e em termos de uma função de densidade de probabilidade conjunta (no caso de variáveis contínuas ) ou função de massa de probabilidade conjunta (no caso de variáveis discretas ). Estes, por sua vez, podem ser usados para encontrar dois outros tipos de distribuições: a distribuição marginal dando as probabilidades para qualquer uma das variáveis sem referência a quaisquer intervalos específicos de valores para as outras variáveis, e a distribuição de probabilidade condicional dando as probabilidades para qualquer subconjunto das variáveis condicionais a valores particulares das variáveis restantes.
Exemplos
Retira de uma urna
Suponha que cada uma das duas urnas contenha duas vezes mais bolas vermelhas do que bolas azuis, e nenhuma outra, e suponha que uma bola seja selecionada aleatoriamente de cada urna, com os dois sorteios independentes um do outro. Sejam e sejam variáveis aleatórias discretas associadas aos resultados do sorteio da primeira e da segunda urna, respectivamente. A probabilidade de tirar uma bola vermelha de qualquer uma das urnas é de 2/3, e a probabilidade de tirar uma bola azul é de 1/3. A distribuição de probabilidade conjunta é apresentada na seguinte tabela:
A = Vermelho | A = Azul | P (B) | |
---|---|---|---|
B = vermelho | (2/3) (2/3) = 4/9 | (1/3) (2/3) = 2/9 | 4/9 + 2/9 = 2/3 |
B = Azul | (2/3) (1/3) = 2/9 | (1/3) (1/3) = 1/9 | 2/9 + 1/9 = 1/3 |
P (A) | 4/9 + 2/9 = 2/3 | 2/9 + 1/9 = 1/3 |
Cada uma das quatro células internas mostra a probabilidade de uma combinação particular de resultados dos dois sorteios; essas probabilidades são a distribuição conjunta. Em qualquer célula, a probabilidade de ocorrência de uma combinação específica é (uma vez que os sorteios são independentes) o produto da probabilidade do resultado especificado para A e a probabilidade do resultado especificado para B. As probabilidades nessas quatro células somam 1, como sempre é verdadeiro para distribuições de probabilidade.
Além disso, a linha final e a coluna final fornecem a distribuição de probabilidade marginal para A e a distribuição de probabilidade marginal para B, respectivamente. Por exemplo, para A, a primeira dessas células fornece a soma das probabilidades de A ser vermelho, independentemente de qual possibilidade para B na coluna acima da célula ocorrer, como 2/3. Assim, a distribuição de probabilidade para marginal dá 's probabilidades incondicional em , numa margem da mesa.
Moedas viradas
Considere o lançamento de duas moedas justas ; sejam e sejam variáveis aleatórias discretas associadas aos resultados do primeiro e do segundo lançamento de moeda, respectivamente. Cada cara ou coroa é um teste de Bernoulli e tem uma distribuição de Bernoulli . Se uma moeda exibe "cara", a variável aleatória associada assume o valor 1 e, caso contrário, assume o valor 0. A probabilidade de cada um desses resultados é 1/2, então as funções de densidade marginal (incondicional) são
A função de massa de probabilidade conjunta de e define as probabilidades para cada par de resultados. Todos os resultados possíveis são
Uma vez que cada resultado é igualmente provável, a função de massa de probabilidade conjunta torna-se
Uma vez que os lançamentos da moeda são independentes, a função de massa de probabilidade conjunta é o produto dos marginais:
Jogando um dado
Considere o lançamento de um dado justo e deixe se o número for par (ou seja, 2, 4 ou 6) e caso contrário. Além disso, deixe se o número for primo (ou seja, 2, 3 ou 5) e de outra forma.
1 | 2 | 3 | 4 | 5 | 6 | |
---|---|---|---|---|---|---|
UMA | 0 | 1 | 0 | 1 | 0 | 1 |
B | 0 | 1 | 1 | 0 | 1 | 0 |
Então, a distribuição conjunta de e , expressa como uma função de massa de probabilidade, é
Estas probabilidades necessariamente resumir a 1, uma vez que a probabilidade de alguma combinação de e ocorrendo é um.
Exemplo da vida real
Considere uma unidade de produção que enche garrafas plásticas com sabão em pó. O peso de cada garrafa (Y) e o volume de sabão em pó que contém (X) são medidos.
Distribuição de probabilidade marginal
Se mais de uma variável aleatória for definida em um experimento aleatório, é importante distinguir entre a distribuição de probabilidade conjunta de X e Y e a distribuição de probabilidade de cada variável individualmente. A distribuição de probabilidade individual de uma variável aleatória é chamada de distribuição de probabilidade marginal. Em geral, a distribuição de probabilidade marginal de X pode ser determinada a partir da distribuição de probabilidade conjunta de X e outras variáveis aleatórias.
Se a função de densidade de probabilidade conjunta das variáveis aleatórias X e Y for , a função de densidade de probabilidade marginal de X e Y, que define a distribuição Marginal , é dada por:
,
onde a primeira integral está sobre todos os pontos no intervalo de (X, Y) para os quais X = xe a segunda integral está sobre todos os pontos no intervalo de (X, Y) para os quais Y = y.
Função de distribuição cumulativa conjunta
Para um par de variáveis aleatórias , a função de distribuição cumulativa conjunta (CDF) é dada por
|
|
( Eq.1 ) |
onde o lado direito representa a probabilidade de que a variável aleatória assuma um valor menor ou igual a e que assuma um valor menor ou igual a .
Para variáveis aleatórias , o CDF conjunto é dado por
|
|
( Eq.2 ) |
Interpretar as variáveis aleatórias como um vetor aleatório produz uma notação mais curta:
Função de densidade da junta ou função de massa
Caso discreto
A função de massa de probabilidade conjunta de duas variáveis aleatórias discretas é:
|
|
( Eq.3 ) |
ou escrito em termos de distribuições condicionais
onde está a probabilidade de isso acontecer .
A generalização do caso anterior de duas variáveis é a distribuição de probabilidade conjunta de variáveis aleatórias discretas que é:
|
|
( Eq.4 ) |
ou equivalente
- .
Essa identidade é conhecida como regra da cadeia de probabilidade .
Uma vez que essas são probabilidades, no caso de duas variáveis
que generaliza para variáveis aleatórias discretas para
Caso contínuo
A função de densidade de probabilidade conjunta para duas variáveis aleatórias contínuas é definida como a derivada da função de distribuição cumulativa conjunta (ver Eq.1 ):
|
|
( Eq.5 ) |
Isso é igual a:
onde e são as distribuições condicionais de dado e de dado respectivamente, e e são as distribuições marginais de e respectivamente.
A definição se estende naturalmente a mais de duas variáveis aleatórias:
|
|
( Eq.6 ) |
Novamente, uma vez que essas são distribuições de probabilidade, tem-se
respectivamente
Caso misto
A "densidade conjunta mista" pode ser definida onde uma ou mais variáveis aleatórias são contínuas e as outras variáveis aleatórias são discretas. Com uma variável de cada tipo
Um exemplo de situação em que se pode desejar encontrar a distribuição cumulativa de uma variável aleatória que é contínua e outra variável aleatória que é discreta surge quando se deseja usar uma regressão logística para prever a probabilidade de um resultado binário Y condicional ao valor de um resultado continuamente distribuído . Um deve usar a densidade conjunta "mista" quando encontrar a distribuição cumulativa desse resultado binário porque as variáveis de entrada foram inicialmente definidos de forma tal que não se podia coletivamente atribuí-la ou uma função densidade de probabilidade ou uma função de massa de probabilidade. Formalmente, é a função densidade de probabilidade de em relação à medida do produto nos respectivos suportes de e . Qualquer uma dessas duas decomposições pode então ser usada para recuperar a função de distribuição cumulativa conjunta:
A definição generaliza para uma mistura de números arbitrários de variáveis aleatórias discretas e contínuas.
Propriedades Adicionais
Distribuição conjunta para variáveis independentes
Em geral, duas variáveis aleatórias e são independentes se e somente se a função de distribuição cumulativa conjunta satisfaz
Duas variáveis aleatórias discretas e são independentes se e somente se a função de massa de probabilidade conjunta satisfaz
para todos e .
Enquanto o número de eventos aleatórios independentes aumenta, o valor de probabilidade conjunta relacionado diminui rapidamente para zero, de acordo com uma lei exponencial negativa.
Da mesma forma, duas variáveis aleatórias absolutamente contínuas são independentes se e somente se
para todos e . Isso significa que a aquisição de qualquer informação sobre o valor de uma ou mais das variáveis aleatórias leva a uma distribuição condicional de qualquer outra variável que seja idêntica à sua distribuição incondicional (marginal); portanto, nenhuma variável fornece qualquer informação sobre qualquer outra variável.
Distribuição conjunta para variáveis condicionalmente dependentes
Se um subconjunto das variáveis é condicionalmente dependente dado outro subconjunto dessas variáveis, então a função de massa de probabilidade da distribuição conjunta é . é igual a . Portanto, pode ser eficientemente representado pelas distribuições de probabilidade de dimensão inferior e . Essas relações de independência condicional podem ser representadas com uma rede bayesiana ou funções de cópula .
Covariância
Quando duas ou mais variáveis aleatórias são definidas em um espaço de probabilidade, é útil descrever como elas variam juntas; ou seja, é útil medir a relação entre as variáveis. Uma medida comum da relação entre duas variáveis aleatórias é a covariância. Covariância é uma medida de relacionamento linear entre as variáveis aleatórias. Se a relação entre as variáveis aleatórias for não linear, a covariância pode não ser sensível à relação, ou seja, não relaciona a correlação entre duas variáveis.
A covariância entre a variável aleatória X e Y, denotada como cov (X, Y), é:
Correlação
Existe outra medida da relação entre duas variáveis aleatórias que geralmente é mais fácil de interpretar do que a covariância.
A correlação apenas dimensiona a covariância pelo produto do desvio padrão de cada variável. Consequentemente, a correlação é uma quantidade adimensional que pode ser usada para comparar as relações lineares entre pares de variáveis em unidades diferentes. Se os pontos na distribuição de probabilidade conjunta de X e Y que recebem probabilidade positiva tendem a cair ao longo de uma linha de inclinação positiva (ou negativa), ρ XY está próximo de +1 (ou -1). Se ρ XY for igual a +1 ou −1, pode-se mostrar que os pontos na distribuição de probabilidade conjunta que recebem probabilidade positiva caem exatamente ao longo de uma linha reta. Duas variáveis aleatórias com correlação diferente de zero são consideradas correlacionadas. Semelhante à covariância, a correlação é uma medida da relação linear entre variáveis aleatórias.
A correlação entre a variável aleatória X e Y, denotada como
Distribuições nomeadas importantes
As distribuições conjuntas nomeadas que surgem frequentemente nas estatísticas incluem a distribuição normal multivariada , a distribuição estável multivariada , a distribuição multinomial , a distribuição multinomial negativa , a distribuição hipergeométrica multivariada e a distribuição elíptica .
Veja também
- Programação bayesiana
- Árvore Chow-Liu
- Probabilidade Condicional
- Copula (teoria da probabilidade)
- Teorema de desintegração
- Estatísticas multivariadas
- Interferência estatística
- Distribuição independente de pares
Referências
links externos
- "Distribuição conjunta" , Encyclopedia of Mathematics , EMS Press , 2001 [1994]
- "Distribuição multidimensional" , Encyclopedia of Mathematics , EMS Press , 2001 [1994]
- Uma introdução moderna à probabilidade e estatística: entender por que e como . Dekking, Michel, 1946-. Londres: Springer. 2005. ISBN 978-1-85233-896-1 . OCLC 262680588.
- "Função de densidade contínua conjunta" . PlanetMath .
- Mathworld: Função de Distribuição Conjunta