Distribuição de veneno - Poisson distribution

Distribuição de veneno
Função de massa de probabilidade
Poisson pmf.svg
O eixo horizontal é o índice k , o número de ocorrências. λ é a taxa esperada de ocorrências. O eixo vertical é a probabilidade de k ocorrências dado λ . A função é definida apenas em valores inteiros de k ; as linhas de conexão são apenas guias para os olhos.
Função de distribuição cumulativa
Poisson cdf.svg
O eixo horizontal é o índice k , o número de ocorrências. O CDF é descontínuo nos inteiros de ke bemol em todos os outros lugares porque uma variável com distribuição de Poisson assume apenas valores inteiros.
Notação
Parâmetros (avaliar)
Apoio, suporte ( Números naturais começando em 0)
PMF
CDF

, ou , ou

(pois , onde é a função gama superior incompleta , é a função de base e Q é a função gama regularizada )
Quer dizer
Mediana
Modo
Variância
Skewness
Ex. curtose
Entropia

(para grande )


MGF
CF
PGF
Informação de Fisher

Na teoria das probabilidades e estatísticas , a distribuição de Poisson ( / p w ɑː s ɒ n / ; pronunciação francesa: [pwasɔ] ), em homenagem a francês matemático Siméo Denis Poisson , é uma distribuição de probabilidade discreta que expressa a probabilidade de um determinado número de eventos que ocorrem em um intervalo fixo de tempo ou espaço se esses eventos ocorrerem com uma taxa média constante conhecida e independentemente do tempo desde o último evento. A distribuição de Poisson também pode ser usada para o número de eventos em outros intervalos especificados, como distância, área ou volume.

Por exemplo, um call center recebe em média 180 ligações por hora, 24 horas por dia. As ligações são independentes; receber um não altera a probabilidade de quando o próximo chegará. O número de chamadas recebidas durante qualquer minuto tem uma distribuição de probabilidade de Poisson: os números mais prováveis ​​são 2 e 3, mas 1 e 4 também são prováveis ​​e há uma pequena probabilidade de ser tão baixo quanto zero e uma probabilidade muito pequena de ser 10. Outro exemplo é o número de eventos de decaimento que ocorrem de uma fonte radioativa durante um período de observação definido.

Definições

Função de massa de probabilidade

Uma variável aleatória discreta X é dita ter uma distribuição de Poisson, com parâmetro , se ela tem uma função de massa de probabilidade dada por:

Onde

  • k é o número de ocorrências ( )
  • e é o número de Euler ( )
  • ! é a função fatorial .

O número real positivo λ é igual ao valor esperado de X e também à sua variância

A distribuição de Poisson pode ser aplicada a sistemas com um grande número de eventos possíveis, cada um deles raro . O número de tais eventos que ocorrem durante um intervalo de tempo fixo é, nas circunstâncias certas, um número aleatório com uma distribuição de Poisson.

A equação pode ser adaptada se, em vez do número médio de eventos , for dada uma taxa de tempo para o número de eventos que ocorrem. Então (mostrando o número de eventos por unidade de tempo), e

Exemplo

A distribuição de Poisson pode ser útil para modelar eventos como

  • O número de meteoritos com mais de 1 metro de diâmetro que atingem a Terra em um ano
  • O número de pacientes que chegam em uma sala de emergência entre 22h e 23h
  • O número de fótons de laser atingindo um detector em um determinado intervalo de tempo

Suposições e validade

A distribuição de Poisson é um modelo apropriado se as seguintes suposições forem verdadeiras:

  • k é o número de vezes que um evento ocorre em um intervalo ek pode assumir os valores 0, 1, 2, ....
  • A ocorrência de um evento não afeta a probabilidade de ocorrer um segundo evento. Ou seja, os eventos ocorrem de forma independente.
  • A taxa média na qual os eventos ocorrem é independente de quaisquer ocorrências. Para simplificar, isso geralmente é considerado constante, mas na prática pode variar com o tempo.
  • Dois eventos não podem ocorrer exatamente no mesmo instante; em vez disso, em cada subintervalo muito pequeno, ocorre exatamente um evento ou nenhum evento ocorre.

Se essas condições forem verdadeiras, k é uma variável aleatória de Poisson e a distribuição de k é uma distribuição de Poisson.

A distribuição de Poisson também é o limite de uma distribuição binomial , para a qual a probabilidade de sucesso para cada tentativa é igual a λ dividido pelo número de tentativas, conforme o número de tentativas se aproxima do infinito (consulte Distribuições relacionadas ).

Exemplos de probabilidade para distribuições de Poisson

Eventos uma vez em um intervalo: O caso especial de λ = 1 e k = 0

Suponha que os astrônomos estimam que meteoritos grandes (acima de um certo tamanho) atingem a Terra em média uma vez a cada 100 anos ( λ = 1 evento por 100 anos) e que o número de ocorrências de meteoritos segue uma distribuição de Poisson. Qual é a probabilidade de k = 0 acertos de meteoritos nos próximos 100 anos?

Sob essas suposições, a probabilidade de que nenhum grande meteorito atinja a Terra nos próximos 100 anos é de aproximadamente 0,37. O restante 1 - 0,37 = 0,63 é a probabilidade de 1, 2, 3 ou mais colisões de meteoritos grandes nos próximos 100 anos. Em um exemplo acima, uma inundação de transbordamento ocorreu uma vez a cada 100 anos ( λ  = 1). A probabilidade de não haver inundações em 100 anos foi de aproximadamente 0,37, pelo mesmo cálculo.

Em geral, se um evento ocorre em média uma vez por intervalo ( λ  = 1), e os eventos seguem uma distribuição de Poisson, então P (0 eventos no próximo intervalo) = 0,37 . Além disso, P (exatamente um evento no próximo intervalo) = 0,37, conforme mostrado na tabela para inundações de transbordamento.

Exemplos que violam as suposições de Poisson

O número de alunos que chegam ao sindicato dos alunos por minuto provavelmente não seguirá uma distribuição de Poisson, porque a taxa não é constante (baixa taxa durante o horário de aula, alta taxa entre os horários de aula) e as chegadas de alunos individuais não são independentes (alunos tendem a vir em grupos).

O número de terremotos de magnitude 5 por ano em um país pode não seguir uma distribuição de Poisson se um grande terremoto aumentar a probabilidade de tremores secundários de magnitude semelhante.

Os exemplos em que pelo menos um evento é garantido não são distribuídos por Poisson; mas pode ser modelado usando uma distribuição de Poisson truncada com zero .

As distribuições de contagem nas quais o número de intervalos com zero eventos é maior do que o previsto por um modelo de Poisson podem ser modeladas usando um modelo inflado com zeros .

Propriedades

Estatísticas descritivas

  • O modo de uma variável aleatória distribuída por Poisson com não inteiro λ é igual a , que é o maior inteiro menor ou igual a  λ . Isso também é escrito como floor (λ). Quando λ é um número inteiro positivo, os modos são λ e λ  - 1.
  • Todos os cumulantes da distribuição de Poisson são iguais ao valor esperado  λ . O n th momento fatorial da distribuição de Poisson é λ n .
  • O valor esperado de um processo de Poisson às vezes é decomposto no produto de intensidade e exposição (ou mais geralmente expresso como a integral de uma "função de intensidade" ao longo do tempo ou espaço, às vezes descrita como "exposição").

Mediana

Os limites para a mediana ( ) da distribuição são conhecidos e são nítidos :

Momentos superiores

onde os {colchetes} denotam números de Stirling do segundo tipo . Os coeficientes dos polinômios têm um significado combinatório . Na verdade, quando o valor esperado da distribuição de Poisson é 1, então a fórmula de Dobinski diz que o n º momento é igual ao número de partições de um conjunto de tamanho n .

Um limite simples é

Soma das variáveis ​​aleatórias distribuídas por Poisson

Se para são independentes , então . O inverso é o teorema de Raikov , que diz que se a soma de duas variáveis ​​aleatórias independentes é distribuída por Poisson, então cada uma dessas duas variáveis ​​aleatórias independentes também o é.

Outras propriedades

  • As distribuições de Poisson são distribuições de probabilidade infinitamente divisíveis .
  • A divergência dirigida de Kullback-Leibler de de é dada por
  • Os limites para as probabilidades de cauda de uma variável aleatória de Poisson podem ser derivados usando um argumento de limite de Chernoff .
,
  • A probabilidade da cauda superior pode ser reduzida (por um fator de pelo menos dois) da seguinte forma:
onde está a divergência Kullback-Leibler direcionada, conforme descrito acima.
  • As desigualdades que relacionam a função de distribuição de uma variável aleatória de Poisson à função de distribuição normal padrão são as seguintes:
onde está novamente a divergência Kullback-Leibler dirigida.

Corridas de Poisson

Sejam e sejam variáveis ​​aleatórias independentes, com , então temos que

O limite superior é provado usando um limite de Chernoff padrão.

O limite inferior pode ser provado observando que é a probabilidade de que , onde , que é limitado abaixo por , onde é entropia relativa (consulte a entrada sobre limites nas caudas das distribuições binomiais para obter detalhes). Além disso, observando isso , e computando um limite inferior na probabilidade incondicional dá o resultado. Mais detalhes podem ser encontrados no apêndice de Kamath et al. .

Distribuições relacionadas

Em geral

  • Se e forem independentes, a diferença segue uma distribuição Skellam .
  • Se e forem independentes, então a distribuição de condicional em é uma distribuição binomial .
Especificamente, se , então .
Mais geralmente, se X 1 , X 2 , ..., X n são variáveis ​​aleatórias de Poisson independentes com parâmetros λ 1 , λ 2 , ..., λ n então
dado que segue isso . Na verdade ,.
  • Se e a distribuição de , condicional em X  =  k , é uma distribuição binomial , , em seguida, a distribuição de Y segue uma distribuição de Poisson . De facto, se , condicional em X = k, segue uma distribuição multinominal , , em seguida, cada segue uma distribuição de Poisson independente .
  • A distribuição de Poisson pode ser derivada como um caso limite para a distribuição binomial, pois o número de tentativas vai ao infinito e o número esperado de sucessos permanece fixo - veja a lei dos eventos raros abaixo. Portanto, pode ser usado como uma aproximação da distribuição binomial se n for suficientemente grande e p for suficientemente pequeno. Existe uma regra prática afirmando que a distribuição de Poisson é uma boa aproximação da distribuição binomial se n for pelo menos 20 e p for menor ou igual a 0,05, e uma aproximação excelente se n  ≥ 100 e np  ≤ 10.
  • A distribuição de Poisson é um caso especial da distribuição de Poisson composta discreta (ou distribuição de Poisson com gagueira) com apenas um parâmetro. A distribuição de Poisson composta discreta pode ser deduzida da distribuição limite da distribuição multinomial univariada. É também um caso especial de distribuição de Poisson composta .
  • Para valores suficientemente grandes de λ, (digamos λ> 1000), a distribuição normal com média λ e variância λ (desvio padrão ) é uma excelente aproximação da distribuição de Poisson. Se λ for maior que cerca de 10, então a distribuição normal é uma boa aproximação se uma correção de continuidade apropriada for realizada, ou seja, se P ( X  ≤  x ), onde x é um número inteiro não negativo, é substituído por P ( X  ≤  x  + 0,5).
,
e
.
Sob essa transformação, a convergência para a normalidade (conforme aumenta) é muito mais rápida do que a variável não transformada. Outras transformações de estabilização de variância, um pouco mais complicadas, estão disponíveis, uma das quais é a transformada de Anscombe . Consulte Transformação de dados (estatísticas) para usos mais gerais de transformações.
  • Se para cada t  > 0 o número de chegadas no intervalo de tempo [0,  t ] segue a distribuição de Poisson com média λt , então a sequência de tempos entre chegadas são variáveis ​​aleatórias exponenciais independentes e identicamente distribuídas com média 1 / λ .
  • As funções de distribuição cumulativa das distribuições de Poisson e qui-quadrado estão relacionadas das seguintes maneiras:
e

Aproximação de Poisson

Suponha onde , então, é multinomialmente distribuído condicionado .

Isso significa, entre outras coisas, que para qualquer função não negativa , se for multinomialmente distribuída, então

onde .

O fator de pode ser substituído por 2 se, além disso, for assumido que está aumentando ou diminuindo monotonicamente.

Distribuição bivariada de Poisson

Essa distribuição foi estendida ao caso bivariado . A função geradora para esta distribuição é

com

As distribuições marginais são Poisson ( θ 1 ) e Poisson ( θ 2 ) e o coeficiente de correlação é limitado ao intervalo

Uma maneira simples de gerar uma distribuição de Poisson bivariada é pegar três distribuições de Poisson independentes com médias e depois definir . A função de probabilidade da distribuição bivariada de Poisson é

Distribuição Poisson Livre

A distribuição de Poisson livre com tamanho e taxa de salto surge na teoria da probabilidade livre como o limite da convolução livre repetida

como N  → ∞.

Em outras palavras, sejam variáveis ​​aleatórias de forma que tenha valor com probabilidade e valor 0 com probabilidade restante. Suponha também que a família é livremente independente . Então o limite da lei de é dado pela lei de Poisson de Free com parâmetros .

Esta definição é análoga a uma das maneiras pelas quais a distribuição de Poisson clássica é obtida de um processo de Poisson (clássico).

A medida associada à lei de Poisson livre é dada por

Onde

e tem suporte .

Essa lei também surge na teoria da matriz aleatória como a lei Marchenko-Pastur . Seus cumulantes livres são iguais a .

Algumas transformações desta lei

Fornecemos valores de algumas transformações importantes da lei de Poisson livre; o cálculo pode ser encontrado, por exemplo, no livro Lectures on the Combinatorics of Free Probability de A. Nica e R. Speicher

A transformada R da lei de Poisson livre é dada por

A transformação de Cauchy (que é o negativo da transformação de Stieltjes ) é dada por

A transformada S é dada por

no caso disso .

Inferência estatística

Estimativa de parâmetro

Dada uma amostra de n valores medidos , para i  = 1, ...,  n , desejamos estimar o valor do parâmetro λ da população de Poisson da qual a amostra foi retirada. A estimativa de máxima verossimilhança é

Uma vez que cada observação tem expectativa λ, a média da amostra também. Portanto, a estimativa de máxima verossimilhança é um estimador imparcial de λ. É também um estimador eficiente, pois sua variância atinge o limite inferior de Cramér-Rao (CRLB). Portanto, é imparcial de variação mínima . Também pode ser provado que a soma (e, portanto, a média da amostra, pois é uma função um-para-um da soma) é uma estatística completa e suficiente para λ.

Para provar a suficiência, podemos usar o teorema da fatoração . Considere particionar a função de massa de probabilidade da distribuição de Poisson conjunta para a amostra em duas partes: uma que depende exclusivamente da amostra (chamada ) e outra que depende do parâmetro e a amostra apenas por meio da função . Então é uma estatística suficiente para .

O primeiro termo ,, depende apenas de . O segundo termo ,, depende da amostra apenas por meio de . Portanto, é suficiente.

Para encontrar o parâmetro λ que maximiza a função de probabilidade para a população de Poisson, podemos usar o logaritmo da função de verossimilhança:

Pegamos a derivada de em relação a λ e a comparamos com zero:

Resolver λ fornece um ponto estacionário.

Portanto, λ é a média dos valores de k i . A obtenção do sinal da segunda derivada de L no ponto estacionário determinará que tipo de valor extremo λ é.

Avaliar a segunda derivada no ponto estacionário dá:

que é o negativo de n vezes o recíproco da média de k i . Esta expressão é negativa quando a média é positiva. Se isso for satisfeito, o ponto estacionário maximiza a função de probabilidade.

Para ser completo , uma família de distribuições é considerada completa se e somente se implica isso para todos . Se o indivíduo for iid , então . Sabendo a distribuição que queremos investigar, é fácil ver que a estatística está completa.

Para que essa igualdade seja mantida, deve ser 0. Isso decorre do fato de que nenhum dos outros termos será 0 para todos na soma e para todos os valores possíveis de . Conseqüentemente, for all implica isso , e a estatística mostrou-se completa.

Intervalo de confiança

O intervalo de confiança para a média de uma distribuição de Poisson pode ser expresso usando a relação entre as funções de distribuição cumulativa das distribuições de Poisson e qui-quadrado . A distribuição qui-quadrada está intimamente relacionada à distribuição gama , e isso leva a uma expressão alternativa. Dada uma observação k de uma distribuição de Poisson com média μ , um intervalo de confiança para μ com nível de confiança 1 - α é

ou equivalente,

onde é a função de quantil (correspondendo a uma área da cauda inferior p ) da distribuição qui-quadrada com n graus de liberdade e é a função de quantil de uma distribuição gama com parâmetro de forma ne parâmetro de escala 1. Este intervalo é ' exato ' em no sentido de que sua probabilidade de cobertura nunca é menor do que 1 nominal - α .

Quando os quantis da distribuição gama não estão disponíveis, uma aproximação precisa para este intervalo exato foi proposta (com base na transformação de Wilson-Hilferty ):

onde denota o desvio normal padrão com área da cauda superior α / 2 .

Para a aplicação dessas fórmulas no mesmo contexto acima (dada uma amostra de n valores medidos k i, cada um extraído de uma distribuição de Poisson com média λ ), seria definido

calcule um intervalo para μ  =  e, em seguida, derive o intervalo para λ .

Inferência bayesiana

Na inferência bayesiana , o conjugado anterior para o parâmetro de taxa λ da distribuição de Poisson é a distribuição gama . Deixar

denotam que λ é distribuído de acordo com a densidade gama g parametrizada em termos de um parâmetro de forma α e um parâmetro de escala inversa β :

Então, dada a mesma amostra de n valores medidos k i como antes , e uma anterior de Gama ( α , β ), a distribuição posterior é

A média posterior E [ λ ] se aproxima da estimativa de máxima verossimilhança no limite como , que segue imediatamente da expressão geral da média da distribuição gama .

A distribuição preditiva posterior para uma única observação adicional é uma distribuição binomial negativa , às vezes chamada de distribuição gama – Poisson.

Estimativa simultânea de múltiplas médias de Poisson

Suponha que é um conjunto de variáveis aleatórias independentes de um conjunto de distribuições de Poisson, cada um com um parâmetro , e gostaríamos de estimar esses parâmetros. Em seguida, Clevenson e Zidek mostram que sob a perda de erro quadrático normalizado , quando , então, semelhante ao exemplo de Stein para as médias normais, o estimador MLE é inadmissível .

Neste caso, uma família de estimadores minimax é dada para qualquer e como

Ocorrência e aplicações

As aplicações da distribuição de Poisson podem ser encontradas em muitos campos, incluindo:

A distribuição de Poisson surge em conexão com os processos de Poisson. Aplica-se a vários fenômenos de propriedades discretas (ou seja, aqueles que podem acontecer 0, 1, 2, 3, ... vezes durante um determinado período de tempo ou em uma determinada área) sempre que a probabilidade de o fenômeno acontecer é constante em tempo ou espaço . Exemplos de eventos que podem ser modelados como uma distribuição de Poisson incluem:

  • O número de soldados mortos por chutes de cavalo a cada ano em cada corpo da cavalaria prussiana . Este exemplo foi usado em um livro de Ladislaus Bortkiewicz (1868–1931).
  • O número de células de levedura usadas na fabricação da cerveja Guinness . Este exemplo foi usado por William Sealy Gosset (1876–1937).
  • O número de chamadas que chegam em uma central de atendimento em um minuto. Este exemplo foi descrito por AK Erlang (1878–1929).
  • Tráfego de internet.
  • O número de gols em esportes envolvendo duas equipes concorrentes.
  • O número de mortes por ano em uma determinada faixa etária.
  • O número de saltos no preço de uma ação em um determinado intervalo de tempo.
  • Partindo do pressuposto de homogeneidade , o número de vezes que um servidor da web é acessado por minuto.
  • O número de mutações em um determinado trecho de DNA após uma certa quantidade de radiação.
  • A proporção de células que serão infectadas em uma dada multiplicidade de infecção .
  • O número de bactérias em uma certa quantidade de líquido.
  • A chegada de fótons em um circuito de pixel em uma determinada iluminação e durante um determinado período de tempo.
  • O alvo das bombas voadoras V-1 em Londres durante a Segunda Guerra Mundial investigado por RD Clarke em 1946.

Gallagher mostrou em 1976 que as contagens de números primos em intervalos curtos obedecem a uma distribuição de Poisson, desde que uma certa versão da conjectura r-tupla não comprovada de Hardy-Littlewood seja verdadeira.

Lei dos eventos raros

Comparação da distribuição de Poisson (linhas pretas) e da distribuição binomial com n  = 10 (círculos vermelhos), n  = 20 (círculos azuis), n  = 1000 (círculos verdes). Todas as distribuições têm uma média de 5. O eixo horizontal mostra o número de eventos  k . À medida que n fica maior, a distribuição de Poisson se torna uma aproximação cada vez melhor para a distribuição binomial com a mesma média.

A taxa de um evento está relacionada à probabilidade de um evento ocorrer em algum pequeno subintervalo (de tempo, espaço ou outro). No caso da distribuição de Poisson, assume-se que existe um subintervalo suficientemente pequeno para o qual a probabilidade de um evento ocorrer duas vezes é "desprezível". Com essa suposição, pode-se derivar a distribuição de Poisson da Binomial, dada apenas a informação do número esperado de eventos totais em todo o intervalo.

Seja o número total de eventos em todo o intervalo denotado por . Divida todo o intervalo em subintervalos de igual tamanho, de modo que > (visto que estamos interessados ​​apenas em porções muito pequenas do intervalo, essa suposição é significativa). Isso significa que o número esperado de eventos em cada um dos n subintervalos é igual a .

Agora assumimos que a ocorrência de um evento em todo o intervalo pode ser vista como uma sequência de n tentativas de Bernoulli , onde a tentativa de Bernoulli corresponde a verificar se um evento acontece no subintervalo com probabilidade . O número esperado de eventos totais em tais tentativas seria o número esperado de eventos totais em todo o intervalo. Portanto, para cada subdivisão do intervalo, aproximamos a ocorrência do evento como um processo de Bernoulli da forma . Como observamos antes, queremos considerar apenas subintervalos muito pequenos. Portanto, consideramos o limite até o infinito.

Nesse caso, a distribuição binomial converge para o que é conhecido como distribuição de Poisson pelo teorema do limite de Poisson .

Em vários dos exemplos acima, como o número de mutações em uma determinada sequência de DNA, os eventos sendo contados são na verdade os resultados de testes discretos e seriam mais precisamente modelados usando a distribuição binomial , isto é

Em tais casos, n é muito grande e p é muito pequeno (e, portanto, a expectativa np é de magnitude intermediária). Então, a distribuição pode ser aproximada pela distribuição de Poisson menos incômoda

Essa aproximação é às vezes conhecida como a lei dos eventos raros , uma vez que cada um dos n eventos de Bernoulli individuais raramente ocorre.

O nome "lei dos eventos raros" pode ser enganoso porque a contagem total de eventos de sucesso em um processo de Poisson não precisa ser raro se o parâmetro np não for pequeno. Por exemplo, o número de chamadas telefônicas para uma central ocupada em uma hora segue uma distribuição de Poisson com os eventos aparecendo frequentes para a operadora, mas são raros do ponto de vista do membro médio da população que é muito improvável de fazer uma chamada para aquela mesa telefônica naquela hora.

A variância da distribuição binomial é 1 - p vezes a da distribuição de Poisson, então quase igual quando p é muito pequeno.

A palavra lei é às vezes usada como sinônimo de distribuição de probabilidade , e convergência na lei significa convergência na distribuição . Consequentemente, a distribuição de Poisson às vezes é chamada de "lei dos pequenos números" porque é a distribuição de probabilidade do número de ocorrências de um evento que acontece raramente, mas tem muitas oportunidades de acontecer. A Lei dos Pequenos Números é um livro de Ladislaus Bortkiewicz sobre a distribuição de Poisson, publicado em 1898.

Processo de ponto de Poisson

A distribuição de Poisson surge como o número de pontos de um processo de pontos de Poisson localizados em alguma região finita. Mais especificamente, se D é algum espaço de região, por exemplo o espaço euclidiano R d , para o qual | D |, a área, o volume ou, mais geralmente, a medida de Lebesgue da região é finita, e se N ( D ) denota o número de pontos em D , então

Regressão de Poisson e regressão binomial negativa

A regressão de Poisson e a regressão binomial negativa são úteis para análises em que a variável dependente (resposta) é a contagem (0, 1, 2, ...) do número de eventos ou ocorrências em um intervalo.

Outras aplicações na ciência

Em um processo de Poisson, o número de ocorrências observadas flutua em torno de sua média λ com um desvio padrão . Essas flutuações são denotadas como ruído de Poisson ou (particularmente na eletrônica) como ruído de disparo .

A correlação da média e do desvio padrão na contagem de ocorrências discretas independentes é útil cientificamente. Ao monitorar como as flutuações variam com o sinal médio, pode-se estimar a contribuição de uma única ocorrência, mesmo que essa contribuição seja muito pequena para ser detectada diretamente . Por exemplo, a carga e em um elétron pode ser estimada correlacionando a magnitude de uma corrente elétrica com seu ruído de disparo . Se N elétrons passarem por um ponto em um determinado tempo t em média, a corrente média é ; uma vez que as flutuações de corrente devem ser da ordem (ou seja, o desvio padrão do processo de Poisson ), a carga pode ser estimada a partir da razão .

Um exemplo do dia-a-dia é a granulação que aparece quando as fotos são ampliadas; a granulação se deve às flutuações de Poisson no número de grãos de prata reduzidos , não aos próprios grãos individuais. Ao correlacionar a granulação com o grau de alargamento, pode-se estimar a contribuição de um grão individual (que de outra forma é muito pequeno para ser visto sem ajuda). Muitas outras aplicações moleculares do ruído de Poisson foram desenvolvidas, por exemplo, estimando a densidade do número de moléculas receptoras em uma membrana celular .

Na teoria do Conjunto Causal , os elementos discretos do espaço-tempo seguem uma distribuição de Poisson no volume.

Métodos computacionais

A distribuição de Poisson apresenta duas tarefas diferentes para bibliotecas de software dedicadas: Avaliar a distribuição e desenhar números aleatórios de acordo com essa distribuição.

Avaliando a distribuição de Poisson

Computando para dados e é uma tarefa trivial que pode ser realizada usando a definição padrão de em termos de funções exponenciais, de potência e fatoriais. No entanto, a definição convencional da distribuição de Poisson contém dois termos que podem facilmente transbordar em computadores: λ k e k ! A fração de λ k para k ! também pode produzir um erro de arredondamento que é muito grande em comparação com e −λ e, portanto, fornecer um resultado incorreto. Para estabilidade numérica, a função de massa de probabilidade de Poisson deve, portanto, ser avaliada como

que é matematicamente equivalente, mas numericamente estável. O logaritmo natural da função Gamma pode ser obtido usando a lgammafunção na biblioteca padrão C (versão C99) ou R , a gammalnfunção em MATLAB ou SciPy , ou a log_gammafunção em Fortran 2008 e posterior.

Algumas linguagens de computação fornecem funções integradas para avaliar a distribuição de Poisson, a saber

  • R : função dpois(x, lambda);
  • Excel : função POISSON( x, mean, cumulative), com uma bandeira para especificar a distribuição cumulativa;
  • Mathematica : distribuição de Poisson univariada como , distribuição de Poisson bivariada como ,.PoissonDistribution[]MultivariatePoissonDistribution[,{ , }]

Desenho aleatório da distribuição de Poisson

A tarefa menos trivial é extrair inteiros aleatórios da distribuição de Poisson com dados .

As soluções são fornecidas por:

Gerando variáveis ​​aleatórias distribuídas por Poisson

Um algoritmo simples para gerar números aleatórios distribuídos de Poisson ( amostragem de número pseudo-aleatório ) foi fornecido por Knuth :

algorithm poisson random number (Knuth):
    init:
        Let L ← e−λ, k ← 0 and p ← 1.
    do:
        k ← k + 1.
        Generate uniform random number u in [0,1] and let p ← p × u.
    while p > L.
    return k − 1.

A complexidade é linear no valor retornado k , que é λ em média. Existem muitos outros algoritmos para melhorar isso. Alguns são fornecidos em Ahrens & Dieter, consulte § Referências abaixo.

Para grandes valores de λ, o valor de L = e −λ pode ser tão pequeno que é difícil representá-lo. Isso pode ser resolvido por uma mudança no algoritmo que usa um parâmetro adicional STEP de modo que o e −STEP não subestime :

algorithm poisson random number (Junhao, based on Knuth):
    init:
        Let λLeft ← λ, k ← 0 and p ← 1.
    do:
        k ← k + 1.
        Generate uniform random number u in (0,1) and let p ← p × u.
        while p < 1 and λLeft > 0:
            if λLeft > STEP:
                p ← p × eSTEP
                λLeft ← λLeft − STEP
            else:
                p ← p × eλLeft
                λLeft ← 0
    while p > 1.
    return k − 1.

A escolha de STEP depende do limite de estouro. Para formato de ponto flutuante de precisão dupla, o limite é próximo a e 700 , então 500 deve ser um STEP seguro .

Outras soluções para grandes valores de λ incluem a amostragem de rejeição e o uso da aproximação de Gauss.

A amostragem por transformada inversa é simples e eficiente para pequenos valores de λ e requer apenas um número aleatório uniforme u por amostra. Probabilidades cumulativas são examinadas sucessivamente até que um exceda u .

algorithm Poisson generator based upon the inversion by sequential search:
    init:
        Let x ← 0, p ← e−λ, s ← p.
        Generate uniform random number u in [0,1].
    while u > s do:
        x ← x + 1.
        p ← p × λ / x.
        s ← s + p.
    return x.

História

A distribuição foi introduzida pela primeira vez por Siméon Denis Poisson (1781-1840) e publicada junto com sua teoria da probabilidade em seu trabalho Recherches sur la probabilité des jugements en matière criminelle et en matière civile (1837). O trabalho teorizou sobre o número de condenações ilícitas em um determinado país, concentrando-se em certas variáveis ​​aleatórias N que contam, entre outras coisas, o número de ocorrências discretas (às vezes chamadas de "eventos" ou "chegadas") que ocorrem durante um tempo - intervalo de determinado comprimento. O resultado já havia sido dado em 1711 por Abraham de Moivre em De Mensura Sortis seu; de Probabilitate Eventuum em Ludis a Casu Fortuito Pendentibus . Isso o torna um exemplo da lei de Stigler e levou alguns autores a argumentar que a distribuição de Poisson deveria levar o nome de de Moivre.

Em 1860, Simon Newcomb ajustou a distribuição de Poisson ao número de estrelas encontradas em uma unidade de espaço. Uma aplicação prática adicional dessa distribuição foi feita por Ladislaus Bortkiewicz em 1898, quando ele recebeu a tarefa de investigar o número de soldados do exército prussiano mortos acidentalmente por chutes de cavalo; este experimento introduziu a distribuição de Poisson no campo da engenharia de confiabilidade .

Veja também

Referências

Citações

Fontes