Método Delta - Delta method

Em estatística , o método delta é um resultado relativo à distribuição de probabilidade aproximada para uma função de um estimador estatístico assintoticamente normal a partir do conhecimento da variância limite desse estimador.

História

O método delta foi derivado da propagação do erro , e a ideia por trás disso era conhecida no início do século XIX. Sua aplicação estatística pode ser rastreada já em 1928 por TL Kelley . Uma descrição formal do método foi apresentada por JL Doob em 1935. Robert Dorfman também descreveu uma versão dele em 1938.

Método delta univariado

Enquanto o método delta se generaliza facilmente para uma configuração multivariada, a motivação cuidadosa da técnica é mais facilmente demonstrada em termos univariados. Grosso modo, se houver uma sequência de variáveis ​​aleatórias X n satisfatória

onde θ e σ 2 são constantes de valor finito e denotam convergência na distribuição , então

para qualquer função g que satisfaça a propriedade de que g ′ ( θ ) existe e tem valor diferente de zero.

Prova no caso univariado

A demonstração desse resultado é bastante direta sob a suposição de que g ′ ( θ ) é contínuo . Para começar, usamos o teorema do valor médio (ou seja: a aproximação de primeira ordem de uma série de Taylor usando o teorema de Taylor ):

onde fica entre X n e θ . Observe que, uma vez que e , deve ser que e uma vez que g ′ ( θ ) é contínuo, aplicando o teorema de mapeamento contínuo resulta

onde denota convergência em probabilidade .

Reorganizar os termos e multiplicar por dá

Desde a

por suposição, segue-se imediatamente do apelo ao teorema de Slutsky que

Isso conclui a prova.

Prova com uma ordem explícita de aproximação

Alternativamente, pode-se adicionar mais uma etapa no final, para obter a ordem de aproximação :

Isso sugere que o erro na aproximação converge para 0 na probabilidade.

Método delta multivariado

Por definição, um estimador B consistente converge em probabilidade para seu valor verdadeiro β , e muitas vezes um teorema do limite central pode ser aplicado para obter normalidade assintótica :

onde n é o número de observações e Σ é uma matriz de covariância (simétrica positiva semidefinida). Suponha que queremos estimar a variação de uma função com valor escalar h do estimador B . Mantendo apenas os dois primeiros termos da série de Taylor , e usando notação vetorial para o gradiente , podemos estimar h (B) como

o que implica que a variância de h (B) é aproximadamente

Pode-se usar o teorema do valor médio (para funções de valor real de muitas variáveis) para ver que isso não depende de uma aproximação de primeira ordem.

O método delta, portanto, implica que

ou em termos univariados,

Exemplo: a proporção binomial

Suponha que X n seja binomial com parâmetros e n . Desde a

podemos aplicar o método Delta com g ( θ ) = log ( θ ) para ver

Portanto, mesmo que para qualquer n finito , a variância de não exista de fato (uma vez que X n pode ser zero), a variância assintótica de existe e é igual a

Observe que, como p> 0 , as , então com probabilidade convergindo para um, é finito para n grande .

Além disso, se e são estimativas de taxas de grupo diferentes de amostras independentes de tamanhos n e m respectivamente, então o logaritmo do risco relativo estimado tem variância assintótica igual a

Isso é útil para construir um teste de hipótese ou para fazer um intervalo de confiança para o risco relativo.

Forma alternativa

O método delta é freqüentemente usado em uma forma que é essencialmente idêntica àquela acima, mas sem a suposição de que X n ou B seja assintoticamente normal. Freqüentemente, o único contexto é que a variação é "pequena". Os resultados então fornecem apenas aproximações para as médias e covariâncias das quantidades transformadas. Por exemplo, as fórmulas apresentadas em Klein (1953, p. 258) são:

onde h r é o r th elemento de h ( B ) e B i é o i -ésimo elemento de B .

Método delta de segunda ordem

Quando g ′ ( θ ) = 0, o método delta não pode ser aplicado. No entanto, se g ′ ′ ( θ ) existe e não é zero, o método delta de segunda ordem pode ser aplicado. Pela expansão de Taylor,, de forma que a variância de depende até o 4º momento de .

O método delta de segunda ordem também é útil para conduzir uma aproximação mais precisa da distribuição de quando o tamanho da amostra é pequeno. . Por exemplo, quando segue a distribuição normal padrão, pode ser aproximado como a soma ponderada de um normal padrão e um qui-quadrado com grau de liberdade de 1.

Veja também

Referências

Leitura adicional

links externos