Estimador consistente - Consistent estimator

{ T 1 , T 2 , T 3 , ...} é uma sequência de estimadores para o parâmetro θ 0 , o valor verdadeiro do qual é 4. Esta sequência é consistente: os estimadores estão cada vez mais concentrados perto do valor verdadeiro θ 0 ; ao mesmo tempo, esses estimadores são enviesados. A distribuição limite da sequência é uma variável aleatória degenerada que é igual a θ 0 com probabilidade 1.

Em estatística , um estimador consistente ou estimador assintoticamente consistente é um estimador - uma regra para calcular estimativas de um parâmetro θ 0 - tendo a propriedade de que conforme o número de pontos de dados usados ​​aumenta indefinidamente, a sequência resultante de estimativas converge em probabilidade para θ 0 . Isso significa que as distribuições das estimativas tornam-se cada vez mais concentradas perto do valor verdadeiro do parâmetro sendo estimado, de modo que a probabilidade de o estimador estar arbitrariamente próximo de θ 0 converge para um.

Na prática, constrói-se um estimador em função de uma amostra disponível de tamanho n , e então se imagina ser capaz de continuar coletando dados e expandindo a amostra ad infinitum . Dessa forma, obter-se-ia uma sequência de estimativas indexadas por n , e a consistência é uma propriedade do que ocorre à medida que o tamanho da amostra “cresce até o infinito”. Se a sequência de estimativas pode ser matematicamente mostrada para convergir em probabilidade para o valor verdadeiro θ 0 , é chamado de estimador consistente; caso contrário, o estimador é considerado inconsistente .

A consistência, conforme definida aqui, às vezes é chamada de consistência fraca . Quando substituímos a convergência em probabilidade por uma convergência quase certa , o estimador é considerado fortemente consistente . A consistência está relacionada ao viés ; veja preconceito versus consistência .

Definição

Falando formalmente, um estimador T n do parâmetro θ é considerado consistente , se convergir em probabilidade para o valor verdadeiro do parâmetro:

ou seja, se, para todo ε > 0

Uma definição mais rigorosa leva em consideração o fato de que θ é realmente desconhecido e, portanto, a convergência em probabilidade deve ocorrer para todos os valores possíveis deste parâmetro. Suponha que { p θ : θ  ∈ Θ } é uma família de distribuições (o modelo paramétrico ), e X θ = { X 1 , X 2 ,…: X i ~ p θ } é uma amostra infinita da distribuição p θ . Seja {  T n ( X θ )} uma sequência de estimadores para algum parâmetro g ( θ ). Normalmente, T n será baseado nas primeiras n observações de uma amostra. Então esta sequência { T n } é dita (fracamente) consistente se

Esta definição usa g ( θ ) em vez de simplesmente θ , porque frequentemente alguém está interessado em estimar uma determinada função ou um sub-vetor do parâmetro subjacente. No próximo exemplo, estimamos o parâmetro de localização do modelo, mas não a escala:

Exemplos

Média da amostra de uma variável aleatória normal

Suponha que se tenha uma sequência de observações { X 1 , X 2 , ...} de uma distribuição normal N ( μ ,  σ 2 ) . Para estimar μ com base nas primeiras n observações, pode-se usar a média da amostra : T n  = ( X 1 + ... + X n ) / n . Isso define uma sequência de estimadores, indexados pelo tamanho da amostra n .

A partir das propriedades da distribuição normal, sabemos a distribuição amostral dessa estatística: T n é ele próprio normalmente distribuído, com média μ e variância σ 2 / n . Equivalentemente, tem uma distribuição normal padrão:

como n tende ao infinito, para qualquer ε > 0 fixo . Portanto, a sequência T n das médias da amostra é consistente com a média da população  μ (lembrando que é a distribuição cumulativa da distribuição normal).

Estabelecendo consistência

A noção de consistência assintótica é muito próxima, quase sinônima da noção de convergência em probabilidade. Como tal, qualquer teorema, lema ou propriedade que estabeleça convergência em probabilidade pode ser usado para provar a consistência. Existem muitas dessas ferramentas:

  • A fim de demonstrar consistência diretamente da definição, pode-se usar a desigualdade

a escolha mais comum para a função h sendo o valor absoluto (nesse caso, é conhecido como desigualdade de Markov ) ou a função quadrática (respectivamente a desigualdade de Chebyshev ).

  • Outro resultado útil é o teorema de mapeamento contínuo : se T n é consistente para θ e g (·) é uma função de valor real contínua no ponto θ , então g ( T n ) será consistente para g ( θ ):
  • O teorema de Slutsky pode ser usado para combinar vários estimadores diferentes, ou um estimador com uma sequência convergente não aleatória. Se T n  → d α , e S n  → p β , então
  • Se o estimador T n for dado por uma fórmula explícita, então muito provavelmente a fórmula empregará somas de variáveis ​​aleatórias, e então a lei dos grandes números pode ser usada: para uma sequência { X n } de variáveis ​​aleatórias e sob condições adequadas,
  • Se o estimador T n for definido implicitamente, por exemplo, como um valor que maximiza certa função objetivo (ver estimador extremo ), então um argumento mais complicado envolvendo equicontinuidade estocástica deve ser usado.

Viés versus consistência

Imparcial, mas não consistente

Um estimador pode ser imparcial, mas não consistente. Por exemplo, para uma amostra iid { x
1
, ..., x
n
} pode-se usar T
n
( X ) = x
n
como o estimador da média E [ x ]. Observe que aqui a distribuição amostral de T
n
é o mesmo que a distribuição subjacente (para qualquer n, uma vez que ignora todos os pontos exceto o último), então E [ T
n
( X )] = E [ x ] e é imparcial, mas não converge para nenhum valor.

No entanto, se uma sequência de estimadores é imparcial e converge para um valor, ela é consistente, pois deve convergir para o valor correto.

Tendencioso, mas consistente

Alternativamente, um estimador pode ser tendencioso, mas consistente. Por exemplo, se a média é estimada por ela é enviesada, mas à medida que se aproxima do valor correto, e por isso é consistente.

Exemplos importantes incluem a variação da amostra e o desvio padrão da amostra . Sem a correção de Bessel (ou seja, ao usar o tamanho da amostra em vez dos graus de liberdade ), ambos são estimadores com viés negativo, mas consistentes. Com a correção, a variância da amostra corrigida é enviesada, enquanto o desvio padrão da amostra corrigida ainda é enviesado, mas menos, e ambos ainda são consistentes: o fator de correção converge para 1 conforme o tamanho da amostra aumenta.

Aqui está outro exemplo. Let Ser uma seqüência de estimadores para .

Podemos ver isso , e o viés não converge para zero.

Veja também

Notas

Referências

  • Amemiya, Takeshi (1985). Econometria avançada . Harvard University Press . ISBN 0-674-00560-0.
  • Lehmann, EL ; Casella, G. (1998). Teoria da estimativa de pontos (2ª ed.). Springer. ISBN 0-387-98502-6.
  • Newey, WK; McFadden, D. (1994). "Capítulo 36: Estimativa de grandes amostras e teste de hipóteses". Em Robert F. Engle; Daniel L. McFadden (eds.). Handbook of Econometrics . 4 . Elsevier Science. ISBN 0-444-88766-0. S2CID  29436457 .
  • Nikulin, MS (2001) [1994], "Consistent estimator" , Encyclopedia of Mathematics , EMS Press
  • Sober, E. (1988), "Likelihood and convergence", Philosophy of Science , 55 (2): 228-237, doi : 10.1086 / 289429.

links externos