Estimador consistente - Consistent estimator
Em estatística , um estimador consistente ou estimador assintoticamente consistente é um estimador - uma regra para calcular estimativas de um parâmetro θ 0 - tendo a propriedade de que conforme o número de pontos de dados usados aumenta indefinidamente, a sequência resultante de estimativas converge em probabilidade para θ 0 . Isso significa que as distribuições das estimativas tornam-se cada vez mais concentradas perto do valor verdadeiro do parâmetro sendo estimado, de modo que a probabilidade de o estimador estar arbitrariamente próximo de θ 0 converge para um.
Na prática, constrói-se um estimador em função de uma amostra disponível de tamanho n , e então se imagina ser capaz de continuar coletando dados e expandindo a amostra ad infinitum . Dessa forma, obter-se-ia uma sequência de estimativas indexadas por n , e a consistência é uma propriedade do que ocorre à medida que o tamanho da amostra “cresce até o infinito”. Se a sequência de estimativas pode ser matematicamente mostrada para convergir em probabilidade para o valor verdadeiro θ 0 , é chamado de estimador consistente; caso contrário, o estimador é considerado inconsistente .
A consistência, conforme definida aqui, às vezes é chamada de consistência fraca . Quando substituímos a convergência em probabilidade por uma convergência quase certa , o estimador é considerado fortemente consistente . A consistência está relacionada ao viés ; veja preconceito versus consistência .
Definição
Falando formalmente, um estimador T n do parâmetro θ é considerado consistente , se convergir em probabilidade para o valor verdadeiro do parâmetro:
ou seja, se, para todo ε > 0
Uma definição mais rigorosa leva em consideração o fato de que θ é realmente desconhecido e, portanto, a convergência em probabilidade deve ocorrer para todos os valores possíveis deste parâmetro. Suponha que { p θ : θ ∈ Θ } é uma família de distribuições (o modelo paramétrico ), e X θ = { X 1 , X 2 ,…: X i ~ p θ } é uma amostra infinita da distribuição p θ . Seja { T n ( X θ )} uma sequência de estimadores para algum parâmetro g ( θ ). Normalmente, T n será baseado nas primeiras n observações de uma amostra. Então esta sequência { T n } é dita (fracamente) consistente se
Esta definição usa g ( θ ) em vez de simplesmente θ , porque frequentemente alguém está interessado em estimar uma determinada função ou um sub-vetor do parâmetro subjacente. No próximo exemplo, estimamos o parâmetro de localização do modelo, mas não a escala:
Exemplos
Média da amostra de uma variável aleatória normal
Suponha que se tenha uma sequência de observações { X 1 , X 2 , ...} de uma distribuição normal N ( μ , σ 2 ) . Para estimar μ com base nas primeiras n observações, pode-se usar a média da amostra : T n = ( X 1 + ... + X n ) / n . Isso define uma sequência de estimadores, indexados pelo tamanho da amostra n .
A partir das propriedades da distribuição normal, sabemos a distribuição amostral dessa estatística: T n é ele próprio normalmente distribuído, com média μ e variância σ 2 / n . Equivalentemente, tem uma distribuição normal padrão:
como n tende ao infinito, para qualquer ε > 0 fixo . Portanto, a sequência T n das médias da amostra é consistente com a média da população μ (lembrando que é a distribuição cumulativa da distribuição normal).
Estabelecendo consistência
A noção de consistência assintótica é muito próxima, quase sinônima da noção de convergência em probabilidade. Como tal, qualquer teorema, lema ou propriedade que estabeleça convergência em probabilidade pode ser usado para provar a consistência. Existem muitas dessas ferramentas:
- A fim de demonstrar consistência diretamente da definição, pode-se usar a desigualdade
a escolha mais comum para a função h sendo o valor absoluto (nesse caso, é conhecido como desigualdade de Markov ) ou a função quadrática (respectivamente a desigualdade de Chebyshev ).
- Outro resultado útil é o teorema de mapeamento contínuo : se T n é consistente para θ e g (·) é uma função de valor real contínua no ponto θ , então g ( T n ) será consistente para g ( θ ):
- O teorema de Slutsky pode ser usado para combinar vários estimadores diferentes, ou um estimador com uma sequência convergente não aleatória. Se T n → d α , e S n → p β , então
- Se o estimador T n for dado por uma fórmula explícita, então muito provavelmente a fórmula empregará somas de variáveis aleatórias, e então a lei dos grandes números pode ser usada: para uma sequência { X n } de variáveis aleatórias e sob condições adequadas,
- Se o estimador T n for definido implicitamente, por exemplo, como um valor que maximiza certa função objetivo (ver estimador extremo ), então um argumento mais complicado envolvendo equicontinuidade estocástica deve ser usado.
Viés versus consistência
Imparcial, mas não consistente
Um estimador pode ser imparcial, mas não consistente. Por exemplo, para uma amostra iid { x
1, ..., x
n} pode-se usar T
n( X ) = x
ncomo o estimador da média E [ x ]. Observe que aqui a distribuição amostral de T
né o mesmo que a distribuição subjacente (para qualquer n, uma vez que ignora todos os pontos exceto o último), então E [ T
n( X )] = E [ x ] e é imparcial, mas não converge para nenhum valor.
No entanto, se uma sequência de estimadores é imparcial e converge para um valor, ela é consistente, pois deve convergir para o valor correto.
Tendencioso, mas consistente
Alternativamente, um estimador pode ser tendencioso, mas consistente. Por exemplo, se a média é estimada por ela é enviesada, mas à medida que se aproxima do valor correto, e por isso é consistente.
Exemplos importantes incluem a variação da amostra e o desvio padrão da amostra . Sem a correção de Bessel (ou seja, ao usar o tamanho da amostra em vez dos graus de liberdade ), ambos são estimadores com viés negativo, mas consistentes. Com a correção, a variância da amostra corrigida é enviesada, enquanto o desvio padrão da amostra corrigida ainda é enviesado, mas menos, e ambos ainda são consistentes: o fator de correção converge para 1 conforme o tamanho da amostra aumenta.
Aqui está outro exemplo. Let Ser uma seqüência de estimadores para .
Podemos ver isso , e o viés não converge para zero.
Veja também
- Estimador eficiente
- Consistência de Fisher - alternativa, embora raramente utilizado conceito de consistência para os estimadores
- Diluição de regressão
- Teste de hipótese estatística
Notas
Referências
- Amemiya, Takeshi (1985). Econometria avançada . Harvard University Press . ISBN 0-674-00560-0.
- Lehmann, EL ; Casella, G. (1998). Teoria da estimativa de pontos (2ª ed.). Springer. ISBN 0-387-98502-6.
- Newey, WK; McFadden, D. (1994). "Capítulo 36: Estimativa de grandes amostras e teste de hipóteses". Em Robert F. Engle; Daniel L. McFadden (eds.). Handbook of Econometrics . 4 . Elsevier Science. ISBN 0-444-88766-0. S2CID 29436457 .
- Nikulin, MS (2001) [1994], "Consistent estimator" , Encyclopedia of Mathematics , EMS Press
- Sober, E. (1988), "Likelihood and convergence", Philosophy of Science , 55 (2): 228-237, doi : 10.1086 / 289429.