Quantidade Pivotal - Pivotal quantity

Em estatística , uma quantidade ou pivô pivô é uma função de observações e parâmetros não observáveis ​​de forma que a distribuição de probabilidade da função não dependa dos parâmetros desconhecidos (incluindo parâmetros incômodos ). Uma quantidade pivô não precisa ser uma estatística - a função e seu valor podem depender dos parâmetros do modelo, mas sua distribuição não. Se for uma estatística, é conhecida como estatística auxiliar .

Mais formalmente, seja uma amostra aleatória de uma distribuição que depende de um parâmetro (ou vetor de parâmetros) . Let Ser uma variável aleatória cuja distribuição é a mesma para todos . Então, é chamado de quantidade pivô (ou simplesmente pivô ).

Quantidades centrais são comumente usadas para normalização para permitir que dados de diferentes conjuntos de dados sejam comparados. É relativamente fácil construir pivôs para os parâmetros de localização e escala: para o primeiro formamos diferenças de modo que a localização se cancela, para os últimos proporções para que a escala se cancele.

Quantidades pivotais são fundamentais para a construção de estatísticas de teste , pois permitem que a estatística não dependa de parâmetros - por exemplo, a estatística t de Student é para uma distribuição normal com variância (e média) desconhecidas. Eles também fornecem um método de construção de intervalos de confiança , e o uso de quantidades essenciais melhora o desempenho do bootstrap . Na forma de estatísticas auxiliares, eles podem ser usados ​​para construir intervalos de predição frequentistas (intervalos de confiança preditivos).

Exemplos

Distribuição normal

Uma das grandezas centrais mais simples é o z-score ; dada uma distribuição normal com média e variância , e uma observação x, o z-score:

tem distribuição - uma distribuição normal com média 0 e variância 1. Da mesma forma, uma vez que a média da amostra n tem distribuição amostral, o escore z da média

também tem distribuição Observe que, embora essas funções dependam dos parâmetros - e, portanto, só se pode computá-los se os parâmetros forem conhecidos (eles não são estatísticas) - a distribuição é independente dos parâmetros.

Dadas observações independentes e distribuídas de forma idêntica (iid) da distribuição normal com média e variância desconhecidas , uma quantidade central pode ser obtida a partir da função:

Onde

e

são estimativas imparciais de e , respectivamente. A função é a estatística t de Student para um novo valor , a ser obtido da mesma população que o conjunto de valores já observado .

O uso da função torna-se uma quantidade central, que também é distribuída pela distribuição t de Student com graus de liberdade. Conforme necessário, embora apareça como um argumento para a função , a distribuição de não depende dos parâmetros ou da distribuição de probabilidade normal que governa as observações .

Isso pode ser usado para calcular um intervalo de predição para a próxima observação, consulte Intervalo de predição: Distribuição normal .

Distribuição normal bivariada

Em casos mais complicados, é impossível construir pivôs exatos. No entanto, ter pivôs aproximados melhora a convergência para a normalidade assintótica .

Suponha que uma amostra de tamanho de vetores seja retirada de uma distribuição normal bivariada com correlação desconhecida .

Um estimador de é a correlação da amostra (Pearson, momento)

onde estão as variações de amostra de e . A estatística de amostra tem uma distribuição assintoticamente normal:

.

No entanto, uma transformação de estabilização de variância

conhecida como transformação z de Fisher do coeficiente de correlação, permite criar a distribuição de parâmetros assintoticamente independentes de desconhecidos:

onde é o parâmetro de distribuição correspondente. Para tamanhos de amostra finitos , a variável aleatória terá distribuição mais próxima do normal do que de . Uma aproximação ainda mais próxima da distribuição normal padrão é obtida usando uma melhor aproximação para a variância exata: a forma usual é

Robustez

Do ponto de vista de estatísticas robustas , as quantidades pivotais são robustas a mudanças nos parâmetros - na verdade, independentes dos parâmetros - mas não em geral robustas a mudanças no modelo, como violações do pressuposto de normalidade. Isso é fundamental para a crítica robusta de estatísticas não robustas, muitas vezes derivadas de quantidades essenciais: tais estatísticas podem ser robustas dentro da família, mas não são robustas fora dela.

Veja também

Referências