Em estatística , a matriz de projeção , às vezes também chamada de matriz de influência ou matriz hat , mapeia o vetor de valores de resposta (valores de variáveis dependentes) para o vetor de valores ajustados (ou valores previstos). Ele descreve a influência de cada valor de resposta em cada valor ajustado. Os elementos diagonais da matriz de projeção são as alavancas , que descrevem a influência de cada valor de resposta no valor ajustado para essa mesma observação.
Visão geral
Se o vetor de valores de resposta é denotado por e o vetor de valores ajustados por ,
Como geralmente é pronunciado "y-hat", a matriz de projeção também é chamado de matriz chapéu como ele "coloca um chapéu sobre ". A fórmula para o vetor de resíduos também pode ser expressa de forma compacta usando a matriz de projeção:
onde está a matriz de identidade . A matriz é algumas vezes chamada de matriz residual maker . Além disso, o elemento na i- ésima linha ej- ésima coluna de é igual à covariância entre o j- ésimo valor de resposta e o i- ésimo valor ajustado, dividido pela variância do primeiro:
Portanto, a matriz de covariância dos resíduos , por propagação do erro , é igual
-
,
onde é a matriz de covariância do vetor de erro (e, por extensão, o vetor de resposta também). Para o caso de modelos lineares com erros independentes e distribuídos de forma idêntica em que , isso se reduz a:
-
.
Intuição
A partir da figura, fica claro que o ponto mais próximo do vetor no espaço da coluna de , é e é aquele em que podemos traçar uma linha ortogonal ao espaço da coluna de . Um vetor que é ortogonal ao espaço da coluna de uma matriz está no espaço nulo da transposta da matriz, então
A partir daí, se reorganiza, então
Portanto, uma vez que está no espaço da coluna de , a matriz de projeção, que mapeia em é apenas , ou
Modelo linear
Suponha que desejamos estimar um modelo linear usando mínimos quadrados lineares. O modelo pode ser escrito como
onde é uma matriz de variáveis explicativas (a matriz de design ), β é um vetor de parâmetros desconhecidos a serem estimados e ε é o vetor de erro.
Muitos tipos de modelos e técnicas estão sujeitos a esta formulação. Alguns exemplos são linear de mínimos quadrados , estrias suavização , estrias de regressão , regressão locais , regressão do kernel , e linear de filtragem .
Mínimos quadrados comuns
Quando os pesos para cada observação são idênticos e os erros não estão correlacionados, os parâmetros estimados são
então os valores ajustados são
Portanto, a matriz de projeção (e a matriz de chapéu) é dada por
Mínimos quadrados ponderados e generalizados
O acima pode ser generalizado para os casos em que os pesos não são idênticos e / ou os erros são correlacionados. Suponha que a matriz de covariância dos erros seja Ψ. Então desde
-
.
a matriz do chapéu é assim
e novamente pode-se ver isso , embora agora não seja mais simétrico.
Propriedades
A matriz de projeção possui várias propriedades algébricas úteis. Na linguagem da álgebra linear , a matriz de projeção é a projeção ortogonal no espaço da coluna da matriz de design . (Observe que é o pseudoinverso de X. ) Alguns fatos da matriz de projeção nesta configuração são resumidos a seguir:
-
e
-
é simétrico, e assim é .
-
é idempotente: e assim é .
- Se for uma matriz n × r com , então
- Os autovalores de consistem em r uns e n - r zeros, enquanto os autovalores de consistem em n - r uns e r zeros.
-
é invariante sob : portanto .
-
é exclusivo para certos subespaços.
A matriz de projeção correspondente a um modelo linear é simétrica e idempotente , ou seja ,. No entanto, nem sempre é esse o caso; na suavização de gráfico de dispersão com peso local (LOESS) , por exemplo, a matriz hat é em geral nem simétrica nem idempotente.
Para modelos lineares , o traço da matriz de projeção é igual à classificação de , que é o número de parâmetros independentes do modelo linear. Para outros modelos, como LOESS, que ainda são lineares nas observações , a matriz de projeção pode ser usada para definir os graus de liberdade efetivos do modelo.
As aplicações práticas da matriz de projeção na análise de regressão incluem a alavancagem e a distância de Cook , que se preocupam em identificar observações influentes , ou seja, observações que têm um grande efeito nos resultados de uma regressão.
Fórmula em bloco
Suponha que a matriz de design possa ser decomposta por colunas como . Defina o chapéu ou operador de projeção como . Da mesma forma, defina o operador residual como . Então, a matriz de projeção pode ser decomposta da seguinte forma:
onde, por exemplo, e . Existem várias aplicações dessa decomposição. Na aplicação clássica, existe uma coluna de todos os uns, o que permite analisar os efeitos de adicionar um termo de interceptação a uma regressão. Outro uso é no modelo de efeitos fixos , onde é uma grande matriz esparsa das variáveis dummy para os termos de efeitos fixos. Pode-se usar essa partição para calcular a matriz de chapéu sem formar explicitamente a matriz , que pode ser muito grande para caber na memória do computador.
Veja também
Referências