Matriz de projeção - Projection matrix

Em estatística , a matriz de projeção , às vezes também chamada de matriz de influência ou matriz hat , mapeia o vetor de valores de resposta (valores de variáveis ​​dependentes) para o vetor de valores ajustados (ou valores previstos). Ele descreve a influência de cada valor de resposta em cada valor ajustado. Os elementos diagonais da matriz de projeção são as alavancas , que descrevem a influência de cada valor de resposta no valor ajustado para essa mesma observação.

Visão geral

Se o vetor de valores de resposta é denotado por e o vetor de valores ajustados por ,

Como geralmente é pronunciado "y-hat", a matriz de projeção também é chamado de matriz chapéu como ele "coloca um chapéu sobre ". A fórmula para o vetor de resíduos também pode ser expressa de forma compacta usando a matriz de projeção:

onde está a matriz de identidade . A matriz é algumas vezes chamada de matriz residual maker . Além disso, o elemento na i- ésima linha ej- ésima coluna de é igual à covariância entre o j- ésimo valor de resposta e o i- ésimo valor ajustado, dividido pela variância do primeiro:

Portanto, a matriz de covariância dos resíduos , por propagação do erro , é igual

,

onde é a matriz de covariância do vetor de erro (e, por extensão, o vetor de resposta também). Para o caso de modelos lineares com erros independentes e distribuídos de forma idêntica em que , isso se reduz a:

.

Intuição

Uma matriz tem seu espaço de coluna representado pela linha verde. A projeção de algum vetor no espaço da coluna de é o vetor

A partir da figura, fica claro que o ponto mais próximo do vetor no espaço da coluna de , é e é aquele em que podemos traçar uma linha ortogonal ao espaço da coluna de . Um vetor que é ortogonal ao espaço da coluna de uma matriz está no espaço nulo da transposta da matriz, então

A partir daí, se reorganiza, então

Portanto, uma vez que está no espaço da coluna de , a matriz de projeção, que mapeia em é apenas , ou

Modelo linear

Suponha que desejamos estimar um modelo linear usando mínimos quadrados lineares. O modelo pode ser escrito como

onde é uma matriz de variáveis ​​explicativas (a matriz de design ), β é um vetor de parâmetros desconhecidos a serem estimados e ε é o vetor de erro.

Muitos tipos de modelos e técnicas estão sujeitos a esta formulação. Alguns exemplos são linear de mínimos quadrados , estrias suavização , estrias de regressão , regressão locais , regressão do kernel , e linear de filtragem .

Mínimos quadrados comuns

Quando os pesos para cada observação são idênticos e os erros não estão correlacionados, os parâmetros estimados são

então os valores ajustados são

Portanto, a matriz de projeção (e a matriz de chapéu) é dada por

Mínimos quadrados ponderados e generalizados

O acima pode ser generalizado para os casos em que os pesos não são idênticos e / ou os erros são correlacionados. Suponha que a matriz de covariância dos erros seja Ψ. Então desde

.

a matriz do chapéu é assim

e novamente pode-se ver isso , embora agora não seja mais simétrico.

Propriedades

A matriz de projeção possui várias propriedades algébricas úteis. Na linguagem da álgebra linear , a matriz de projeção é a projeção ortogonal no espaço da coluna da matriz de design . (Observe que é o pseudoinverso de X. ) Alguns fatos da matriz de projeção nesta configuração são resumidos a seguir:

  • e
  • é simétrico, e assim é .
  • é idempotente: e assim é .
  • Se for uma matriz n × r com , então
  • Os autovalores de consistem em r uns e n - r zeros, enquanto os autovalores de consistem em n - r uns e r zeros.
  • é invariante sob  : portanto .
  • é exclusivo para certos subespaços.

A matriz de projeção correspondente a um modelo linear é simétrica e idempotente , ou seja ,. No entanto, nem sempre é esse o caso; na suavização de gráfico de dispersão com peso local (LOESS) , por exemplo, a matriz hat é em geral nem simétrica nem idempotente.

Para modelos lineares , o traço da matriz de projeção é igual à classificação de , que é o número de parâmetros independentes do modelo linear. Para outros modelos, como LOESS, que ainda são lineares nas observações , a matriz de projeção pode ser usada para definir os graus de liberdade efetivos do modelo.

As aplicações práticas da matriz de projeção na análise de regressão incluem a alavancagem e a distância de Cook , que se preocupam em identificar observações influentes , ou seja, observações que têm um grande efeito nos resultados de uma regressão.

Fórmula em bloco

Suponha que a matriz de design possa ser decomposta por colunas como . Defina o chapéu ou operador de projeção como . Da mesma forma, defina o operador residual como . Então, a matriz de projeção pode ser decomposta da seguinte forma:

onde, por exemplo, e . Existem várias aplicações dessa decomposição. Na aplicação clássica, existe uma coluna de todos os uns, o que permite analisar os efeitos de adicionar um termo de interceptação a uma regressão. Outro uso é no modelo de efeitos fixos , onde é uma grande matriz esparsa das variáveis ​​dummy para os termos de efeitos fixos. Pode-se usar essa partição para calcular a matriz de chapéu sem formar explicitamente a matriz , que pode ser muito grande para caber na memória do computador.

Veja também

Referências