"Projeção ortogonal" redireciona aqui. Para o conceito de desenho técnico, consulte
Projeção ortográfica . Para uma discussão concreta de projeções ortogonais em espaços lineares de dimensão finita, consulte
Projeção vetorial .
A transformação P é a projeção ortogonal na linha m .
Na álgebra linear e na análise funcional , uma projeção é uma transformação linear de um espaço vetorial para ela mesma . Ou seja, sempre que for aplicado duas vezes a qualquer valor, dá o mesmo resultado como se fosse aplicado uma vez ( idempotente ). Ele deixa sua imagem inalterada. Embora abstrata , esta definição de "projeção" formaliza e generaliza a ideia de projeção gráfica . Também se pode considerar o efeito de uma projeção em um objeto geométrico examinando o efeito da projeção em pontos do objeto.
Definições
Uma projeção em um espaço vetorial é um operador linear desse tipo .
Quando tem um produto interno e está completo (ou seja, quando é um espaço de Hilbert ), o conceito de ortogonalidade pode ser usado. Uma projeção em um espaço de Hilbert é chamada de projeção ortogonal se for satisfatória para todos . Uma projeção em um espaço de Hilbert que não é ortogonal é chamada de projeção oblíqua .
Matriz de projeção
- No caso de dimensão finita, uma matriz quadrada é chamada de matriz de projeção se for igual ao seu quadrado, ou seja, se .
- Uma matriz quadrada é chamada de matriz de projeção ortogonal se for uma matriz real e, respectivamente, para uma matriz complexa, onde denota a transposta de e denota a transposta adjunta ou hermitiana de .
- Uma matriz de projeção que não é uma matriz de projeção ortogonal é chamada de matriz de projeção oblíqua .
Os valores próprios de uma matriz de projeção devem ser 0 ou 1.
Exemplos
Projeção ortogonal
Por exemplo, a função que mapeia o ponto no espaço tridimensional ao ponto é uma projeção ortogonal no plano xy . Esta função é representada pela matriz
A ação desta matriz em um vetor arbitrário é
Para ver que é de fato uma projeção, ou seja, calculamos
-
.
Observar isso mostra que a projeção é uma projeção ortogonal.
Projeção oblíqua
Um exemplo simples de uma projeção não ortogonal (oblíqua) (para definição veja abaixo) é
Via multiplicação de matrizes , vê-se que
provar que é de fato uma projeção.
A projeção é ortogonal se e somente se porque somente então .
Propriedades e classificação
A transformação T é a projeção ao longo de k em m . O intervalo de T é m e o espaço nulo é k .
Idempotência
Por definição, uma projeção é idempotente (isto é ).
Complementaridade de alcance e kernel
Let Ser um espaço vetorial de dimensão finita e ser uma projeção sobre . Suponha que os subespaços e sejam o intervalo e o kernel de, respectivamente. Então tem as seguintes propriedades:
-
é o operador de identidade em
-
.
- Temos uma soma direta . Cada vetor pode ser decomposto exclusivamente como com e , e onde .
O alcance e o núcleo de uma projeção são complementares , assim como e . O operador também é uma projeção à medida que o intervalo e o kernel de tornam-se o kernel e o intervalo de e vice-versa. Dizemos é uma projecção ao longo sobre (kernel / gama) e é uma projecção ao longo para .
Espectro
Em espaços vetoriais de dimensão infinita, o espectro de uma projeção está contido em como
Apenas 0 ou 1 pode ser um valor próprio de uma projeção. Isso implica que uma projeção ortogonal é sempre uma matriz semi-definida positiva. Em geral, os espaços próprios correspondentes são (respectivamente) o núcleo e o intervalo da projeção. A decomposição de um espaço vetorial em somas diretas não é única. Portanto, dado um subespaço , pode haver muitas projeções cujo intervalo (ou kernel) é .
Se uma projeção não for trivial, ela terá um polinômio mínimo , que se transforma em raízes distintas e, portanto, será diagonalizável .
Produto de projeções
O produto das projeções não é em geral uma projeção, mesmo que sejam ortogonais. Se duas projeções comutam, então seu produto é uma projeção, mas o inverso é falso: o produto de duas projeções não comutantes pode ser uma projeção.
Se duas projeções ortogonais comutam, seu produto é uma projeção ortogonal. Se o produto de duas projeções ortogonais é uma projeção ortogonal, então as duas projeções ortogonais comutam (mais geralmente: dois endomorfismos auto-adjuntos comutam se e somente se seu produto é auto-adjuntos).
Projeções ortogonais
Quando o espaço vetorial tem um produto interno e está completo (é um espaço de Hilbert ), o conceito de ortogonalidade pode ser usado. Uma projeção ortogonal é uma projeção para a qual o intervalo e o espaço nulo são subespaços ortogonais . Assim, para cada e em , . Equivalentemente:
Uma projeção é ortogonal se, e somente se, for auto-adjunta . Usando a auto-adjunta e idempotentes propriedades , para qualquer e no que temos , e
onde está o produto interno associado . Portanto, e são projeções ortogonais. A outra direção, ou seja, se for ortogonal, então é auto-adjunta, segue de
para todos e em ; assim .
Prova de existência
|
Seja um espaço métrico completo com um produto interno e seja um subespaço linear fechado de (e, portanto, também completo).
Para cada o seguinte conjunto de não-negativos norma -Valores tem um ínfimo , e devido à integralidade de que é um mínimo . Definimos como o ponto em que esse mínimo é obtido.
Obviamente está dentro . Resta mostrar que satisfaz e que é linear.
Vamos definir . Para cada diferente de zero em , o seguinte é válido:
Ao definir , vemos que a menos que desaparece. Visto que foi escolhido como o mínimo do conjunto acima mencionado, segue-se que de fato desaparece. Em particular, (por ): .
A linearidade decorre do desaparecimento de para todos :
Ao tomar a diferença entre as equações, temos
Mas, uma vez que podemos escolher (como é em si ), segue-se isso . Da mesma forma, temos para cada escalar .
|
Propriedades e casos especiais
Uma projeção ortogonal é um operador limitado . Isso ocorre porque para cada no espaço vetorial que temos, pela desigualdade de Cauchy-Schwarz :
Assim .
Para complexos dimensionais finitos ou espaços vetoriais reais, o produto interno padrão pode ser substituído por .
Fórmulas
Um caso simples ocorre quando a projeção ortogonal está em uma linha. Se for um vetor unitário na linha, então a projeção é dada pelo produto externo
(Se for de valor complexo, a transposta na equação acima é substituída por uma transposta Hermitiana). Este operador deixa u invariante e aniquila todos os vetores ortogonais a , provando que é de fato a projeção ortogonal sobre a reta que contém u . Uma maneira simples de ver isso é considerar um vetor arbitrário como a soma de um componente da linha (ou seja, o vetor projetado que buscamos) e outro perpendicular a ele ,. Aplicando a projeção, obtemos
pelas propriedades do produto escalar de vetores paralelos e perpendiculares.
Esta fórmula pode ser generalizada para projeções ortogonais em um subespaço de dimensão arbitrária. Let ser uma base ortonormal do subespaço , e deixe denotar a matriz cujas colunas são , ie . Então a projeção é dada por:
que pode ser reescrito como
A matriz é a isometria parcial que desaparece no complemento ortogonal de e é a isometria que se incorpora ao espaço vetorial subjacente. O intervalo de é, portanto, o espaço final de . Também é claro que é o operador de identidade ativado .
A condição de ortonormalidade também pode ser eliminada. Se for uma base (não necessariamente ortonormal) e for a matriz com esses vetores como colunas, a projeção será:
A matriz ainda se incorpora ao espaço vetorial subjacente, mas não é mais uma isometria em geral. A matriz é um "fator de normalização" que recupera a norma. Por exemplo, o operador de classificação 1 não é uma projeção se Após dividir por obtivermos a projeção no subespaço medido por .
No caso geral, podemos ter uma matriz definida positiva arbitrária definindo um produto interno , e a projeção é dada por . Então
Quando o espaço de alcance da projecção é gerado por um quadro (ou seja, o número de geradores é maior do que a sua dimensão), a fórmula para a projecção toma a forma: . Aqui representa o pseudoinverso Moore – Penrose . Esta é apenas uma das muitas maneiras de construir o operador de projeção.
Se for uma matriz não singular e (ou seja, é a matriz de espaço nula de ), o seguinte é válido:
Se a condição ortogonal é aprimorado para com não-singular, o seguinte se aplica:
Todas essas fórmulas também são válidas para espaços de produtos internos complexos, desde que a transposta conjugada seja usada em vez da transposta. Mais detalhes sobre as somas dos projetores podem ser encontrados em Banerjee e Roy (2014). Veja também Banerjee (2004) para a aplicação de somas de projetores em trigonometria esférica básica.
Projeções oblíquas
O termo projeções oblíquas é algumas vezes usado para se referir a projeções não ortogonais. Essas projeções também são usadas para representar figuras espaciais em desenhos bidimensionais (veja projeção oblíqua ), embora não tão freqüentemente quanto as projeções ortogonais. Enquanto o cálculo do valor ajustado de uma regressão de mínimos quadrados ordinária requer uma projeção ortogonal, o cálculo do valor ajustado de uma regressão de variáveis instrumentais requer uma projeção oblíqua.
As projeções são definidas por seu espaço nulo e os vetores de base usados para caracterizar seu intervalo (que é o complemento do espaço nulo). Quando esses vetores de base são ortogonais ao espaço nulo, a projeção é uma projeção ortogonal. Quando esses vetores de base não são ortogonais ao espaço nulo, a projeção é uma projeção oblíqua. Deixe que os vetores formem uma base para o alcance da projeção e monte esses vetores na matriz . O intervalo e o espaço nulo são espaços complementares, portanto, o espaço nulo tem dimensão . Segue-se que o complemento ortogonal do espaço nulo tem dimensão . Vamos formar uma base para o complemento ortogonal do espaço nulo da projeção e montar esses vetores na matriz . Então a projeção é definida por
Esta expressão generaliza a fórmula para projeções ortogonais dada acima.
Encontrar a projeção com um produto interno
Let Ser um espaço vetorial (neste caso um plano) estendido por vetores ortogonais . Deixe ser um vetor. Pode-se definir uma projeção de sobre como
onde índices repetidos são somados ( notação de soma de Einstein ). O vetor pode ser escrito como uma soma ortogonal tal que . às vezes é denotado como . Existe um teorema em álgebra linear que afirma que esta é a distância mais curta de para e é comumente usada em áreas como aprendizado de máquina.
y está sendo projetado no espaço vetorial V.
Formas canônicas
Qualquer projeção em um espaço vetorial de dimensão sobre um campo é uma matriz diagonalizável , uma vez que seu polinômio mínimo se divide , que se divide em fatores lineares distintos. Assim, existe uma base na qual tem a forma
onde está o posto de . Aqui está a matriz identidade de tamanho e é a matriz zero de tamanho . Se o espaço vetorial é complexo e equipado com um produto interno , então há uma base ortonormal em que a matriz de P é
onde . Os inteiros e os números reais são determinados de forma única. Observe isso . O fator corresponde ao subespaço invariante máximo no qual atua como uma projeção ortogonal (de modo que o próprio P é ortogonal se e somente se ) e os blocos-correspondem às componentes oblíquas .
Projeções em espaços vetoriais normatizados
Quando o espaço vetorial subjacente é um (não necessariamente finito-dimensional) espaço normado , questões analíticas, irrelevante no caso de dimensão finita, necessidade de ser considerado. Suponha que agora seja um espaço de Banach .
Muitos dos resultados algébricos discutidos acima sobrevivem à passagem para este contexto. Uma dada decomposição de soma direta em subespaços complementares ainda especifica uma projeção e vice-versa. Se for a soma direta , o operador definido por ainda é uma projeção com intervalo e kernel . Também é claro que . Por outro lado, se a projeção está ligada , ou seja , então é facilmente verificado . Ou seja, também é uma projeção. A relação implica e é a soma direta .
No entanto, em contraste com o caso de dimensão finita, as projeções não precisam ser contínuas em geral. Se um subespaço de não estiver fechado na topologia de norma, a projeção em não é contínua. Em outras palavras, o intervalo de uma projeção contínua deve ser um subespaço fechado. Além disso, o kernel de uma projeção contínua (na verdade, um operador linear contínuo em geral) é fechado. Assim, uma contínua projecção dá uma decomposição de em duas complementares fechados subespaços: .
O inverso também é válido, com uma suposição adicional. Suponha que seja um subespaço fechado de . Se existe um subespaço fechado tal que X = U ⊕ V , então a projeção com alcance e kernel é contínua. Isso segue do teorema do gráfico fechado . Suponha que x n → x e Px n → y . É preciso mostrar isso . Como está fechado e { Px n } ⊂ U , y está em , ou seja, Py = y . Além disso, x n - Px n = ( I - P ) x n → x - y . Porque é fechado e {( I - P ) x n } ⊂ V , temos , ou seja , o que comprova a afirmação.
O argumento acima faz uso da suposição de que ambos e são fechados. Em geral, dado um subespaço fechado , não precisa existir um subespaço fechado complementar , embora para espaços de Hilbert isso sempre possa ser feito tomando o complemento ortogonal . Para espaços de Banach, um subespaço unidimensional sempre tem um subespaço complementar fechado. Esta é uma consequência imediata do teorema de Hahn-Banach . Deixe ser o intervalo linear de . Por Hahn-Banach, existe um funcional linear limitado tal que φ ( u ) = 1 . O operador satisfaz , ou seja, é uma projeção. Limite de implica continuidade de e, portanto, é um subespaço complementar fechado de .
Aplicações e outras considerações
As projeções (ortogonais ou não) desempenham um papel importante nos algoritmos para certos problemas de álgebra linear:
Como afirmado acima, as projeções são um caso especial de idempotentes. Analiticamente, as projeções ortogonais são generalizações não comutativas de funções características . Idempotentes são usados na classificação, por exemplo, de álgebras semisimples , enquanto a teoria da medida começa considerando funções características de conjuntos mensuráveis. Portanto, como se pode imaginar, as projeções são frequentemente encontradas no contexto de álgebras de operadores . Em particular, uma álgebra de von Neumann é gerada por sua rede completa de projeções.
Generalizações
De modo mais geral, dado um mapa entre espaços vetoriais normados, pode-se analogamente pedir que esse mapa seja uma isometria no complemento ortogonal do kernel: que seja uma isometria (compare Isometria parcial ); em particular, deve ser em. O caso de uma projeção ortogonal é quando W é um subespaço de V. Na geometria Riemanniana , isso é usado na definição de uma submersão Riemanniana .
Veja também
Notas
Referências
-
Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics , Textos em Ciência Estatística (1ª ed.), Chapman e Hall / CRC, ISBN 978-1420095388
-
Dunford, N .; Schwartz, JT (1958). Operadores lineares, parte I: teoria geral . Interscience.
-
Meyer, Carl D. (2000). Análise de Matrizes e Álgebra Linear Aplicada . Society for Industrial and Applied Mathematics. ISBN 978-0-89871-454-8.
links externos