Autovalores e autovetores - Eigenvalues and eigenvectors

Em álgebra linear , um vector prprio ( / do ɡ do ə n ˌ v ɛ k t ər / ) ou vector característico de uma transformação linear é diferente de zero um vector que alterações no máximo por um escalar factor de quando que a transformação linear é aplicado a ele. O autovalor correspondente , freqüentemente denotado por , é o fator pelo qual o autovetor é escalado.

Geometricamente , um autovetor, correspondendo a um autovalor real diferente de zero, aponta para uma direção na qual é alongado pela transformação e o autovalor é o fator pelo qual ele é alongado. Se o valor próprio for negativo, a direção é invertida. Falando livremente, em um espaço vetorial multidimensional , o autovetor não é girado.

Definição formal

Se T é uma transformação linear de um espaço vetorial V sobre um campo F em si mesmo ev é um vetor diferente de zero em V , então v é um autovetor de T se T ( v ) é um múltiplo escalar de v . Isso pode ser escrito como

onde λ é um escalar em F , conhecido como autovalor , valor característico ou raiz característica associada a v .

Existe uma correspondência directa entre n -by- n matrizes quadradas e transformações lineares a partir de um n -dimensional de espaço vectorial em si, dado qualquer base do espaço vectorial. Portanto, em um espaço vetorial de dimensão finita, é equivalente definir autovalores e autovetores usando a linguagem de matrizes ou a linguagem de transformações lineares.

Se V for finito-dimensional, a equação acima é equivalente a

onde A é a representação da matriz de T e u é o vetor de coordenadas de v .

Visão geral

Autovalores e autovetores apresentam um papel proeminente na análise de transformações lineares. O prefixo eigen- é adotado da palavra alemã eigen ( cognato com a palavra inglesa own ) para "apropriado", "característico", "próprio". Originalmente usado para estudar os eixos principais do movimento rotacional de corpos rígidos , autovalores e autovetores têm uma ampla gama de aplicações, por exemplo, em análise de estabilidade , análise de vibração , orbitais atômicos , reconhecimento facial e diagonalização de matriz .

Em essência, um autovetor v de uma transformação linear T é um vetor diferente de zero que, quando T é aplicado a ele, não muda de direção. Aplicar T ao autovetor dimensiona apenas o autovetor pelo valor escalar λ , denominado autovalor. Esta condição pode ser escrita como a equação

referido como a equação do valor próprio ou eigenequação . Em geral, λ pode ser qualquer escalar . Por exemplo, λ pode ser negativo, caso em que o autovetor inverte a direção como parte da escala, ou pode ser zero ou complexo .

Neste mapeamento de cisalhamento, a seta vermelha muda de direção, mas a seta azul não. A seta azul é um autovetor desse mapeamento de cisalhamento porque não muda de direção e, como seu comprimento não é alterado, seu autovalor é 1.
Uma matriz 2 × 2 real e simétrica representa um alongamento e cisalhamento do plano. Os autovetores da matriz (linhas vermelhas) são as duas direções especiais, de modo que cada ponto sobre eles deslizará sobre eles.

O exemplo da Mona Lisa retratado aqui fornece uma ilustração simples. Cada ponto na pintura pode ser representado como um vetor apontando do centro da pintura para aquele ponto. A transformação linear neste exemplo é chamada de mapeamento de cisalhamento . Os pontos da metade superior são movidos para a direita e os pontos da metade inferior são movidos para a esquerda, proporcionalmente à distância que eles estão do eixo horizontal que passa pelo meio da pintura. Os vetores que apontam para cada ponto na imagem original são, portanto, inclinados para a direita ou para a esquerda e tornados mais longos ou mais curtos pela transformação. Os pontos ao longo do eixo horizontal não se movem quando essa transformação é aplicada. Portanto, qualquer vetor que aponte diretamente para a direita ou para a esquerda sem nenhum componente vertical é um autovetor dessa transformação, pois o mapeamento não muda sua direção. Além disso, todos esses autovetores têm um autovalor igual a um, porque o mapeamento também não altera seu comprimento.

As transformações lineares podem assumir muitas formas diferentes, mapeando vetores em uma variedade de espaços vetoriais, de modo que os autovetores também podem assumir muitas formas. Por exemplo, a transformação linear pode ser um operador diferencial como , em cujo caso os autovetores são funções chamadas autofunções que são escaladas por esse operador diferencial, como

Alternativamente, a transformação linear poderia assumir a forma de um N por N da matriz, no caso em que os vectores próprios são n por 1 matrizes. Se a transformação linear for expressa na forma de uma matriz A n por n , então a equação do valor próprio para uma transformação linear acima pode ser reescrita como a multiplicação da matriz

onde o autovetor v é uma matriz n por 1. Para uma matriz, autovalores e autovetores podem ser usados ​​para decompor a matriz - por exemplo, diagonalizando -a.

Valores próprios e vectores próprios dão origem a muitos conceitos matemáticos intimamente relacionados, e o prefixo eigen- é aplicado liberalmente ao nomeá-los:

  • O conjunto de todos os autovetores de uma transformação linear, cada um emparelhado com seu autovalor correspondente, é chamado de autossistema dessa transformação.
  • O conjunto de todos os vectores próprios de t correspondentes para o mesmo valor próprio, em conjunto com o vector de zero, é chamado uma auto-espaço , ou o espaço de característica de T associada a esse valor próprio.
  • Se um conjunto de autovetores de T forma uma base do domínio de T , essa base é chamada de autobase .

História

Os valores próprios são frequentemente introduzidos no contexto da álgebra linear ou teoria das matrizes . Historicamente, no entanto, eles surgiram no estudo de formas quadráticas e equações diferenciais .

No século 18, Leonhard Euler estudou o movimento rotacional de um corpo rígido e descobriu a importância dos eixos principais . Joseph-Louis Lagrange percebeu que os eixos principais são os autovetores da matriz de inércia.

No início do século 19, Augustin-Louis Cauchy viu como seu trabalho poderia ser usado para classificar as superfícies quádricas e generalizou-as para dimensões arbitrárias. Cauchy também cunhou o termo racine caractéristique (raiz característica), para o que agora é chamado de autovalor ; seu termo sobrevive na equação característica .

Mais tarde, Joseph Fourier usou o trabalho de Lagrange e Pierre-Simon Laplace para resolver a equação do calor por separação de variáveis em seu famoso livro de 1822 Théorie analytique de la chaleur . Charles-François Sturm desenvolveu ainda mais as idéias de Fourier e as trouxe ao conhecimento de Cauchy, que as combinou com suas próprias idéias e chegou ao fato de que matrizes simétricas reais têm autovalores reais. Isso foi estendido por Charles Hermite em 1855 para o que hoje é chamado de matrizes hermitianas .

Na mesma época, Francesco Brioschi provou que os valores próprios de matrizes ortogonais estão no círculo unitário , e Alfred Clebsch encontrou o resultado correspondente para matrizes com simetria oblíqua . Por fim, Karl Weierstrass esclareceu um aspecto importante na teoria da estabilidade iniciada por Laplace, ao perceber que matrizes defeituosas podem causar instabilidade.

Nesse ínterim, Joseph Liouville estudou problemas de autovalor semelhantes aos de Sturm; a disciplina que surgiu de seu trabalho agora é chamada de teoria de Sturm-Liouville . Schwarz estudou o primeiro valor próprio da equação de Laplace em domínios gerais no final do século 19, enquanto Poincaré estudou a equação de Poisson alguns anos depois.

No início do século 20, David Hilbert estudou os valores próprios de operadores integrais , vendo os operadores como matrizes infinitas. Ele foi o primeiro a usar a palavra alemã eigen , que significa "próprio", para denotar autovalores e autovetores em 1904, embora possa ter seguido um uso relacionado por Hermann von Helmholtz . Por algum tempo, o termo padrão em inglês era "valor apropriado", mas o termo mais distinto "autovalor" é o padrão hoje.

O primeiro algoritmo numérico para calcular autovalores e autovetores apareceu em 1929, quando Richard von Mises publicou o método de potência . Um dos métodos mais populares hoje, o algoritmo QR , foi proposto independentemente por John GF Francis e Vera Kublanovskaya em 1961.

Valores próprios e vetores próprios de matrizes

Valores próprios e vetores próprios são frequentemente apresentados aos alunos no contexto de cursos de álgebra linear com foco em matrizes. Além disso, as transformações lineares sobre um espaço vetorial de dimensão finita podem ser representadas usando matrizes, o que é especialmente comum em aplicações numéricas e computacionais.

Matrix A atua esticando o vetor x , não mudar sua direção, então x é um autovetor de A .

Considere vetores n- dimensionais que são formados como uma lista de n escalares, como os vetores tridimensionais

Esses vetores são múltiplos escalares entre si, ou paralelos ou colineares , se houver um escalar λ tal que

Neste caso .

Agora considere a transformação linear de vetores n- dimensionais definidos por uma matriz A n por n ,

ou

onde, para cada linha,

Se ocorrer que v e w são múltiplos escalares, isto é, se

 

 

 

 

( 1 )

então v é um autovetor da transformação linear A e o fator de escala λ é o autovalor correspondente a esse autovetor. Equação ( 1 ) é a equação de valores próprios da matriz Uma .

A Equação ( 1 ) pode ser declarada de forma equivalente como

 

 

 

 

( 2 )

onde I é a N por N matriz identidade e 0 é o vector zero.

Valores próprios e o polinômio característico

A equação ( 2 ) tem uma solução diferente de zero v se e somente se o determinante da matriz ( A - λI ) é zero. Portanto, os autovalores de A são valores de λ que satisfazem a equação

 

 

 

 

( 3 )

Usando regra Leibniz para o determinante, o lado esquerdo da equação ( 3 ) é um polinómio função da variável λ e o grau deste polinómio é N , a fim da matriz A . Seus coeficientes dependem das entradas de A , exceto que seu termo de grau n é sempre (−1) n λ n . Este polinomial é chamado o polinômio característico de A . A equação ( 3 ) é chamada a equação característica ou a equação temporal de um .

O teorema fundamental da álgebra implica que o polinômio característico de uma matriz A n -by- n , sendo um polinômio de grau n , pode ser fatorado no produto de n termos lineares,

 

 

 

 

( 4 )

onde cada λ i pode ser real, mas em geral é um número complexo. Os números de X 1 , λ 2 , ..., λ n , que podem não ter todos os valores distintos, são raízes do polinómio e são os valores próprios de uma .

Como um breve exemplo, que é descrito em mais detalhes na seção de exemplos posteriormente, considere a matriz

Tomando o determinante de ( A - λI ) , o polinômio característico de A é

Definir as raízes característica polinomial igual a zero, tem pelo λ = 1 e λ = 3 , que são os dois valores próprios de uma . Os autovetores correspondentes a cada autovalor podem ser encontrados resolvendo os componentes de v na equação . Neste exemplo, os autovetores são quaisquer múltiplos escalares diferentes de zero de

Se as entradas da matriz A são todos números reais, então os coeficientes do polinômio característico também serão números reais, mas os autovalores ainda podem ter partes imaginárias diferentes de zero. As entradas dos autovetores correspondentes, portanto, também podem ter partes imaginárias diferentes de zero. Da mesma forma, os autovalores podem ser números irracionais mesmo se todas as entradas de A forem números racionais ou mesmo se forem todos inteiros. No entanto, se as entradas de A são todos números algébricos , que incluem os racionais, os autovalores são números algébricos complexos.

As raízes não reais de um polinômio real com coeficientes reais podem ser agrupadas em pares de conjugados complexos , nomeadamente com os dois membros de cada par tendo partes imaginárias que diferem apenas no sinal e na mesma parte real. Se o grau for ímpar, pelo teorema do valor intermediário pelo menos uma das raízes é real. Portanto, qualquer matriz real com ordem ímpar tem pelo menos um autovalor real, enquanto uma matriz real com ordem par pode não ter nenhum autovalor real. Os autovetores associados a esses autovalores complexos também são complexos e também aparecem em pares de conjugados complexos.

Multiplicidade algébrica

Seja λ i um autovalor de uma matriz A n por n . A multiplicidade algébrica μ A ( λ i ) do autovalor é sua multiplicidade como uma raiz do polinômio característico, ou seja, o maior inteiro k tal que ( λ - λ i ) k divide uniformemente esse polinômio.

Suponha que uma matriz A tenha dimensão n e dn autovalores distintos. Enquanto a Equação ( 4 ) fatora o polinômio característico de A no produto de n termos lineares com alguns termos potencialmente repetidos, o polinômio característico pode, em vez disso, ser escrito como o produto de d termos, cada um correspondendo a um autovalor distinto e elevado à potência de multiplicidade algébrica,

Se d = n, então o lado direito é o produto de n termos lineares e isso é o mesmo que a Equação ( 4 ). O tamanho da multiplicidade algébrica de cada autovalor está relacionado à dimensão n como

Se μ A ( λ i ) = 1, então λ i é dito ser um autovalor simples . Se μ A ( λ i ) é igual à multiplicidade geométrica de λ i , γ A ( λ i ), definida na próxima seção, então λ i é considerado um autovalor semi - simples .

Autoespaços, multiplicidade geométrica e a base própria para matrizes

Dado um determinado valor próprio λ da matriz A n por n , defina o conjunto E como sendo todos os vetores v que satisfazem a Equação ( 2 ),

Por um lado, esse conjunto é precisamente o kernel ou espaço nulo da matriz ( A - λI ). Por outro lado, por definição, qualquer vetor diferente de zero que satisfaça essa condição é um autovetor de A associado a λ . Assim, o conjunto E é a união do vetor zero com o conjunto de todos os autovetores de A associados a λ , e E é igual ao espaço nulo de ( A - λI ). E é chamado de autoespaço ou espaço característico de A associado a λ . Em geral, λ é um número complexo e os autovetores são matrizes complexas de n por 1. Uma propriedade do espaço nulo é que ele é um subespaço linear , então E é um subespaço linear de ℂ n .

Como o autoespaço E é um subespaço linear, ele é fechado sob adição. Ou seja, se dois vectores de u e de v pertencem ao conjunto E , escrito u , vE , em seguida, ( u + v ) ∈ E ou equivalentemente A ( u + v ) = λ ( u + v ) . Isso pode ser verificado usando a propriedade distributiva da multiplicação da matriz. Da mesma forma, como E é um subespaço linear, ele é fechado na multiplicação escalar. Ou seja, se vE e α é um número complexo, ( α v ) ∈ E ou equivalentemente A ( α v ) = λ ( α v ) . Isso pode ser verificado observando que a multiplicação de matrizes complexas por números complexos é comutativa . Desde que u + v e α v não sejam zero, eles também são autovetores de A associados a λ .

A dimensão do autoespaço E associado a λ , ou equivalentemente o número máximo de autovetores linearmente independentes associados a λ , é referida como a multiplicidade geométrica do autovalor γ A ( λ ). Como E também é o espaço nulo de ( A - λI ), a multiplicidade geométrica de λ é a dimensão do espaço nulo de ( A - λI ), também chamada de nulidade de ( A - λI ), que se relaciona com a dimensão e classificação de ( A - λI ) como

Devido à definição de autovalores e autovetores, a multiplicidade geométrica de um autovalor deve ser pelo menos um, ou seja, cada autovalor tem pelo menos um autovetor associado. Além disso, a multiplicidade geométrica de um autovalor não pode exceder sua multiplicidade algébrica. Além disso, lembre-se de que a multiplicidade algébrica de um autovalor não pode exceder n .

Para provar a desigualdade , considere como a definição de multiplicidade geométrica implica a existência de autovetores ortonormais , tais como . Podemos, portanto, encontrar uma matriz (unitária) cujas primeiras colunas são esses autovetores, e cujas colunas restantes podem ser qualquer conjunto ortonormal de vetores ortogonais a esses autovetores de . Então tem posto completo e, portanto, é invertível, e com uma matriz cujo bloco superior esquerdo é a matriz diagonal . Isso implica isso . Em outras palavras, é semelhante a , o que implica isso . Mas, a partir da definição de , sabemos que contém um fator , o que significa que a multiplicidade algébrica de deve satisfazer .

Suponha que tenha autovalores distintos , onde a multiplicidade geométrica de é . A multiplicidade geométrica total de ,

é a dimensão da soma de todos os autoespaços dos autovalores de, ou equivalentemente o número máximo de autovetores linearmente independentes de . Se então

  • A soma direta dos espaços próprios de todos os valores próprios de é todo o espaço vetorial .
  • Uma base de pode ser formada a partir de autovetores linearmente independentes de ; tal base é chamada de eigenbasis
  • Qualquer vetor em pode ser escrito como uma combinação linear de autovetores de .

Propriedades adicionais de valores próprios

Let Ser uma matriz arbitrária de números complexos com autovalores . Cada autovalor aparece vezes nesta lista, onde é a multiplicidade algébrica do autovalor. A seguir estão as propriedades desta matriz e seus autovalores:

  • O traço de , definido como a soma de seus elementos diagonais, é também a soma de todos os valores próprios,
  • O determinante de é o produto de todos os seus autovalores,
  • Os autovalores do ésimo poder de ; ou seja, os autovalores de , para qualquer inteiro positivo , são .
  • A matriz é invertível se e somente se cada autovalor for diferente de zero.
  • Se for invertível, então os autovalores de são e a multiplicidade geométrica de cada autovalor coincidem. Além disso, como o polinômio característico do inverso é o polinômio recíproco do original, os autovalores compartilham a mesma multiplicidade algébrica.
  • Se for igual ao seu conjugado transposto , ou equivalentemente se for Hermitiano , então todo autovalor é real. O mesmo é verdade para qualquer matriz real simétrica .
  • Se for não apenas Hermitiano, mas também definido positivo, semidefinido positivo, definido negativo ou semidefinido negativo, então todo valor próprio é positivo, não negativo, negativo ou não positivo, respectivamente.
  • Se for unitário , todo autovalor tem valor absoluto .
  • se é uma matriz e são seus autovalores, então os autovalores da matriz (onde está a matriz identidade) são . Além disso, se , os valores próprios de são . Mais geralmente, para um polinômio, os valores próprios da matriz são .

Autovetores esquerdo e direito

Muitas disciplinas tradicionalmente representam vetores como matrizes com uma única coluna em vez de matrizes com uma única linha. Por esse motivo, a palavra "autovetor" no contexto de matrizes quase sempre se refere a um autovetor direito , ou seja, um vetor coluna que multiplica à direita a matriz na equação definidora, Equação ( 1 ),

O problema do autovalor e do autovetor também pode ser definido para vetores linha que saem da matriz de multiplicação . Nesta formulação, a equação definidora é

onde é um escalar e é uma matriz. Qualquer vetor linha que satisfaça essa equação é chamado de autovetor esquerdo de e é seu autovalor associado. Tomando a transposição desta equação,

Comparando esta equação com a Equação ( 1 ), segue imediatamente que um autovetor esquerdo de é o mesmo que a transposição de um autovetor direito de , com o mesmo autovalor. Além disso, uma vez que o polinômio característico de é o mesmo que o polinômio característico de , os autovalores dos autovetores esquerdos de são iguais aos autovalores dos autovetores direitos de .

Diagonalização e a decomposição automática

Suponha que os autovetores de A formem uma base, ou equivalentemente, A tem n autovetores linearmente independentes v 1 , v 2 ,…, v n com autovalores associados λ 1 , λ 2 ,…, λ n . Os autovalores não precisam ser distintos. Defina uma matriz quadrada Q cujas colunas são os n autovetores linearmente independentes de A ,

Uma vez que cada coluna de Q é um autovetor de A , multiplicar à direita A por Q escala cada coluna de Q por seu autovalor associado,

Com isto em mente, definir uma matriz diagonal Λ onde cada diagonal elemento Λ II é o valor próprio associado com o i th coluna de Q . Então

Como as colunas de Q são linearmente independentes, Q é invertível. Multiplicando à direita ambos os lados da equação por Q −1 ,

ou, em vez disso, multiplicando à esquerda ambos os lados por Q −1 ,

A pode, portanto, ser decomposto em uma matriz composta de seus autovetores, uma matriz diagonal com seus autovalores ao longo da diagonal e o inverso da matriz de seus autovetores. Isso é chamado de eigendecomposition e é uma transformação de similaridade . Tal matriz A é considerada semelhante à matriz diagonal Λ ou diagonalizável . A matriz Q é a mudança da matriz de base da transformação de similaridade. Essencialmente, as matrizes A e Λ representam a mesma transformação linear expressa em duas bases diferentes. Os autovetores são usados ​​como base para representar a transformação linear como Λ.

Por outro lado, suponha que uma matriz A seja diagonalizável. Vamos P ser uma matriz quadrada não singular tal que P -1 AP é algum matriz diagonal D . Multiplicando à esquerda ambos por P , AP = PD . Cada coluna de P deve, portanto, ser um vector próprio de Um cujo valor próprio é o elemento da diagonal correspondente de D . Uma vez que as colunas de P deve ser linearmente independente para P a ser invertida, existem n vectores próprios linearmente independentes de Uma . Segue-se então que os vetores próprios de A formam uma base se e somente se A for diagonalizável.

Uma matriz que não é diagonalizável é considerada defeituosa . Para matrizes defeituosas, a noção de autovetores generaliza para autovetores generalizados e a matriz diagonal de autovalores generaliza para a forma normal de Jordan . Sobre um campo algebricamente fechado, qualquer matriz A tem uma forma normal de Jordan e, portanto, admite uma base de autovetores generalizados e uma decomposição em autovetores generalizados .

Caracterização variacional

No caso de Hermit , os autovalores podem receber uma caracterização variacional. O maior autovalor de é o valor máximo da forma quadrática . Um valor que realiza esse máximo é um autovetor.

Exemplos de matrizes

Exemplo de matriz bidimensional

A matriz de transformação A = preserva a direcção dos vectores de roxo paralelo ao v λ = 1 = [1 -1] T e vectores azul paralela ao v λ = 3 = [1 1] T . Os vetores vermelhos não são paralelos a nenhum dos vetores próprios, portanto, suas direções são alteradas pela transformação. Os comprimentos dos vetores roxos permanecem inalterados após a transformação (devido ao seu autovalor de 1), enquanto os vetores azuis são três vezes o comprimento do original (devido ao seu autovalor de 3). Veja também: Uma versão estendida, mostrando todos os quatro quadrantes .

Considere a matriz

A figura à direita mostra o efeito desta transformação nas coordenadas do ponto no plano. Os autovetores v desta transformação satisfazem a Equação ( 1 ), e os valores de λ para os quais o determinante da matriz ( A  -  λI ) é igual a zero são os autovalores.

Tomando o determinante para encontrar o polinômio característico de A ,

Definir as raízes característica polinomial igual a zero, tem pelo λ = 1 e λ = 3 , que são os dois valores próprios de uma .

Para λ = 1 , a Equação ( 2 ) torna-se,

;

Qualquer vetor diferente de zero com v 1 = - v 2 resolve esta equação. Portanto,

é um autovetor de A correspondente a λ = 1, assim como qualquer múltiplo escalar desse vetor.

Para λ = 3 , a Equação ( 2 ) torna-se

Qualquer vetor diferente de zero com v 1 = v 2 resolve esta equação. Portanto,

é um autovetor de A correspondente a λ = 3, assim como qualquer múltiplo escalar desse vetor.

Assim, os vectores de v λ = 1 e v λ = 3 são vectores próprios de uma associados com os valores próprios λ = 1 e λ = 3 , respectivamente.

Fórmula geral para autovalores de uma matriz bidimensional

Os valores próprios da matriz real são

Note-se que os valores próprios são sempre real se b e c têm o mesmo sinal, uma vez que a quantidade sob o radical deve ser positivo.

Exemplo de matriz tridimensional

Considere a matriz

O polinômio característico de A é

As raízes do polinómio característica são 2, 1, e 11, que são os únicos três valores próprios de uma . Estes valores próprios correspondem aos vectores próprios , , e , ou qualquer múltiplo diferente de zero dos mesmos.

Exemplo de matriz tridimensional com autovalores complexos

Considere a matriz de permutação cíclica

Esta matriz desloca as coordenadas do vetor em uma posição e move a primeira coordenada para a parte inferior. Seu polinômio característico é 1 -  λ 3 , cujas raízes são

onde está uma unidade imaginária com .

Para o autovalor real λ 1 = 1, qualquer vetor com três entradas diferentes de zero iguais é um autovetor. Por exemplo,

Para o par conjugado complexo de autovalores imaginários,

Então

e

Portanto, os outros dois vetores próprios de A são complexos e são e com valores próprios λ 2 e λ 3 , respectivamente. Os dois autovetores complexos também aparecem em um par de conjugado complexo,

Exemplo de matriz diagonal

Matrizes com entradas apenas ao longo da diagonal principal são chamadas de matrizes diagonais . Os autovalores de uma matriz diagonal são os próprios elementos diagonais. Considere a matriz

O polinômio característico de A é

que tem as raízes λ 1 = 1 , λ 2 = 2 e λ 3 = 3 . Estas raizes são os elementos diagonais, bem como os valores próprios de  uma .

Cada elemento diagonal corresponde a um autovetor cujo único componente diferente de zero está na mesma linha desse elemento diagonal. No exemplo, os autovalores correspondem aos autovetores,

respectivamente, bem como múltiplos escalares desses vetores.

Exemplo de matriz triangular

Uma matriz cujos elementos acima da diagonal principal são todos zero é chamada de matriz triangular inferior , enquanto uma matriz cujos elementos abaixo da diagonal principal são todos zero é chamada de matriz triangular superior . Tal como acontece com matrizes diagonais, os valores próprios de matrizes triangulares são os elementos da diagonal principal.

Considere a matriz triangular inferior,

O polinômio característico de A é

que tem as raízes λ 1 = 1 , λ 2 = 2 e λ 3 = 3 . Estas raizes são os elementos diagonais, bem como os valores próprios de  uma .

Esses autovalores correspondem aos autovetores,

respectivamente, bem como múltiplos escalares desses vetores.

Exemplo de matriz com autovalores repetidos

Como no exemplo anterior, a matriz triangular inferior

tem um polinômio característico que é o produto de seus elementos diagonais,

As raízes desse polinômio e, portanto, os autovalores são 2 e 3. A multiplicidade algébrica de cada autovalor é 2; em outras palavras, ambos são raízes duplas. A soma das multiplicidades algébricas de todos os valores próprios distintos é μ A = 4 = n , a ordem do polinómio característico e a dimensão de um .

Por outro lado, a multiplicidade geométrica do autovalor 2 é apenas 1, porque seu autovalor é medido por apenas um vetor e, portanto, é unidimensional. Da mesma forma, a multiplicidade geométrica do valor próprio 3 é 1 porque seu espaço próprio é medido por apenas um vetor . A multiplicidade geométrica total γ A é 2, que é a menor que poderia ser para uma matriz com dois autovalores distintos. As multiplicidades geométricas são definidas em uma seção posterior.

Identidade de autovetor-autovalor

Para uma matriz Hermitiana , o quadrado da norma do j- ésimo componente de um autovetor normalizado pode ser calculado usando apenas os autovalores da matriz e os autovalores da matriz secundária correspondente ,

onde é a submatriz formada removendo a j ésima linha e coluna da matriz original.

Valores próprios e funções próprias de operadores diferenciais

As definições de autovalor e autovetores de uma transformação linear T permanecem válidas mesmo se o espaço vetorial subjacente for um espaço de Hilbert ou Banach de dimensão infinita . Uma classe amplamente usada de transformações lineares que atuam em espaços de dimensão infinita são os operadores diferenciais em espaços de funções . Seja D um operador diferencial linear no espaço C de funções reais infinitamente diferenciáveis de um argumento real t . A equação de autovalor para D é a equação diferencial

As funções que satisfazem essa equação são autovetores de D e são comumente chamadas de autofunções .

Exemplo de operador derivado

Considere o operador derivado com equação de autovalor

Esta equação diferencial pode ser resolvida multiplicando ambos os lados por dt / f ( t ) e integrando. Sua solução, a função exponencial

é a autofunção do operador derivado. Nesse caso, a autofunção é ela própria uma função de seu autovalor associado. Em particular, para λ = 0 a autofunção f ( t ) é uma constante.

O artigo principal da autofunção dá outros exemplos.

Definição geral

O conceito de autovalores e autovetores se estende naturalmente a transformações lineares arbitrárias em espaços vetoriais arbitrários. Seja V qualquer espaço vetorial sobre algum campo K de escalares , e seja T uma transformação linear mapeando V em V ,

Dizemos que um vetor diferente de zero vV é um autovetor de T se e somente se existe um escalar λK tal que

 

 

 

 

( 5 )

Essa equação é chamada de equação de autovalor para T , e o escalar λ é o autovalor de T correspondente ao autovetor v . T ( v ) é o resultado da aplicação da transformação T ao vetor v , enquanto λ v é o produto do escalar λ com v .

Autoespaços, multiplicidade geométrica e a base própria

Dado um autovalor λ , considere o conjunto

que é a união do vetor zero com o conjunto de todos os autovetores associados a  λ . E é chamado de autoespaço ou espaço característico de T associado a  λ .

Por definição de uma transformação linear,

para xy  ∈ V e ct  ∈ K . Portanto, se u e v são autovetores de T associados ao autovalor λ , ou seja , uv  ∈ E , então

Assim, tanto u + v quanto α v são zero ou autovetores de T associados a λ , ou seja, u + v , α vE , e E é fechado sob adição e multiplicação escalar. O autoespaço E associado com λ é, por conseguinte, um subespaço linear de V . Se esse subespaço tiver dimensão 1, às vezes é chamado de linha própria .

A multiplicidade geométrica γ T ( λ ) de um autovalor λ é a dimensão do autovalor associado a λ , ou seja, o número máximo de autovetores linearmente independentes associados a esse autovalor. Pela definição de autovalores e autovetores, γ T ( λ ) ≥ 1 porque cada autovalor tem pelo menos um autovetor.

Os autoespaços de T sempre formam uma soma direta . Como consequência, os autovetores de diferentes autovalores são sempre linearmente independentes. Portanto, a soma das dimensões dos espaços próprios não pode exceder a dimensão n do espaço vetorial no qual T opera, e não pode haver mais do que n valores próprios distintos.

Qualquer subespaço estendido por autovetores de T é um subespaço invariante de T , e a restrição de T a tal subespaço é diagonalizável. Além disso, se todo o espaço vetorial V pode ser medido pelos autovetores de T , ou equivalentemente se a soma direta dos autovalores associados a todos os autovalores de T é todo o espaço vetorial V , então uma base de V chamada de autobase pode ser formado a partir de vectores próprios linearmente independentes de T . Quando T admite uma base própria, T é diagonalizável.

Vetor zero como um autovetor

Embora a definição de um vetor próprio usada neste artigo exclua o vetor zero , é possível definir valores próprios e vetores próprios de forma que o vetor zero seja um vetor próprio.

Considere novamente a equação do valor próprio, Equação ( 5 ). Defina um autovalor como qualquer escalar λK tal que exista um vetor diferente de zero vV que satisfaça a Equação ( 5 ). É importante que esta versão da definição de um autovalor especifique que o vetor seja diferente de zero, caso contrário, por esta definição, o vetor zero permitiria que qualquer escalar em K fosse um autovalor. Defina um autovetor v associado ao autovalor λ como qualquer vetor que, dado λ , satisfaça a Equação ( 5 ). Dado o valor próprio, o vetor zero está entre os vetores que satisfazem a Equação ( 5 ), então o vetor zero é incluído entre os vetores próprios por esta definição alternativa.

Teoria espectral

Se λ é um autovalor de T , então o operador ( T - λI ) não é biunívoco e, portanto, seu inverso ( T - λI ) −1 não existe. O inverso é verdadeiro para espaços vetoriais de dimensão finita, mas não para espaços vetoriais de dimensão infinita. Em geral, o operador ( T - λI ) pode não ter um inverso, mesmo se λ não for um autovalor.

Por esse motivo, na análise funcional os autovalores podem ser generalizados para o espectro de um operador linear T como o conjunto de todos os escalares λ para os quais o operador ( T - λI ) não tem inverso limitado . O espectro de um operador sempre contém todos os seus autovalores, mas não se limita a eles.

Álgebras associativas e teoria da representação

Pode-se generalizar o objeto algébrico que está agindo no espaço vetorial, substituindo um único operador agindo em um espaço vetorial por uma representação de álgebra - uma álgebra associativa atuando em um módulo . O estudo de tais ações é o campo da teoria da representação .

O conceito teórico de representação de peso é um análogo de autovalores, enquanto vetores de peso e espaços de peso são análogos de autovetores e autoespaços, respectivamente.

Equações dinâmicas

As equações de diferença mais simples têm a forma

A solução desta equação para x em termos de t é encontrada usando sua equação característica

que pode ser encontrado empilhando em forma de matriz um conjunto de equações consistindo na equação de diferença acima e as equações k  - 1 dando um sistema k -dimensional de primeira ordem no vetor de variável empilhado em termos de seu valor uma vez defasado, e tomando a equação característica da matriz deste sistema. Esta equação fornece k raízes características para uso na equação solução

Um procedimento semelhante é usado para resolver uma equação diferencial do formulário

Cálculo

O cálculo de autovalores e autovetores é um tópico em que a teoria, conforme apresentada em livros didáticos de álgebra linear elementar, costuma estar muito longe da prática.

Método clássico

O método clássico consiste em primeiro encontrar os autovalores e, em seguida, calcular os autovetores para cada autovalor. É, de várias maneiras, pouco adequado para aritméticas não exatas, como ponto flutuante .

Autovalores

Os valores próprios de uma matriz podem ser determinados encontrando as raízes do polinômio característico. Isso é fácil para matrizes, mas a dificuldade aumenta rapidamente com o tamanho da matriz.

Em teoria, os coeficientes do polinômio característico podem ser calculados com exatidão, uma vez que são somas de produtos de elementos de matriz; e existem algoritmos que podem encontrar todas as raízes de um polinômio de grau arbitrário com qualquer precisão necessária . No entanto, esta abordagem não é viável na prática porque os coeficientes seriam contaminados por erros de arredondamento inevitáveis e as raízes de um polinômio podem ser uma função extremamente sensível dos coeficientes (como exemplificado pelo polinômio de Wilkinson ). Mesmo para matrizes cujos elementos são inteiros, o cálculo se torna não trivial, porque as somas são muito longas; o termo constante é o determinante , que para um é uma soma de diferentes produtos.

As fórmulas algébricas explícitas para as raízes de um polinômio existem apenas se o grau for 4 ou menos. De acordo com o teorema de Abel-Ruffini, não existe uma fórmula algébrica geral, explícita e exata para as raízes de um polinômio com grau 5 ou mais. (Generalidade é importante porque qualquer polinômio com grau é o polinômio característico de alguma matriz companheira de ordem .) Portanto, para matrizes de ordem 5 ou mais, os autovalores e autovetores não podem ser obtidos por uma fórmula algébrica explícita e, portanto, devem ser calculados por métodos numéricos . Mesmo a fórmula exata para as raízes de um polinômio de grau 3 é numericamente impraticável.

Autovetores

Uma vez que o valor (exato) de um autovalor é conhecido, os autovetores correspondentes podem ser encontrados encontrando soluções diferentes de zero da equação de autovalor, que se torna um sistema de equações lineares com coeficientes conhecidos. Por exemplo, uma vez que se sabe que 6 é um valor próprio da matriz

podemos encontrar seus autovetores resolvendo a equação , que é

Esta equação matricial é equivalente a duas equações lineares

     isso é     

Ambas as equações se reduzem à equação linear única . Portanto, qualquer vetor da forma , para qualquer número real diferente de zero , é um autovetor de com autovalor .

A matriz acima possui outro autovalor . Um cálculo semelhante mostra que os autovetores correspondentes são as soluções diferentes de zero , ou seja, qualquer vetor da forma , para qualquer número real diferente de zero .

Métodos iterativos simples

A abordagem inversa, de primeiro buscar os autovetores e depois determinar cada autovalor de seu autovetor, acaba sendo muito mais tratável para computadores. O algoritmo mais fácil aqui consiste em escolher um vetor inicial arbitrário e então repetidamente multiplicá-lo com a matriz (opcionalmente normalizar o vetor para manter seus elementos de tamanho razoável); isso faz o vetor convergir para um autovetor. Uma variação é, em vez disso, multiplicar o vetor por ; isso faz com que ele convirja para um autovetor do autovalor mais próximo de .

Se for (uma boa aproximação de) um autovetor de , então o autovalor correspondente pode ser calculado como

onde denota a transposta conjugada de .

Métodos modernos

Métodos eficientes e precisos para calcular autovalores e autovetores de matrizes arbitrárias não eram conhecidos até que o algoritmo QR foi projetado em 1961. Combinar a transformação de Householder com a decomposição LU resulta em um algoritmo com melhor convergência do que o algoritmo QR. Para grandes matrizes esparsas Hermitianas , o algoritmo Lanczos é um exemplo de um método iterativo eficiente para calcular autovalores e autovetores, entre várias outras possibilidades.

A maioria dos métodos numéricos que calculam os autovalores de uma matriz também determina um conjunto de autovetores correspondentes como um subproduto da computação, embora às vezes os implementadores optem por descartar a informação do autovetor assim que ela não for mais necessária.

Formulários

Valores próprios de transformações geométricas

A tabela a seguir apresenta algumas transformações de exemplo no plano junto com suas matrizes 2 × 2, autovalores e autovetores.

Dimensionamento Escala desigual Rotação Cisalhamento horizontal Rotação hiperbólica
Ilustração Escala igual (homotetia) Encolhimento vertical e alongamento horizontal de um quadrado unitário. Rotação em 50 graus
Mapeamento de cisalhamento horizontal
Squeeze r = 1.5.svg
Matriz




Polinômio característico
Autovalores,


Algebraic mult. ,



Mult geométrica . ,



Autovetores Todos os vetores diferentes de zero

A equação característica para uma rotação é uma equação quadrática com discriminante , que é um número negativo sempre que θ não é um múltiplo inteiro de 180 °. Portanto, exceto para esses casos especiais, os dois autovalores são números complexos ,; e todos os autovetores têm entradas não reais. De fato, exceto nesses casos especiais, uma rotação muda a direção de cada vetor diferente de zero no plano.

Uma transformação linear que leva um quadrado a um retângulo da mesma área (um mapeamento de compressão ) tem autovalores recíprocos.

Equação de Schrödinger

As funções de onda associadas aos estados ligados de um elétron em um átomo de hidrogênio podem ser vistas como os autovetores do átomo de hidrogênio hamiltoniano , bem como do operador do momento angular . Eles estão associados a autovalores interpretados como suas energias (aumentando para baixo :) e momento angular (aumentando em: s, p, d, ...). A ilustração mostra o quadrado do valor absoluto das funções de onda. As áreas mais claras correspondem a uma densidade de probabilidade mais alta para uma medição de posição . O centro de cada figura é o núcleo atômico , um próton .

Um exemplo de uma equação de autovalor onde a transformação é representada em termos de um operador diferencial é a equação de Schrödinger independente do tempo na mecânica quântica :

onde , o hamiltoniano , é um operador diferencial de segunda ordem e , a função de onda , é uma de suas autofunções correspondentes ao autovalor , interpretado como sua energia .

No entanto, no caso em que alguém está interessado apenas nas soluções de estado ligado da equação de Schrödinger, deve-se procurar dentro do espaço de funções quadradas integráveis . Uma vez que este espaço é um espaço de Hilbert com um produto escalar bem definido , pode-se introduzir um conjunto de base no qual e pode ser representado como uma matriz unidimensional (ou seja, um vetor) e uma matriz, respectivamente. Isso permite representar a equação de Schrödinger em uma forma de matriz.

A notação bra-ket é freqüentemente usada neste contexto. Um vetor, que representa um estado do sistema, no espaço de Hilbert de funções quadradas integráveis ​​é representado por . Nesta notação, a equação de Schrödinger é:

onde é um estado próprio de e representa o valor próprio. é um operador auto-adjunto observável , o análogo de dimensão infinita das matrizes hermitianas. Como no caso da matriz, na equação acima entende-se o vetor obtido pela aplicação da transformação em .

Transporte de ondas

Luz , ondas acústicas e microondas são espalhadas aleatoriamente inúmeras vezes ao atravessar um sistema estático desordenado . Mesmo que o espalhamento múltiplo repetidamente randomize as ondas, em última análise, o transporte de ondas coerentes através do sistema é um processo determinístico que pode ser descrito por uma matriz de transmissão de campo . Os autovetores do operador de transmissão formam um conjunto de frentes de onda de entrada específicas da desordem que permitem que as ondas se acoplem aos autovetores do sistema desordenado: as ondas das vias independentes podem viajar através do sistema. Os valores próprios ,, de correspondem à transmitância de intensidade associada a cada canal próprio. Uma das propriedades notáveis ​​do operador de transmissão de sistemas difusivos é sua distribuição bimodal de valores próprios com e . Além disso, uma das propriedades marcantes dos egenchannels abertos, além da transmitância perfeita, é o perfil espacial estatisticamente robusto dos egenchannels.

Orbitais moleculares

Na mecânica quântica , e em particular na física atômica e molecular , dentro da teoria Hartree-Fock , os orbitais atômicos e moleculares podem ser definidos pelos autovetores do operador Fock . Os autovalores correspondentes são interpretados como potenciais de ionização via teorema de Koopmans . Nesse caso, o termo autovetor é usado em um significado um pouco mais geral, uma vez que o operador Fock é explicitamente dependente dos orbitais e de seus autovalores. Assim, se quisermos sublinhar este aspecto, falamos de problemas não lineares de autovalor. Essas equações são geralmente resolvidas por um procedimento de iteração , denominado, neste caso, método de campo autoconsistente . Na química quântica , muitas vezes representa a equação de Hartree-Fock em um conjunto de base não ortogonal . Esta representação particular é um problema de autovalor generalizado denominado equações de Roothaan .

Geologia e glaciologia

Em geologia , especialmente no estudo do cultivo glacial , autovetores e autovalores são usados ​​como um método pelo qual uma massa de informação da orientação e mergulho dos constituintes de um tecido clastificado pode ser resumida em um espaço 3-D por seis números. No campo, um geólogo pode coletar esses dados para centenas ou milhares de clastos em uma amostra de solo, que só podem ser comparados graficamente, como em um diagrama Tri-Plot (Sneed e Folk) ou como um Stereonet em uma Rede Wulff.

A saída para o tensor de orientação está nos três eixos ortogonais (perpendiculares) do espaço. Os três vetores próprios são ordenados por seus valores próprios ; então é a orientação / inclinação primária do clast, é a secundária e é a terciária, em termos de resistência. A orientação do clast é definida como a direção do autovetor, em uma rosa dos ventos de 360 ° . O mergulho é medido como o valor próprio, o módulo do tensor: é avaliado de 0 ° (sem mergulho) a 90 ° (vertical). Os valores relativos de , e são ditados pela natureza do tecido do sedimento. Se , o tecido é considerado isotrópico. Se , o tecido é considerado plano. Se , o tecido é considerado linear.

Análise do componente principal

PCA da distribuição multivariada de Gauss centrada em com um desvio padrão de 3 em aproximadamente a direção e de 1 na direção ortogonal. Os vetores mostrados são autovetores unitários da matriz de covariância (simétrica, semidefinida positiva) escalonada pela raiz quadrada do autovalor correspondente. Assim como no caso unidimensional, a raiz quadrada é obtida porque o desvio padrão é mais facilmente visualizado do que a variância .

A autocomposição de uma matriz simétrica positiva semidefinida (PSD) produz uma base ortogonal de autovetores, cada um dos quais possui um autovalor não negativo. A decomposição ortogonal de uma matriz PSD é usada na análise multivariada , onde as matrizes de covariância da amostra são PSD. Essa decomposição ortogonal é chamada de análise de componente principal (PCA) em estatísticas. PCA estuda relações lineares entre variáveis. O PCA é executado na matriz de covariância ou na matriz de correlação (na qual cada variável é escalada para ter sua variância de amostra igual a um). Para a covariância ou matriz de correlação, os autovetores correspondem aos componentes principais e os autovalores à variância explicada pelos componentes principais. A análise de componentes principais da matriz de correlação fornece uma base ortogonal para o espaço dos dados observados: Nesta base, os maiores valores próprios correspondem aos componentes principais que estão associados com a maior parte da covariabilidade entre uma série de dados observados.

A análise de componentes principais é usada como meio de redução da dimensionalidade no estudo de grandes conjuntos de dados , como os encontrados em bioinformática . Na metodologia Q , os valores próprios da matriz de correlação determinam o julgamento do metodologista Q de significância prática (que difere da significância estatística do teste de hipótese ; cf. critérios para determinar o número de fatores ). Mais geralmente, a análise de componentes principais pode ser usada como um método de análise fatorial na modelagem de equações estruturais .

Análise de vibração

Forma de modo de um diapasão em frequência própria 440,09 Hz

Problemas de autovalor ocorrem naturalmente na análise de vibração de estruturas mecânicas com muitos graus de liberdade . Os valores próprios são as frequências naturais (ou frequências próprias ) de vibração, e os vectores próprios são as formas destes modos vibracionais. Em particular, a vibração não amortecida é governada por

ou

ou seja, a aceleração é proporcional à posição (isto é, esperamos ser senoidais no tempo).

Nas dimensões, torna-se uma matriz de massa e uma matriz de rigidez . Soluções admissíveis são, então, uma combinação linear de soluções para o problema de autovalor generalizado

onde é o autovalor e é a frequência angular (imaginária) . Os principais modos de vibração são diferentes dos principais modos de conformidade, que são os próprios vetores de . Além disso, vibração amortecida , governada por

leva a um chamado problema de autovalor quadrático ,

Isso pode ser reduzido a um problema de autovalor generalizado por manipulação algébrica ao custo de resolver um sistema maior.

As propriedades de ortogonalidade dos autovetores permitem o desacoplamento das equações diferenciais de forma que o sistema possa ser representado como somatório linear dos autovetores. O problema de autovalor de estruturas complexas é freqüentemente resolvido usando a análise de elemento finito , mas generalize ordenadamente a solução para problemas de vibração de valor escalar.

Eigenfaces

Autofaces como exemplos de autovetores

No processamento de imagens, as imagens processadas de faces podem ser vistas como vetores cujos componentes são os brilhos de cada pixel . A dimensão desse espaço vetorial é o número de pixels. Os autovetores da matriz de covariância associados a um grande conjunto de imagens normalizadas de faces são chamados de autofaces ; este é um exemplo de análise de componentes principais . Eles são muito úteis para expressar qualquer imagem de rosto como uma combinação linear de alguns deles. No ramo da biometria do reconhecimento facial , os eigenfaces fornecem um meio de aplicar compressão de dados aos rostos para fins de identificação . Pesquisas relacionadas aos sistemas de visão própria determinando os gestos das mãos também foram feitas.

Semelhante a este conceito, as auto-vozes representam a direção geral da variabilidade nas pronúncias humanas de um determinado enunciado, como uma palavra em um idioma. Com base em uma combinação linear de tais vozes próprias, uma nova pronúncia de voz da palavra pode ser construída. Esses conceitos foram considerados úteis em sistemas de reconhecimento automático de fala para adaptação de alto-falante.

Tensor de momento de inércia

Em mecânica , os vetores próprios do tensor do momento de inércia definem os eixos principais de um corpo rígido . O tensor de momento de inércia é uma quantidade chave necessária para determinar a rotação de um corpo rígido em torno de seu centro de massa .

Tensor de estresse

Na mecânica dos sólidos , o tensor de tensão é simétrico e, portanto, pode ser decomposto em um tensor diagonal com os autovalores na diagonal e os autovetores como base. Por ser diagonal, nesta orientação, o tensor de tensão não possui componentes de cisalhamento ; os componentes que possui são os componentes principais.

Gráficos

Na teoria dos grafos espectrais , um valor próprio de um gráfico é definido como um valor próprio da matriz de adjacência do gráfico ou (cada vez mais) da matriz Laplaciana do gráfico devido ao seu operador de Laplace discreto , que é (às vezes chamado de Laplaciano combinatório ) ou (às vezes chamado de Laplaciano normalizado ), onde é uma matriz diagonal com igual ao grau do vértice , e em , a ésima entrada diagonal é . O enésimo autovetor principal de um gráfico é definido como o autovetor correspondente ao maior ou o menor autovalor do Laplaciano. O primeiro autovetor principal do gráfico também é referido apenas como o autovetor principal.

O autovetor principal é usado para medir a centralidade de seus vértices. Um exemplo é o algoritmo PageRank do Google . O autovetor principal de uma matriz de adjacência modificada do gráfico da World Wide Web fornece as classificações da página como seus componentes. Esse vetor corresponde à distribuição estacionária da cadeia de Markov representada pela matriz de adjacência normalizada por linha; entretanto, a matriz de adjacência deve primeiro ser modificada para garantir que exista uma distribuição estacionária. O segundo menor autovetor pode ser usado para particionar o gráfico em clusters, por meio de agrupamento espectral . Outros métodos também estão disponíveis para clustering.

Número de reprodução básica

O número de reprodução básico ( ) é um número fundamental no estudo de como as doenças infecciosas se propagam. Se uma pessoa infecciosa for colocada em uma população de pessoas completamente suscetíveis, esse é o número médio de pessoas que uma pessoa infecciosa típica infectará. O tempo de geração de uma infecção é o tempo , desde uma pessoa sendo infectada até a próxima. Em uma população heterogênea, a matriz da próxima geração define quantas pessoas na população serão infectadas depois que o tempo passar. é então o maior autovalor da matriz de próxima geração.

Veja também

Notas

Citações

Fontes

Leitura adicional

links externos

Teoria