Matriz invertível - Invertible matrix

Em álgebra linear , um n -by- n matriz quadrada A é chamado invertível (também não singular ou não degenerada ), se existe um n -by- n quadrado matriz B tal que

em que I n representa o n -by- n matriz de identidade e a multiplicação utilizada é comum a multiplicação de matrizes . Se for esse o caso, então a matriz B é determinada exclusivamente por A e é chamada de inversa (multiplicativa) de A , denotada por A −1 . Matriz de inversão é o processo de encontrar a matriz B , que satisfaz a equação anterior para uma matriz invertível dado Uma .

Uma matriz quadrada que não é invertível é chamada de singular ou degenerada . Uma matriz quadrada é singular se e somente se seu determinante for zero. Matrizes singulares são raras no sentido de que se as entradas de uma matriz quadrada forem selecionadas aleatoriamente de qualquer região finita na reta numérica ou plano complexo, a probabilidade de que a matriz seja singular é 0, ou seja, "quase nunca" será singular. Matrizes não quadradas (matrizes m -by- n para as quais mn ) não têm uma inversa. No entanto, em alguns casos, essa matriz pode ter um inverso à esquerda ou uma inversa à direita . Se A for m -by- n e a classificação de A for igual a n ( nm ), então A tem um inverso à esquerda, uma matriz n -by- m B tal que BA = I n . Se A tem posto m ( mn ), então ele tem um inverso à direita, uma matriz B n -by- m tal que AB = I m .

Embora o caso mais comum seja o de matrizes sobre números reais ou complexos , todas essas definições podem ser fornecidas para matrizes sobre qualquer anel . No entanto, no caso do anel ser comutativo, a condição para que uma matriz quadrada seja invertível é que seu determinante seja invertível no anel, o que em geral é um requisito mais estrito do que ser diferente de zero. Para um anel não comutativo, o determinante usual não é definido. As condições para a existência de inverso à esquerda ou inverso à direita são mais complicadas, uma vez que uma noção de posto não existe sobre os anéis.

O conjunto de n x n matrizes inversíveis em conjunto com a operação de multiplicação de matrizes (e entradas de anel R ) formam um grupo , o grupo linear geral de grau n , denotado GL N ( R ) .

Propriedades

O teorema da matriz invertível

Seja A uma matriz quadrada n por n sobre um campo K (por exemplo, o campo R de números reais). As seguintes afirmações são equivalentes (ou seja, são todas verdadeiras ou todas falsas para qualquer matriz):

A é invertível, ou seja, A tem um inverso, é não singular ou não degenerado.
Um é fileira-equivalente para o n -by- n matriz identidade I n .
Um é coluna-equivalente para o n -by- n matriz identidade I n .
A tem n posições de pivô .
det A ≠ 0 . Em geral, uma matriz quadrada sobre um anel comutativo é invertível se e somente se seu determinante for uma unidade naquele anel.
A tem classificação completa; ou seja, classificação A = n .
A equação Ax = 0 possui apenas a solução trivial x  =  0 .
O kernel de A é trivial, ou seja, contém apenas o vetor nulo como elemento, ker ( A ) = { 0 }.
A equação Ax = b tem exatamente uma solução para cada b em K n .
As colunas de A são linearmente independentes .
As colunas de A abrangem K n .
Col A = K n .
As colunas de A formam uma base de K n .
O mapeamento de transformação linear de x para Ax é uma bijeção de K n para K n .
Existe uma matriz B n- by- n tal que AB = I n = BA .
A transposição Um T é uma matriz invertível (daí linhas de Um são linearmente independentes , extensão K n , e formar uma base de K n ).
O número 0 não é um valor próprio de Uma .
A matriz A pode ser expressa como um produto finito de matrizes elementares .
A matriz A tem um inverso à esquerda (ou seja, existe um B tal que BA = I ) ou um inverso à direita (ou seja, existe um C tal que AC = I ), caso em que existem os inversos esquerdo e direito e B = C = A −1 .

Outras propriedades

Além disso, as seguintes propriedades são válidas para uma matriz invertível A :

  • ( A −1 ) −1 = A ;
  • ( k A ) −1 = k −1 A −1 para k escalar diferente de zero ;
  • ( Ax ) + = X + A -1 , se um tem colunas ortonormais, em que + indica o inverso Moore-Penrose e x é um vector;
  • ( A T ) -1 = ( A -1 ) T ;
  • Para qualquer invertível n -by- n matrizes A e B , ( AB ) -1 = B -1 Uma -1 . De modo mais geral, se A 1 , ..., A k são inversíveis n -by- n matrizes, em seguida, ( A 1 A 2Um K -1 A k ) -1 = A-1
    k
    UMA-1
    k -1
    A-1
    2
    UMA-1
    1
    ;
  • det A −1 = (det A ) −1 .

As linhas da matriz inversa V de uma matriz U são ortonormais às colunas de U (e vice-versa, trocando linhas por colunas). Para ver isso, suponha que UV = VU = I onde as linhas de V são denotadas como e as colunas de U como for . Então, claramente, o produto interno euclidiano de quaisquer dois . Esta propriedade também pode ser útil na construção do inverso de uma matriz quadrada em alguns casos, onde um conjunto de vetores ortogonais (mas não necessariamente vetores ortonormais) para as colunas de U são conhecidos. Nesse caso, pode-se aplicar o iterativo processo de Gram-Schmidt para este conjunto inicial para determinar as linhas do inverso V .

Uma matriz que é sua própria inversa (ou seja, uma matriz A tal que A = A −1 e A 2 = I ), é chamada de matriz involutória .

Em relação ao seu adjunto

O adjunto de uma matriz pode ser usado para encontrar o inverso da seguinte forma:

Se for uma matriz invertível, então

Em relação à matriz de identidade

Segue-se da associatividade da multiplicação da matriz que se

para matrizes quadradas finitas A e B , então também

Densidade

Sobre o campo dos números reais, o conjunto de matrizes singulares n -by- n , consideradas como um subconjunto de R n × n , é um conjunto nulo , ou seja, tem medida de Lebesgue zero . Isso é verdade porque matrizes singulares são as raízes da função determinante . Esta é uma função contínua porque é um polinômio nas entradas da matriz. Assim, na linguagem da teoria da medida , quase todos n -by- n matrizes são invertíveis.

Além disso, o n -by- n matrizes inversíveis são um denso conjunto aberto no espaço topológica de tudo n -by- n matrizes. De forma equivalente, o conjunto de matrizes singulares é fechada e nenhuma parte densa no espaço de n -by- n matrizes.

Na prática, entretanto, podem-se encontrar matrizes não invertíveis. E em cálculos numéricos , matrizes que são invertíveis, mas próximas de uma matriz não invertível, ainda podem ser problemáticas; tais matrizes são consideradas mal condicionadas .

Exemplos

Considere a seguinte matriz 2 por 2:

A matriz é invertível. Para verificar isso, pode-se calcular aquele , que é diferente de zero.

Como exemplo de uma matriz não invertível ou singular, considere a matriz

O determinante de é 0, que é uma condição necessária e suficiente para que uma matriz não seja invertível.

Métodos de inversão de matriz

Eliminação gaussiana

A eliminação de Gauss-Jordan é um algoritmo que pode ser usado para determinar se uma dada matriz é invertível e para encontrar o inverso. Uma alternativa é a decomposição LU , que gera matrizes triangulares superiores e inferiores, que são mais fáceis de inverter.

Método de Newton

Uma generalização do método de Newton usado para um algoritmo inverso multiplicativo pode ser conveniente, se for conveniente encontrar uma semente inicial adequada:

Victor Pan e John Reif fizeram um trabalho que inclui maneiras de gerar uma semente inicial. A revista Byte resumiu uma de suas abordagens.

O método de Newton é particularmente útil ao lidar com famílias de matrizes relacionadas que se comportam o suficiente como a sequência fabricada para a homotopia acima: às vezes, um bom ponto de partida para refinar uma aproximação para o novo inverso pode ser o inverso já obtido de uma matriz anterior que quase corresponde a matriz atual, por exemplo, o par de sequências de matrizes inversas usadas na obtenção de raízes quadradas de matriz por iteração de Denman-Beavers ; isso pode precisar de mais de uma passagem da iteração em cada nova matriz, se elas não estiverem próximas o suficiente para que apenas uma seja o suficiente. O método de Newton também é útil para "retocar" correções no algoritmo de Gauss-Jordan, que foi contaminado por pequenos erros devido à aritmética de computador imperfeita .

Método Cayley-Hamilton

O teorema de Cayley-Hamilton permite que o inverso de seja expresso em termos de traços e potências de :

onde é a dimensão de , e é o traço da matriz dado pela soma da diagonal principal. A soma é assumida e os conjuntos de todos satisfazem a equação Diofantina linear

A fórmula pode ser reescrita em termos de polinômios completos de Bell de argumentos como

Eigendecomposition

Se a matriz A pode ser autocomposta, e se nenhum de seus autovalores é zero, então A é invertível e seu inverso é dado por

onde é a matriz quadrada ( N × N ) cuja i -ésima coluna é o autovetor de , e é a matriz diagonal cujos elementos diagonais são os autovalores correspondentes, ou seja ,. Se for simétrico, é garantido que seja uma matriz ortogonal , portanto . Além disso, por ser uma matriz diagonal, seu inverso é fácil de calcular:

Decomposição de Cholesky

Se a matriz A for definida positiva , então seu inverso pode ser obtido como

onde L é a triangular inferior de Cholesky decomposição de um , e G * indica a transposta conjugada de L .

Solução analítica

Escrever a transposta da matriz de cofatores , conhecida como matriz adjugada , também pode ser uma maneira eficiente de calcular o inverso de matrizes pequenas , mas esse método recursivo é ineficiente para matrizes grandes. Para determinar o inverso, calculamos uma matriz de cofatores:

de modo a

onde | A | é o determinante de A , C é a matriz de cofatores e C T representa a transposta da matriz .

Inversão de matrizes 2 × 2

A equação do cofator listada acima produz o seguinte resultado para matrizes 2 × 2 . A inversão dessas matrizes pode ser feita da seguinte forma:

Isso é possível porque 1 / ( ad - bc ) é o recíproco do determinante da matriz em questão, e a mesma estratégia poderia ser usada para outros tamanhos de matriz.

O método Cayley-Hamilton fornece

Inversão de matrizes 3 × 3

Uma inversão de matriz 3 × 3 computacionalmente eficiente é dada por

(onde o escalar A não deve ser confundido com a matriz A ).

Se o determinante for diferente de zero, a matriz é invertível, com os elementos da matriz intermediária no lado direito acima dados por

O determinante de A pode ser calculado aplicando a regra de Sarrus da seguinte forma:

A decomposição de Cayley-Hamilton dá

O inverso geral 3 × 3 pode ser expresso de forma concisa em termos de produto vetorial e produto triplo . Se uma matriz (constituída por três vectores de coluna, , , e ) é invertível, seu inverso é dada pela

O determinante de A, , é igual ao produto de tripla , e -o volume do paralelepípedo formado pelas linhas ou colunas:

A exatidão da fórmula pode ser verificada usando propriedades de produto cruzado e triplo e observando que para grupos, os inversos esquerdo e direito sempre coincidem. Intuitivamente, por causa dos produtos cruzados, cada linha de é ortogonal às duas colunas não correspondentes de (fazendo com que os termos fora da diagonal sejam zero). Dividindo por

faz com que os elementos diagonais de sejam unidade. Por exemplo, a primeira diagonal é:

Inversão de matrizes 4 × 4

Com o aumento da dimensão, as expressões para o inverso de A ficam complicadas. Para n = 4 , o método Cayley-Hamilton leva a uma expressão que ainda é tratável:

Inversão em bloco

As matrizes também podem ser invertidas em blocos usando a seguinte fórmula de inversão analítica:

 

 

 

 

( 1 )

onde A , B , C e D são sub-blocos de matriz de tamanho arbitrário. ( A deve ser quadrado, para que possa ser invertido. Além disso, A e D - CA −1 B devem ser não singulares.) Esta estratégia é particularmente vantajosa se A for diagonal e D - CA −1 B (o complemento de Schur de A ) é uma pequena matriz, uma vez que são as únicas matrizes que requerem inversão.

Essa técnica foi reinventada várias vezes e se deve a Hans Boltz (1923), que a utilizou para a inversão de matrizes geodésicas , e a Tadeusz Banachiewicz (1937), que a generalizou e comprovou sua correção.

O teorema da nulidade diz que a nulidade de A é igual à nulidade do sub-bloco na parte inferior direita da matriz inversa e que a nulidade de B é igual à nulidade do sub-bloco na parte superior direita da matriz inversa.

O procedimento de inversão que levou à Equação ( 1 ) executou operações de bloco de matriz que operaram em C e D primeiro. Em vez disso, se A e B forem operados primeiro, e desde que D e A - BD −1 C sejam não singulares, o resultado é

 

 

 

 

( 2 )

Equacionar as Equações ( 1 ) e ( 2 ) leva a

 

 

 

 

( 3 )

onde a Equação ( 3 ) é a identidade da matriz de Woodbury , que é equivalente ao teorema inverso binomial .

Se A e D forem ambos invertíveis, então as duas inversas da matriz de bloco acima podem ser combinadas para fornecer a fatoração simples

 

 

 

 

( 2 )

Pela identidade de Weinstein-Aronszajn , uma das duas matrizes na matriz bloco-diagonal é invertível exatamente quando a outra é.

Uma vez que uma inversão em blocos de um n × n matriz requer inversão de duas matrizes semi-porte e 6 multiplicações entre duas matrizes metade do tamanho, pode ser mostrado que um algoritmo de dividir para conquistar que os usos por blocos de inversão inverter uma matriz corre com a mesma complexidade de tempo como o algoritmo de multiplicação de matrizes usado internamente. A pesquisa sobre a complexidade da multiplicação de matrizes mostra que existem algoritmos de multiplicação de matrizes com uma complexidade de O ( n 2,3727 ) operações, enquanto o limite inferior mais comprovado é Ω ( n 2 log n ) .

Esta fórmula simplifica significativamente quando a matriz de bloco superior direito é a matriz zero. Esta formulação é útil quando as matrizes e têm fórmulas inversas relativamente simples (ou pseudoinversas no caso em que os blocos não são todos quadrados. Neste caso especial, a fórmula de inversão da matriz de bloco declarada em geral completa acima torna-se

Da série Neumann

Se uma matriz A tem a propriedade de

então A é não singular e seu inverso pode ser expresso por uma série de Neumann :

Truncar a soma resulta em um inverso "aproximado" que pode ser útil como um pré - condicionador . Observe que uma série truncada pode ser acelerada exponencialmente, observando que a série de Neumann é uma soma geométrica . Como tal, satisfaz

.

Portanto, apenas multiplicações de matrizes são necessárias para calcular os termos da soma.

Mais geralmente, se A está "perto" da matriz invertível X no sentido de que

então A é não singular e seu inverso é

Se também for o caso de A - X ter classificação 1, isso simplifica para

aproximação p -adic

Se A é uma matriz com coeficientes inteiros ou racionais e buscamos uma solução em racionais de precisão arbitrária , então um método de aproximação p -adic converge para uma solução exata em , assumindo que a multiplicação de matriz padrão é usada. O método se baseia na resolução de n sistemas lineares por meio do método de aproximação p -adic de Dixon (each in ) e está disponível como tal em software especializado em operações de matriz de precisão arbitrária, por exemplo, em IML.

Método de vetores de base recíproca

Dada uma matriz quadrada , com linhas interpretados como vectores ( Einstein somatório assumido), onde a é um padrão base ortonormal de espaço Euclidiano ( ), em seguida, utilizando álgebra de Clifford (ou geométricos álgebra ) calculamos o recíproco (algumas vezes chamado de dupla ) vectores de coluna quanto as colunas da matriz inversa . Observe que o local " " indica que " " é removido desse local na expressão acima para . Temos então , onde está o delta de Kronecker . Também temos , conforme necessário. Se os vetores não são linearmente independentes, então e a matriz não é invertível (não tem inversa).

Derivada da matriz inversa

Suponha que a matriz invertível A dependa de um parâmetro t . Então, a derivada do inverso de A em relação a t é dada por

Para derivar a expressão acima para a derivada do inverso de A , pode-se diferenciar a definição do inverso da matriz e então resolver para o inverso de A :

Subtraindo de ambos os lados do acima e multiplicando à direita por fornece a expressão correta para a derivada do inverso:

Da mesma forma, se for um número pequeno, então

Mais geralmente, se

então,

Dado um número inteiro positivo ,

Portanto,

Inverso generalizado

Algumas das propriedades das matrizes inversas são compartilhadas por inversas generalizadas (por exemplo, a inversa de Moore-Penrose ), que pode ser definida para qualquer matriz m -by- n .

Formulários

Para a maioria das aplicações práticas, é não necessário inverter uma matriz para resolver um sistema de equações lineares ; entretanto, para uma solução única, é necessário que a matriz envolvida seja invertível.

As técnicas de decomposição, como a decomposição LU, são muito mais rápidas do que a inversão, e vários algoritmos rápidos para classes especiais de sistemas lineares também foram desenvolvidos.

Regressão / mínimos quadrados

Embora uma inversa explícita não seja necessária para estimar o vetor de incógnitas, é a maneira mais fácil de estimar sua precisão, encontrada na diagonal de uma matriz inversa (a matriz de covariância posterior do vetor de incógnitas). No entanto, algoritmos mais rápidos para calcular apenas as entradas diagonais de uma matriz inversa são conhecidos em muitos casos.

Matrix inversa em simulações em tempo real

A inversão de matriz desempenha um papel significativo na computação gráfica , particularmente na renderização de gráficos 3D e simulações 3D. Os exemplos incluem projeção de raios de tela para mundo , transformações de objeto de mundo para subespaço para mundo e simulações físicas.

Matrix inversa na comunicação sem fio MIMO

A inversão de matriz também desempenha um papel significativo na tecnologia MIMO (Multiple-Input, Multiple-Output) em comunicações sem fio. O sistema MIMO consiste em N antenas de transmissão e M de recepção. Sinais exclusivos, ocupando a mesma banda de frequência, são enviados por meio de N antenas de transmissão e são recebidos por meio de M. antenas de recepção. A chegada do sinal a cada antena de recepção irá ser uma combinação linear dos N sinais transmitidos formando um N  ×  M matriz de transmissão H . É crucial que a matriz H seja invertível para que o receptor possa descobrir a informação transmitida.

Veja também

Referências

Leitura adicional

links externos