Matriz quadrada - Square matrix
Em matemática , uma matriz quadrada é uma matriz com o mesmo número de linhas e colunas. Um n -by- n matriz é conhecida como uma matriz quadrada de ordem . Quaisquer duas matrizes quadradas da mesma ordem podem ser adicionadas e multiplicadas.
Matrizes quadradas são freqüentemente usadas para representar transformações lineares simples , como cisalhamento ou rotação . Por exemplo, se for uma matriz quadrada que representa uma rotação ( matriz de rotação ) e é um vetor coluna que descreve a posição de um ponto no espaço, o produto produz outro vetor coluna que descreve a posição desse ponto após essa rotação. Se for um vetor linha , a mesma transformação pode ser obtida usando , onde é a transposta de .
Diagonal principal
As entradas ( i = 1,…, n ) formam a diagonal principal de uma matriz quadrada. Eles se encontram na linha imaginária que vai do canto superior esquerdo ao canto inferior direito da matriz. Por exemplo, a diagonal principal da matriz 4 × 4 acima contém os elementos a 11 = 9 , a 22 = 11 , a 33 = 4 , a 44 = 10 .
A diagonal de uma matriz quadrada do canto superior direito ao canto esquerdo inferior é chamada de antidiagonal ou contra- diagonal .
Tipos especiais
Nome Exemplo com n = 3 Matriz diagonal Matriz triangular inferior Matriz triangular superior
Matriz diagonal ou triangular
Se todas as entradas fora da diagonal principal forem zero, é chamada de matriz diagonal . Se apenas todas as entradas acima (ou abaixo) da diagonal principal forem zero, é chamada de matriz triangular superior (ou inferior) .
Matriz de identidade
A matriz de identidade de tamanho é a matriz em que todos os elementos na diagonal principal são iguais a 1 e todos os outros elementos são iguais a 0, por exemplo
É uma matriz quadrada de ordem , e também um tipo especial de matriz diagonal . É chamada de matriz de identidade porque a multiplicação com ela deixa uma matriz inalterada:
- AI n = I m A = A para qualquermatriz m- by- n .
Matriz invertível e seu inverso
Uma matriz quadrada é chamada de invertível ou não singular se existe uma matriz tal que
Se existe, é único e é chamado de matriz inversa de , denotado .
Matriz simétrica ou assimétrica
Uma matriz quadrada igual à sua transposta, ou seja , é uma matriz simétrica . Se, ao invés , em seguida, é chamado de matriz anti-simétrica .
Para uma matriz quadrada complexa , muitas vezes o análogo apropriado da transposta é a transposta conjugada , definida como a transposta do conjugado complexo de . Uma matriz quadrada complexa que satisfaz é chamada de matriz Hermitiana . Se, ao invés , em seguida, é chamado de matriz de inclinação-Hermitian .
Pelo teorema espectral , simétrico real (ou Hermitiana complexo) matrizes têm uma ortogonal (ou unitária) eigenbasis ; ou seja, todo vetor pode ser expresso como uma combinação linear de autovetores. Em ambos os casos, todos os autovalores são reais.
Matriz definida
Positivo definitivo | Indeterminado |
---|---|
Q ( x , y ) = 1/4 x 2 + y 2 | Q ( x , y ) = 1/4 x 2 - 1/4 y 2 |
Pontos tais que Q ( x , y ) = 1 ( Elipse ). |
Pontos tais que Q ( x , y ) = 1 ( Hipérbole ). |
Uma matriz simétrica n × n é chamada definida positiva (respectivamente definida negativa; indefinida), se para todos os vetores diferentes de zero a forma quadrática associada dada por
- Q ( x ) = x T A x
aceita apenas valores positivos (respectivamente apenas valores negativos; alguns valores negativos e alguns positivos). Se a forma quadrática assumir apenas valores não negativos (respectivamente apenas não positivos), a matriz simétrica é chamada semidefinida positiva (respectivamente semidefinida negativa); portanto, a matriz é indefinida precisamente quando não é semidefinida positiva nem semidefinida negativa.
Uma matriz simétrica é definida positivamente se e somente se todos os seus autovalores forem positivos. A tabela à direita mostra duas possibilidades para matrizes 2 × 2.
Permitir como entrada dois vetores diferentes, em vez disso, resulta na forma bilinear associada a A :
- B A ( x , y ) = x T A y .
Matriz ortogonal
Uma matriz ortogonal é uma matriz quadrada com entradas reais cujas colunas e linhas são vetores unitários ortogonais (isto é, vetores ortonormais ). De forma equivalente, uma matriz A é ortogonal se sua transposta for igual a sua inversa :
que envolve
onde I é a matriz de identidade .
Uma matriz ortogonal Uma é necessariamente invertível (com inversa Uma -1 = A T ), unitária ( A -1 = A * ) e normais ( A * A = AA * ). O determinante de qualquer matriz ortogonal é +1 ou -1. O grupo ortogonal especial consiste no N × n matrizes ortogonais com determinante 1.
O análogo complexo de uma matriz ortogonal é uma matriz unitária .
Matriz normal
Uma matriz quadrada real ou complexa é chamada de normal se . Se uma matriz quadrada real for simétrica, simétrica inclinada ou ortogonal, então ela é normal. Se uma matriz quadrada complexa for hermitiana, skew-hermitiana ou unitária, então ela é normal. As matrizes normais são de interesse principalmente porque incluem os tipos de matrizes que acabamos de listar e formam a classe mais ampla de matrizes para a qual o teorema espectral é válido.
Operações
Vestígio
O traço , tr ( A ) de uma matriz quadrada A é a soma de suas entradas diagonais. Embora a multiplicação da matriz não seja comutativa, o traço do produto de duas matrizes é independente da ordem dos fatores:
Isso é imediato a partir da definição de multiplicação de matrizes:
Além disso, o traço de uma matriz é igual ao de sua transposta, ou seja,
Determinante
O determinante ou de uma matriz quadrada é um número que codifica certas propriedades da matriz. Uma matriz é invertível se e somente se seu determinante for diferente de zero. Seu valor absoluto é igual à área (in ) ou volume (in ) da imagem do quadrado (ou cubo) unitário, enquanto seu sinal corresponde à orientação do mapa linear correspondente: o determinante é positivo se e somente se a orientação for preservado.
O determinante das matrizes 2 × 2 é dado por
O determinante de matrizes 3 × 3 envolve 6 termos ( regra de Sarrus ). A fórmula de Leibniz mais longa generaliza essas duas fórmulas para todas as dimensões.
O determinante de um produto de matrizes quadradas é igual ao produto de seus determinantes:
Adicionar um múltiplo de qualquer linha a outra linha, ou um múltiplo de qualquer coluna a outra coluna, não altera o determinante. A troca de duas linhas ou duas colunas afeta o determinante, multiplicando-o por -1. Usando essas operações, qualquer matriz pode ser transformada em uma matriz triangular inferior (ou superior) e, para tais matrizes, o determinante é igual ao produto das entradas na diagonal principal; isso fornece um método para calcular o determinante de qualquer matriz. Finalmente, a expansão de Laplace expressa o determinante em termos de menores , ou seja, determinantes de matrizes menores. Esta expansão pode ser usada para uma definição recursiva de determinantes (tomando como caso inicial o determinante de uma matriz 1 × 1, que é sua entrada única, ou mesmo o determinante de uma matriz 0 × 0, que é 1), que pode ser visto como equivalente à fórmula de Leibniz. Os determinantes podem ser usados para resolver sistemas lineares usando a regra de Cramer , onde a divisão dos determinantes de duas matrizes quadradas relacionadas é igual ao valor de cada uma das variáveis do sistema.
Autovalores e autovetores
Um número λ e um vetor diferente de zero satisfazendo
são chamados de autovalor e autovetor de , respectivamente. O número λ é um autovalor de uma n × n -matriz A se e somente se A - λ I n não for invertível, o que é equivalente a
O polinómio p Um num indeterminado X determinado por avaliação do determinante det ( XI N - A ) é chamado o polinómio característico de um . É um polinômio mônico de grau n . Portanto, a equação polinomial p A (λ) = 0 tem no máximo n soluções diferentes, ou seja, autovalores da matriz. Eles podem ser complexos, mesmo se as entradas de A forem reais. De acordo com o teorema de Cayley-Hamilton , p A ( A ) = 0 , ou seja, o resultado da substituição da própria matriz em seu próprio polinômio característico resulta na matriz zero .
Veja também
Notas
Referências
- Brown, William C. (1991), Matrices and vector spaces , New York, NY: Marcel Dekker , ISBN 978-0-8247-8419-5
- Horn, Roger A .; Johnson, Charles R. (1985), Matrix Analysis , Cambridge University Press, ISBN 978-0-521-38632-6
- Mirsky, Leonid (1990), An Introduction to Linear Algebra , Courier Dover Publications, ISBN 978-0-486-66434-7
links externos
- Mídia relacionada a matrizes quadradas no Wikimedia Commons