Subespaço linear - Linear subspace

Projetivização F5P ^ 1.svgProjetivização F5P ^ 1.svg
Projetivização F5P ^ 1.svgProjetivização F5P ^ 1.svg
Subespaços unidimensionais no espaço vetorial bidimensional sobre o corpo finito F 5 . A origem (0, 0), marcada com círculos verdes, pertence a qualquer um dos seis subespaços 1, enquanto cada um dos 24 pontos restantes pertence a exatamente um; uma propriedade que vale para 1-subespaços em qualquer campo e em todas as dimensões . Todos os F 5 2 (ou seja, um quadrado 5 × 5) são retratados quatro vezes para uma melhor visualização

Em matemática , e mais especificamente em álgebra linear , um subespaço linear , também conhecido como subespaço vetorial, é um espaço vetorial que é um subconjunto de algum espaço vetorial maior. Um subespaço linear geralmente é chamado simplesmente de subespaço quando o contexto serve para distingui-lo de outros tipos de subespaços.

Definição

Se V é um espaço vectorial sobre um campo K e se W é um subconjunto de V , em seguida, W é um subespaço linear de V se sob as operações de V , W é um espaço vectorial sobre K . De forma equivalente, um não vazio subconjunto W é um subespaço de V se, sempre que w 1 , w 2 , são elementos de W e α , β são elementos de K , segue-se que αw 1 + βw 2 é em W .

Como corolário, todos os espaços vetoriais são equipados com pelo menos dois (possivelmente diferentes) subespaços lineares: o espaço vetorial zero consistindo apenas no vetor zero e no próprio espaço vetorial inteiro. Eles são chamados de subespaços triviais do espaço vetorial.

Exemplos

Exemplo I

Seja o campo K o conjunto R de números reais , e seja o espaço vetorial V o espaço de coordenadas reais R 3 . Tome W ser o conjunto de todos os vetores em V cujo último componente é 0. Então W é um subespaço de V .

Prova:

  1. Dado u e v em W , então eles podem ser expressos como u = ( U 1 , U 2 , 0) e v = ( v 1 , v 2 , 0) . Então u + v = ( u 1 + v 1 , u 2 + v 2 , 0 + 0) = ( u 1 + v 1 , u 2 + v 2 , 0) . Assim, u + v é um elemento de W , também.
  2. Dado u em W e um escalar c em R , se u = ( u 1 , u 2 , 0) novamente, então c u = ( cu 1 , cu 2 , c 0) = ( cu 1 , cu 2 , 0) . Assim, c L é um elemento de W demasiado.

Exemplo II

Seja o campo R novamente, mas agora seja o espaço vetorial V o plano cartesiano R 2 . Considere W como o conjunto de pontos ( x , y ) de R 2 tal que x = y . Então W é um subespaço de R 2 .

Exemplo II ilustrado

Prova:

  1. Sejam p = ( p 1 , p 2 ) e q = ( q 1 , q 2 ) os elementos de W , ou seja, pontos no plano tais que p 1 = p 2 e q 1 = q 2 . Então, p + q = ( p 1 + q 1 , p 2 + q 2 ) ; desde que p 1 = p 2 e q 1 = q 2 , em seguida, p 1 + q 1 = p 2 + q 2 , de modo que p + q é um elemento de W .
  2. Deixe p = ( p 1 , p 2 ) ser um elemento de W , isto é, um ponto no plano de tal modo que p 1 = p 2 , e deixar c ser um escalar em R . Em seguida, c p = ( cp 1 , CP 2 ) ; desde que p 1 = p 2 , então cp 1 = cp 2 , de modo que c p é um elemento de W .

Em geral, qualquer subconjunto do espaço de coordenadas real R n que é definido por um sistema de equações lineares homogêneas produzirá um subespaço. (A equação no exemplo I era z  = 0, e a equação no exemplo II era x  =  y .) Geometricamente, esses subespaços são pontos, retas, planos e espaços que passam pelo ponto 0 .

Exemplo III

Mais uma vez entrar em campo para ser R , mas agora deixe o espaço vetorial V ser o conjunto R R de todas as funções a partir de R a R . Seja C ( R ) o subconjunto que consiste em funções contínuas . Em seguida, C ( R ) é um subespaço de R R .

Prova:

  1. Sabemos de cálculo que 0 ∈ C ( R ) ⊂ R R .
  2. Sabemos por meio do cálculo que a soma das funções contínuas é contínua.
  3. Novamente, sabemos por cálculo que o produto de uma função contínua e um número é contínuo.

Exemplo IV

Mantenha o mesmo campo e espaço vetorial de antes, mas agora considere o conjunto Diff ( R ) de todas as funções diferenciáveis . O mesmo tipo de argumento anterior mostra que este também é um subespaço.

Os exemplos que estendem esses temas são comuns na análise funcional .

Propriedades de subespaços

Da definição de espaços vetoriais, segue-se que os subespaços não são vazios e são fechados em somas e em múltiplos escalares. De forma equivalente, os subespaços podem ser caracterizados pela propriedade de serem fechados sob combinações lineares. Isto é, um conjunto não vazio W é um subespaço se e somente se cada combinação linear de uma quantidade finita muitos elementos da W também pertence a W . A definição equivalente afirma que também é equivalente considerar combinações lineares de dois elementos ao mesmo tempo.

Em um espaço vetorial topológico X , um subespaço W não precisa ser fechado topologicamente , mas um subespaço de dimensão finita está sempre fechado. O mesmo é verdadeiro para subespaços de codimensão finita (isto é, subespaços determinados por um número finito de funcionais lineares contínuos ).

Descrições

Descrições de subespaços incluem o conjunto de solução para um sistema homogêneo de equações lineares , o subconjunto do espaço euclidiano descrito por um sistema de equações paramétricas lineares homogêneas , a extensão de uma coleção de vetores e o espaço nulo , espaço de coluna e espaço de linha de uma matriz . Geometricamente (especialmente sobre o campo de números reais e seus subcampos), um subespaço é um plano em um n- espaço que passa pela origem.

Uma descrição natural de um subespaço 1 é a multiplicação escalar de um vetor diferente de zero v para todos os valores escalares possíveis. 1-subespaços especificados por dois vetores são iguais se e somente se um vetor pode ser obtido de outro com multiplicação escalar:

Esta ideia é generalizada para dimensões mais altas com amplitude linear , mas os critérios para igualdade de k- espaços especificados por conjuntos de k vetores não são tão simples.

Uma descrição dupla é fornecida com funcionais lineares (geralmente implementados como equações lineares). Um funcional linear diferente de zero F especifica seu subespaço kernel F  = 0 de codimensão 1. Subespaços de codimensão 1 especificados por dois funcionais lineares são iguais, se e somente se um funcional pode ser obtido de outro com multiplicação escalar (no espaço dual ) :

É generalizado para codimensões superiores com um sistema de equações . As duas subseções a seguir apresentarão esta última descrição em detalhes, e as quatro subseções restantes descrevem ainda mais a ideia de amplitude linear.

Sistemas de equações lineares

O conjunto de soluções para qualquer sistema homogêneo de equações lineares com n variáveis ​​é um subespaço no espaço de coordenadas K n :

Por exemplo, o conjunto de todos os vetores ( xyz ) (sobre números reais ou racionais ) satisfazendo as equações

é um subespaço unidimensional. De maneira mais geral, isto é, dado um conjunto de n funções independentes, a dimensão do subespaço em K k será a dimensão do conjunto nulo de A , a matriz composta das n funções.

Espaço nulo de uma matriz

Em um espaço de dimensão finita, um sistema homogêneo de equações lineares pode ser escrito como uma única equação de matriz:

O conjunto de soluções para essa equação é conhecido como espaço nulo da matriz. Por exemplo, o subespaço descrito acima é o espaço nulo da matriz

Cada subespaço de K n pode ser descrito como o espaço nulo de alguma matriz (veja § Algoritmos abaixo para mais).

Equações paramétricas lineares

O subconjunto de K n descrito por um sistema de equações paramétricas lineares homogêneas é um subespaço:

Por exemplo, o conjunto de todos os vetores ( xyz ) parametrizados pelas equações

é um subespaço bidimensional de K 3 , se K for um campo numérico (como números reais ou racionais).

Extensão de vetores

Na álgebra linear, o sistema de equações paramétricas pode ser escrito como uma única equação vetorial:

A expressão à direita é chamada de combinação linear dos vetores (2, 5, −1) e (3, −4, 2). Diz-se que esses dois vetores abrangem o subespaço resultante.

Em geral, uma combinação linear de vetores v 1v 2 , ...,  v k é qualquer vetor da forma

O conjunto de todas as combinações lineares possíveis é chamado de amplitude :

Se os vetores v 1 , ...,  v k têm n componentes, então sua extensão é um subespaço de K n . Geometricamente, o vão é o plano através da origem no espaço n- dimensional determinado pelos pontos v 1 , ...,  v k .

Exemplo
O plano xz em R 3 pode ser parametrizado pelas equações
Como um subespaço, o plano xz é medido pelos vetores (1, 0, 0) e (0, 0, 1). Cada vetor no plano xz pode ser escrito como uma combinação linear destes dois:
Geometricamente, isso corresponde ao fato de que cada ponto no plano xz pode ser alcançado a partir da origem movendo-se primeiro alguma distância na direção de (1, 0, 0) e, em seguida, movendo-se alguma distância na direção de (0, 0 , 1).

Espaço de coluna e espaço de linha

Um sistema de equações paramétricas lineares em um espaço de dimensão finita também pode ser escrito como uma equação de matriz única:

Nesse caso, o subespaço consiste em todos os valores possíveis do vetor x . Em álgebra linear, este subespaço é conhecida como o espaço de coluna (ou imagem ) da matriz Uma . É precisamente o subespaço de K n gerado pelos vectores de coluna Uma .

O espaço de linha de uma matriz é o subespaço estendido por seus vetores de linha. O espaço de linha é interessante porque é o complemento ortogonal do espaço nulo (veja abaixo).

Independência, base e dimensão

Os vectores de u e v é uma base para esta subespaço bidimensional de R 3 .

Em geral, um subespaço de K n determinado por k parâmetros (ou estendido por k vetores) tem dimensão k . No entanto, existem excepções a esta regra. Por exemplo, o subespaço de K 3 abrangido pelos três vetores (1, 0, 0), (0, 0, 1) e (2, 0, 3) é apenas o plano xz , com cada ponto no plano descrito por infinitamente muitos valores diferentes de t 1 , t 2 , t 3 .

Em geral, os vetores v 1 , ...,  v k são chamados linearmente independentes se

para ( t 1t 2 , ...,  t k ) ≠ ( u 1u 2 , ...,  u k ). Se v 1 , ..., v k são linearmente independentes, então as coordenadas t 1 , ..., t k para um vetor no intervalo são determinadas de forma única.

Uma base para um subespaço S é um conjunto de vectores linearmente independentes, cuja extensão é S . O número de elementos em uma base é sempre igual à dimensão geométrica do subespaço. Qualquer conjunto de abrangência para um subespaço pode ser transformado em uma base removendo vetores redundantes (consulte § Algoritmos abaixo para obter mais informações).

Exemplo
Seja S o subespaço de R 4 definido pelas equações
Em seguida, os vectores (2, 1, 0, 0) e (0, 0, 5, 1) são uma base para S . Em particular, cada vetor que satisfaça as equações acima pode ser escrito exclusivamente como uma combinação linear dos dois vetores básicos:
O subespaço S é bidimensional. Geometricamente, é o plano em R 4 que passa pelos pontos (0, 0, 0, 0), (2, 1, 0, 0) e (0, 0, 5, 1).

Operações e relações em subespaços

Inclusão

A relação binária de inclusão teórica de conjunto especifica uma ordem parcial no conjunto de todos os subespaços (de qualquer dimensão).

Um subespaço não pode estar em qualquer subespaço de menor dimensão. Se dim  L  =  k , um número finito, e L  ⊂  W , em seguida, dim  W  =  k se e somente se L  =  W .

Interseção

Em R 3 , a interseção de dois subespaços bidimensionais distintos é unidimensional

Subespaços dado L e W de um espaço vectorial V , em seguida, a sua intersecção L  ∩  W  : = { v  ∈  V  : v  é um elemento de ambos LW } é também um subespaço de V .

Prova:

  1. Vamos v e w elementos ser de U  ∩  W . Em seguida, v e w pertencem a ambos L e W . Uma vez que L é um subespaço, em seguida, v  +  w pertence L . Da mesma forma, uma vez que W é um subespaço, em seguida, v  +  w pertence a W . Assim, v  +  w pertence a L  ∩  W .
  2. Vamos v pertencem a U  ∩  W , e deixe c um escalar. Então v pertence a ambos L e W . Desde U e W são subespaços, c v pertence a ambos LW .
  3. Como U e W são espaços vetoriais, então 0 pertence a ambos os conjuntos. Assim, 0 pertence L  ∩  W .

Para cada vector de espaço V , o conjunto { 0 } e V em si são subespaços de V .

Soma

Se U e W são subespaços, sua soma é o subespaço

Por exemplo, a soma de duas linhas é o plano que contém as duas. A dimensão da soma satisfaz a desigualdade

Aqui, o mínimo ocorre apenas se um subespaço estiver contido no outro, enquanto o máximo é o caso mais geral. A dimensão da interseção e a soma estão relacionadas pela seguinte equação:

Um conjunto de subespaços é independente quando a única interseção entre qualquer par de subespaços é o subespaço trivial. A soma direta é a soma de subespaços independentes, escritos como . Uma reformulação equivalente é que uma soma direta é uma soma de subespaço sob a condição de que cada subespaço contribua para a extensão da soma.

A dimensão de uma soma direta é igual à soma dos subespaços, mas pode ser reduzida porque a dimensão do subespaço trivial é zero.

Malha de subespaços

A interseção e a soma das operações tornam o conjunto de todos os subespaços uma rede modular limitada , em que o subespaço {0} , o menor elemento , é um elemento de identidade da operação de soma e o subespaço idêntico V , o maior elemento, é um elemento de identidade da operação de interseção.

Complementos ortogonais

Se for um espaço de produto interno e um subconjunto de , o complemento ortogonal de , denotado , será novamente um subespaço. Se tiver dimensão finita e for um subespaço, então as dimensões e satisfazem a relação complementar . Além disso, nenhum vetor é ortogonal a si mesmo, então e é a soma direta de e . Aplicar complementos ortogonais duas vezes retorna o subespaço original: para cada subespaço .

Essa operação, entendida como negação ( ), torna a rede de subespaços uma rede ortocomplementada (possivelmente infinita ) (embora não seja uma rede distributiva).

Em espaços com outras formas bilineares , alguns, mas não todos, esses resultados ainda se mantêm. Em espaços pseudo-euclidianos e espaços vetoriais simpléticos , por exemplo, existem complementos ortogonais. No entanto, esses espaços podem ter vetores nulos que são ortogonais a eles próprios e, conseqüentemente, existem subespaços como esse . Como resultado, esta operação não transforma a rede de subespaços em uma álgebra booleana (nem em álgebra de Heyting ).

Algoritmos

A maioria dos algoritmos para lidar com subespaços envolve redução de linha . Este é o processo de aplicação de operações elementares de linha a uma matriz, até que ela atinja a forma escalonada de linha ou a forma escalonada de linha reduzida . A redução de linha tem as seguintes propriedades importantes:

  1. A matriz reduzida possui o mesmo espaço nulo da original.
  2. A redução de linha não altera a extensão dos vetores de linha, ou seja, a matriz reduzida tem o mesmo espaço de linha que a original.
  3. A redução da linha não afeta a dependência linear dos vetores da coluna.

Base para um espaço de linha

Insira uma matriz A m  ×  n .
Saída A base para o espaço fileira de A .
  1. Use operações elementares de linha para colocar A na forma escalonada de linha.
  2. As linhas diferentes de zero de forma escalonada são uma base para o espaço fileira de A .

Veja o artigo sobre espaço de linha para um exemplo .

Se, em vez disso, colocarmos a matriz A na forma escalonada de linhas reduzidas, a base resultante para o espaço de linhas será determinada exclusivamente. Isso fornece um algoritmo para verificar se dois espaços de linha são iguais e, por extensão, se dois subespaços de K n são iguais.

Associação de subespaço

Insira A base { b 1 , b 2 , ..., b k } para um subespaço S de K n e um vetor v com n componentes.
Output Determina se v é um elemento de S
  1. Crie uma matriz A ( k  + 1) ×  n cujas linhas são os vetores b 1 , ...,  b k e v .
  2. Use operações elementares de linha para colocar A na forma escalonada de linha.
  3. Se a forma escalonada tem uma linha de zeros, então os vectores { b 1 , ..., b k , v } são linearmente dependente, e, por conseguinte, vS .

Base para um espaço de coluna

Insira uma matriz A m  ×  n
Saída A base para o espaço da coluna de A
  1. Use operações elementares de linha para colocar A na forma escalonada de linha.
  2. Determine quais colunas da forma escalonada têm pivôs . As colunas correspondentes da matriz original são uma base para o espaço da coluna.

Veja o artigo sobre espaço de coluna para um exemplo .

Isso produz uma base para o espaço de coluna que é um subconjunto dos vetores de coluna originais. Funciona porque as colunas com pivôs são uma base para o espaço da coluna da forma escalonada e a redução da linha não altera as relações de dependência linear entre as colunas.

Coordenadas para um vetor

Insira A base { b 1 , b 2 , ..., b k } para um subespaço S de K n , e um vetor vS
Números de saída t 1 , t 2 , ..., t k tais que v = t 1 b 1 + ··· + t k b k
  1. Crie uma matriz aumentada A cujas colunas são b 1 , ..., b k , com a última coluna sendo v .
  2. Use operações elementares de linha para colocar A na forma escalonada de linha reduzida.
  3. Expresse a coluna final da forma escalonada reduzida como uma combinação linear das primeiras k colunas. Os coeficientes usados ​​são os números desejados t 1 , t 2 , ..., t k . (Essas devem ser precisamente as primeiras k entradas na coluna final da forma escalonada reduzida.)

Se a coluna final da forma escalonada reduzida contém um pivô, em seguida, o vector de entrada v não reside em S .

Base para um espaço nulo

Insira uma matriz A m  ×  n .
Saída A base para o espaço nulo de A
  1. Use operações elementares de linha para colocar A na forma escalonada de linha reduzida.
  2. Usando a forma escalonada de linha reduzida, determine quais das variáveis x 1 , x 2 , ..., x n são livres. Escreva as equações para as variáveis ​​dependentes em termos das variáveis ​​livres.
  3. Para cada variável livre x i , escolha um vetor no espaço nulo para o qual x i = 1 e as variáveis ​​livres restantes sejam zero. A colecção de vectores resultante é uma base para o espaço nulo de Uma .

Veja o artigo sobre espaço nulo para um exemplo .

Base para a soma e interseção de dois subespaços

Dados dois subespaços U e W de V , uma base da soma e a interseção podem ser calculadas usando o algoritmo de Zassenhaus

Equações para um subespaço

Insira A base { b 1 , b 2 , ..., b k } para um subespaço S de K n
Saída Um ( n  -  k ) ×  n matriz cujo espaço nulo é S .
  1. Crie uma matriz A cujas linhas sejam b 1 , b 2 , ..., b k .
  2. Use operações elementares de linha para colocar A na forma escalonada de linha reduzida.
  3. Sejam c 1 , c 2 , ..., c n as colunas da forma escalonada de linha reduzida. Para cada coluna sem um pivô, escreva uma equação expressando a coluna como uma combinação linear das colunas com pivôs.
  4. Isso resulta em um sistema homogêneo de n - k equações lineares envolvendo as variáveis c 1 , ..., c n . A ( n - k ) × n matriz correspondente a este sistema, é a matriz desejada com espaço nulo S .
Exemplo
Se a forma escalonada de linha reduzida de A for
então os vetores coluna c 1 , ..., c 6 satisfazem as equações
Segue-se que os vetores linha de A satisfazem as equações
Em particular, os vetores linha de A são uma base para o espaço nulo da matriz correspondente.

Veja também

Notas

  1. ^ O termo subespaço linear às vezes é usado para se referir a apartamentos e subespaços afins . No caso de espaços vetoriais sobre os reais, subespaços lineares, apartamentos e subespaços afins também são chamados de variedades lineares para enfatizar que também existem variedades .
  2. ^ Geralmente, K pode ser qualquer campo de tal característica que a matriz inteira dada tenha a classificação apropriadanela. Todos os campos incluem inteiros , mas alguns inteiros podem ser iguais a zero em alguns campos.
  3. ^ Esta definição é freqüentemente afirmada de forma diferente: os vetores v 1 , ..., v k são linearmente independentes se t 1 v 1 + ··· + t k v k0 para ( t 1 , t 2 , ..., t k ) ≠ (0, 0, ..., 0) . As duas definições são equivalentes.

Citações

Fontes

Livro didático

  • Anton, Howard (2005), Elementary Linear Algebra (Applications Version) (9ª ed.), Wiley International
  • Axler, Sheldon Jay (2015). Linear Algebra Done Right (3ª ed.). Springer . ISBN 978-3-319-11079-0.
  • Beauregard, Raymond A .; Fraleigh, John B. (1973), A First Course In Linear Algebra: with Optional Introduction to Groups, Rings, and Fields , Boston: Houghton Mifflin Company , ISBN 0-395-14017-X
  • Halmos, Paul Richard (1974) [1958]. Espaços vetoriais de dimensão finita (2ª ed.). Springer . ISBN 0-387-90093-4.
  • Hefferon, Jim (2020). Linear Algebra (4ª ed.). Publicação Ortogonal. ISBN 978-1-944325-11-4.
  • Herstein, IN (1964), Topics In Algebra , Waltham: Blaisdell Publishing Company , ISBN 978-1114541016
  • Katznelson, Yitzhak ; Katznelson, Yonatan R. (2008). Uma (concisa) Introdução à Álgebra Linear . American Mathematical Society . ISBN 978-0-8218-4419-9.
  • Kreyszig, Erwin (1972), Advanced Engineering Mathematics (3ª ed.), Nova York: Wiley , ISBN 0-471-50728-8
  • Lay, David C. (22 de agosto de 2005), Linear Algebra and Its Applications (3ª ed.), Addison Wesley, ISBN 978-0-321-28713-7
  • Leon, Steven J. (2006), Linear Algebra With Applications (7ª ed.), Pearson Prentice Hall
  • Meyer, Carl D. (15 de fevereiro de 2001), Matrix Analysis and Applied Linear Algebra , Society for Industrial and Applied Mathematics (SIAM), ISBN 978-0-89871-454-8, arquivado do original em 1º de março de 2001
  • Nering, Evar D. (1970), Linear Algebra and Matrix Theory (2ª ed.), New York: Wiley , LCCN  76091646
  • Poole, David (2006), Linear Algebra: A Modern Introduction (2ª ed.), Brooks / Cole, ISBN 0-534-99845-3

Rede

links externos