Rank (álgebra linear)
Em álgebra linear :
Classificação de uma matriz
O posto de uma matriz (cujos coeficientes pertencem a um campo comutativa de escalares , ), denotada , é:
NO{\ displaystyle A}K{\ displaystyle \ mathbb {K}}rg(NO){\ displaystyle {\ text {rg}} (A)}
- o número máximo de vetores de linha (ou coluna) linearmente independentes;
- a dimensão do subespaço vetorial gerado pelos vetores de linha (ou coluna) de ;NO{\ displaystyle A}
- a maior das ordens das matrizes quadradas invertíveis extraídas ;NO{\ displaystyle A}
- a maior das ordens de menores diferentes de zero ;NO{\ displaystyle A}
- o menor dos tamanhos das matrizes e cujo produto é igual a , todos esses números sendo iguais.B{\ displaystyle B}VS{\ displaystyle C}NO{\ displaystyle A}
A classificação pode ser determinada realizando uma eliminação por meio do método de Gauss-Jordan e examinando a forma do degrau obtida dessa forma.
Exemplo
Considere a seguinte matriz:
NO=(1023204602201243){\ displaystyle A = {\ begin {pmatrix} 1 & 0 & 2 & 3 \\ 2 & 0 & 4 & 6 \\ 0 & 2 & 2 & 0 \\ 1 & 2 & 4 & 3 \\\ end { pmatrix}}}
Chamamos os vetores formados pelas quatro linhas de .
eu1,eu2,eu3,eu4{\ displaystyle l_ {1}, l_ {2}, l_ {3}, l_ {4}}NO{\ displaystyle A}
Vemos que o 2 nd linha é o dobro da primeira linha, então o posto de é igual ao da família .
NO{\ displaystyle A}(eu1,eu3,eu4){\ displaystyle (l_ {1}, l_ {3}, l_ {4})}
Note-se também que o 4 th linha pode ser formada pela soma das linhas 1 e 3 (isto é, ). Portanto, a classificação de é igual à de .
eu4=eu1+eu3{\ displaystyle l_ {4} = l_ {1} + l_ {3}}(eu1,eu3,eu4){\ displaystyle (l_ {1}, l_ {3}, l_ {4})}(eu1,eu3){\ displaystyle (l_ {1}, l_ {3})}
As linhas 1 e 3 são linearmente independentes (ou seja, não proporcionais). O mesmo ocorre com a classificação 2.
(eu1,eu3){\ displaystyle (l_ {1}, l_ {3})}
Finalmente, a classificação de é 2.
NO{\ displaystyle A}
Outra maneira é calcular uma forma em escala dessa matriz. Esta nova matriz tem a mesma classificação da matriz original, e a classificação corresponde ao número de suas linhas que são diferentes de zero. Nesse caso, temos duas linhas que correspondem a esse critério.
NO′=(1023011000000000){\ displaystyle A '= {\ begin {pmatrix} 1 & 0 & 2 & 3 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\\ end {pmatrix}}}
Observe que a classificação de uma dada matriz é igual à classificação de sua transposta . Para o exemplo, vamos pegar a transposição da matriz A acima:
tNO=(1201002224243603){\ displaystyle ^ {\ text {t}} A = {\ begin {pmatrix} 1 & 2 & 0 & 1 \\ 0 & 0 & 2 & 2 \\ 2 & 4 & 2 & 4 \\ 3 & 6 & 0 e 3 \\\ end {pmatrix}}}
Vê-se que o 4 th linha é três vezes a primeira, e que a terceira linha é a segunda menos o dobro da primeira.
Após o dimensionamento, obtemos:
(1201001100000000){\ displaystyle {\ begin {pmatrix} 1 & 2 & 0 & 1 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \\\ end {pmatrix} }}
e a classificação desta matriz é de fato 2.
A classificação de uma forma quadrática é a classificação da matriz associada.
Classificação de um mapa linear
Dados dois espaços vetoriais , onde é um corpo comutativo e um mapeamento linear de em uma linha de é o tamanho da imagem de .
K{\ displaystyle K}E{\ displaystyle E}F{\ displaystyle F}K{\ displaystyle K}f{\ displaystyle f}E{\ displaystyle E}F{\ displaystyle F}f{\ displaystyle f}f{\ displaystyle f}
Se e tiver dimensões finitas, é também o posto da matriz associada em duas bases de e . Em particular, a classificação da matriz associada não depende das bases escolhidas para representar . Na verdade, a multiplicação para a direita ou esquerda por uma matriz invertível não muda o posto, que leva , onde está a matriz que representa em um primeiro par de bases, e , da matriz de mudança de base .
E{\ displaystyle E}F{\ displaystyle F}f{\ displaystyle f}E{\ displaystyle E}F{\ displaystyle F}f{\ displaystyle f}f{\ displaystyle f}rg(P-1NOQ)=rg(NO){\ displaystyle {\ text {rg}} \ left (P ^ {- 1} AQ \ right) = {\ text {rg}} (A)}NO{\ displaystyle A}f{\ displaystyle f}P{\ displaystyle P}Q{\ displaystyle Q}
Classificação de uma família de vetores
- Para uma família, sua classificação corresponde ao número máximo de vetores que uma subfamília livre dessa família pode conter.
- Posição também pode definir uma família como: .você{\ displaystyle u}rg(você)=sol(Vect(você)){\ displaystyle {\ text {rg}} (u) = \ dim ({\ text {Vect}} (u))}
Nota: se for uma família de vetores indexados por inteiros de 1 a , então a classificação de é a classificação do mapa linear(você1,...,vocênão){\ displaystyle (u_ {1}, \ dots, u_ {n})}não{\ displaystyle n}você{\ displaystyle u}
Knão→E:(r1,...,rnão)↦∑reuvocêeu{\ displaystyle \ mathbb {K} ^ {n} \ rightarrow E: (r_ {1}, \ dots, r_ {n}) \ mapsto \ sum r_ {i} u_ {i}}
onde está o campo dos escalares. O motivo é: é a imagem desta aplicação linear.
K{\ displaystyle \ mathbb {K}}Vect(você){\ displaystyle {\ text {Vect}} (u)}
Propriedades
Sejam A, B e C matrizes.
- Desigualdade de Frobenius :rg(NOB)+rg(BVS)≤rg(NOBVS)+rg(B){\ displaystyle {\ text {rg}} (AB) + {\ text {rg}} (BC) \ leq {\ text {rg}} (ABC) + {\ text {rg}} (B)}
Demonstração
Mais geralmente, para três mapas lineares (entre espaços vetoriais de dimensões não necessariamente finitas) , e , temos porque o morfismo canônico de in induzido por é sobrejetivo .
vs:E→F{\ displaystyle c: E \ rightarrow F}b:F→G{\ displaystyle b: F \ rightarrow G}no:G→H{\ displaystyle a: G \ rightarrow H}rg(no∘b)+rg(b∘vs)≤rg(no∘b∘vs)+rg(b){\ displaystyle {\ text {rg}} (a \ circ b) + {\ text {rg}} (b \ circ c) \ leq {\ text {rg}} (a \ circ b \ circ c) + { \ text {rg}} (b)} Eu estou(b)Eu estou(b∘vs){\ displaystyle {\ frac {{\ text {im}} (b)} {{\ text {im}} (b \ circ c)}}}Eu estou(no∘b)Eu estou(no∘b∘vs){\ displaystyle {\ frac {{\ text {im}} (a \ circ b)} {{\ text {im}} (a \ circ b \ circ c)}}} no{\ displaystyle a}
- (Caso especial) Desigualdade de Sylvester : se tem colunas e tem linhas, entãoNO{\ displaystyle A}não{\ displaystyle n}B{\ displaystyle B}não{\ displaystyle n}rg(NO)+rg(B)-não≤rg(NOB){\ displaystyle {\ text {rg}} (A) + {\ text {rg}} (B) -n \ leq {\ text {rg}} (AB)}
-
Teorema de classificação : um mapa linear de em ,f{\ displaystyle f}E{\ displaystyle E}F{\ displaystyle F}sol(E)=rg(f)+sol(Ker(f)){\ displaystyle \ dim (E) = {\ text {rg}} (f) + \ dim ({\ text {Ker}} (f))}
-
Matriz transposta e mapa transposto : erg(tNO)=rg(NO){\ displaystyle {\ text {rg}} (^ {\ mathrm {t}} A) = {\ text {rg}} (A)}rg(tf)=rg(f){\ displaystyle {\ text {rg}} (^ {\ mathrm {t}} f) = {\ text {rg}} (f)}
-
Produto de matrizes e composição de aplicações lineares : e ; em particular - por composição à esquerda ou à direita por identidade - a classificação de um mapa linear de em é menor ou igual a e arg(BNO)≤min(rg(B),rg(NO)){\ displaystyle {\ text {rg}} (BA) \ leq \ min ({\ text {rg}} (B), {\ text {rg}} (A))}rg(g∘f)≤min(rg(g),rg(f)){\ displaystyle {\ text {rg}} (g \ circ f) \ leq \ min ({\ text {rg}} (g), {\ text {rg}} (f))}E{\ displaystyle E}F{\ displaystyle F}sol(E){\ displaystyle \ dim (E)}sol(F){\ displaystyle \ dim (F)}
- Adição :, com igualdade se, e somente se, as imagens de e se cruzam apenas em zero e as imagens de transpostas e se cruzam apenas em zero.rg(NO+B)≤rg(NO)+rg(B){\ displaystyle {\ text {rg}} (A + B) \ leq {\ text {rg}} (A) + {\ text {rg}} (B)}NO{\ displaystyle A}B{\ displaystyle B}tNO{\ displaystyle ^ {\ mathrm {t}} A}tB{\ displaystyle ^ {\ mathrm {t}} B}
- A classificação de uma família de vetores é invariante por operação elementar .
- Duas matrizes são equivalentes se e somente se tiverem a mesma classificação.
- A aplicação de classificação, de dentro , é semicontínua abaixo .Mm,não(R){\ displaystyle M_ {m, n} (\ mathbb {R})}R{\ displaystyle \ mathbb {R}}
- A maior função convexa fechada que diminui o posto na bola , onde (notamos o vetor de valores singulares de ) é a restrição a esta bola da norma nuclear . Mais precisamente, se definirmos por , onde está o indicativo de , então seu biconjugado é escrito . Sem restringir a classificação a um conjunto, obtemos uma identidade de pouco uso.B: ={NO∈Rm×não∣‖NO‖≤1}{\ displaystyle {\ mathcal {B}}: = \ {A \ in \ mathbb {R} ^ {m \ times n} \ mid \ left \ | A \ right \ | \ leq 1 \}}‖NO‖: =max{‖NOx‖2∣‖x‖2≤1}=‖σ(NO)‖∞{\ displaystyle \ left \ | A \ right \ |: = \ max \ {\ left \ | Ax \ right \ | _ {2} \ mid \ left \ | x \ right \ | _ {2} \ leq 1 \ } = \ | \ sigma (A) \ | _ {\ infty}}σ(NO){\ displaystyle \ sigma (A)}NO{\ displaystyle A} ‖⋅‖∗{\ displaystyle \ | \ cdot \ | _ {*}}f:Rm×não→R¯{\ displaystyle f: \ mathbb {R} ^ {m \ times n} \ to {\ overline {\ mathbb {R}}}}f=rg+euB{\ displaystyle f = {\ operatorname {rg}} + {\ mathcal {I}} _ {\ mathcal {B}}}euB{\ displaystyle {\ mathcal {I}} _ {\ mathcal {B}}}B{\ displaystyle {\ mathcal {B}}}f∗∗=‖⋅‖∗+euB{\ displaystyle f ^ {**} = \ left \ | \ cdot \ right \ | _ {*} + {\ mathcal {I}} _ {\ mathcal {B}}}rg∗∗=0{\ displaystyle \ operatorname {rg} ^ {**} = 0}
Caso em que o campo de escalares não é comutativo
Acima, assumimos que o campo dos escalares é comutativo. Podemos estender a noção de posto de uma matriz para o caso em que o campo de escalares não é necessariamente comutativo, mas a definição é um pouco mais delicada.
Let ser um campo não necessariamente conmutativo e uma matriz com m linhas e n colunas com coeficientes nos . Chamamos classificação de (em relação a ) a dimensão do subespaço gerado pelas colunas de in fornecida com sua estrutura de espaço vetorial à direita . Provamos que a classificação de também é igual à dimensão do subespaço gerado pelas linhas de in fornecidas com sua estrutura de espaço vetorial K à esquerda .
K{\ displaystyle K}M{\ displaystyle M}K{\ displaystyle \ mathbb {K}}M{\ displaystyle M}K{\ displaystyle K}M{\ displaystyle M}Km{\ displaystyle K ^ {m}}K{\ displaystyle K}M{\ displaystyle M}M{\ displaystyle M}Knão{\ displaystyle \ mathbb {K} ^ {n}}
Considere, por exemplo, um campo não comutativo K e a matriz
, onde e são dois elementos dos quais não comutam (esses elementos, portanto, não são zero).
NO: =(no1vsnovs){\ displaystyle A: = {\ begin {pmatrix} a & 1 \\ ca & c \\\ end {pmatrix}}}no{\ displaystyle a}vs{\ displaystyle c}K{\ displaystyle K}
As duas linhas desta matriz estão linearmente relacionadas no espaço vetorial à esquerda , porque . Da mesma forma, as duas colunas estão relacionadas no espaço vetorial à direita , porque . A classificação da matriz é, portanto, igual a 1.
K2{\ displaystyle K ^ {2}}vs(no,1)-(vsno,vs)=(0,0){\ displaystyle c (a, 1) - (ca, c) = (0,0)} K2{\ displaystyle K ^ {2}}(no,vsno)-(1,vs)no=(0,0){\ displaystyle (a, ca) - (1, c) a = (0,0)}
Por outro lado, as duas colunas não estão vinculadas no espaço vetorial à esquerda . Na verdade, deixe e seja escalares de tal forma . Então (primeiros componentes) , portanto (segundos componentes) . Como e é assumido que não mudam, isso resulta em (multiplique por para obter uma contradição) e nosso resultado é . Provamos assim que as duas colunas da matriz são linearmente independentes no espaço vetorial à esquerda .
K2{\ displaystyle K ^ {2}}d{\ displaystyle d}e{\ displaystyle e}d(no,vsno)+e(1,vs)=(0,0){\ displaystyle d (a, ca) + e (1, c) = (0,0)}e=-dno{\ displaystyle e = -da}dvsno-dnovs=0{\ displaystyle dca-dac = 0}no{\ displaystyle a}vs{\ displaystyle c}d=0{\ displaystyle d = 0}d-1{\ displaystyle d ^ {- 1}}e=-dno{\ displaystyle e = -da}e=0{\ displaystyle e = 0} K2{\ displaystyle K ^ {2}}
Notas e referências
-
(em) G. Marsaglia e GPH Styan, " Quando classificação ( A + B ) = classificação ( A ) + classificação ( B )? ” , Canadian Mathematical Bulletin , vol. 15,1972, p. 451-452 ( ler online ).
-
(in) Sr. Fazel, minimização de classificação de matrizes com aplicações Tese de doutorado . Departamento de Engenharia Elétrica , Universidade de Stanford ,2002.
-
Esta propriedade intervém nos problemas em que se busca obter objetos parcimoniosos por minimização da classificação (na compressão de imagens por exemplo). Sendo o posto uma função com valores inteiros, portanto de difícil minimização, às vezes prefere-se considerar a aproximação convexa do problema que consiste em minimizar a norma nuclear.
-
definição está de acordo com N. Bourbaki, Algebra , parte I, Paris, Hermann, 1970, p. II.59, definição 7.
-
Ver N. Bourbaki, Algèbre , parte I, Paris, Hermann, 1970, p. II.59, prop. 10 e parágrafo seguinte à demonstração desta proposição.
Artigos relacionados