Covariante e contravariante (álgebra linear)
Na álgebra linear , os adjetivos covariante e contravariante são usados para descrever a maneira como as quantidades variam durante uma mudança de base . Essas quantidades são ditas covariantes quando variam como os vetores da base, e contravariantes quando variam de maneira oposta.
A noção está intimamente ligada ao conceito de dualidade : as coordenadas covariantes em uma base correspondem com efeito às coordenadas contravariantes na base dual, e vice-versa.
Em geometria diferencial , a consideração de espaços tangentes torna possível estender os dois conceitos a famílias de funções definidas em variedades diferenciais .
A manipulação de quantidades covariantes e contravariantes é facilitada pela convenção de soma de Einstein , que será amplamente utilizada neste artigo.
Definição
Deixe um espaço vetorial de dimensão finita , bem como duas bases e de tal forma que a mudança de base do versículo seja escrita:
V{\ displaystyle {\ mathcal {V}}}não{\ displaystyle n}e=(e1,e2,...,enão){\ displaystyle \ mathbf {e} = (\ mathbf {e} _ {1}, \ mathbf {e} _ {2}, \ ldots, \ mathbf {e} _ {n})}e′=(e′1,e′2,...,e′não){\ displaystyle \ mathbf {e '} = (\ mathbf {e'} _ {1}, \ mathbf {e '} _ {2}, \ ldots, \ mathbf {e'} _ {n})}e{\ displaystyle \ mathbf {e}}e′{\ displaystyle \ mathbf {e '}}
e′eu=NOeujej{\ displaystyle \ mathbf {e '} _ {i} = A_ {i} ^ {j} \ mathbf {e} _ {j}}
onde os coeficientes formam a matriz de passagem .
NOeuj{\ displaystyle A_ {i} ^ {j}}
Seja então uma família de funções, cada uma em direção a um espaço vetorial com o mesmo campo que .
X=(X(eu))eu=1...não{\ displaystyle X = (X (i)) _ {i = 1 \ ldots n}}Vnão{\ displaystyle {\ mathcal {V}} ^ {n}}V{\ displaystyle {\ mathcal {V}}}
As famílias de vetores e são então denotadas respectivamente e .
(X(eu)(e′))eu=1...não{\ displaystyle (X (i) (\ mathbf {e} ')) _ {i = 1 \ ldots n}}(X(eu)(e))eu=1...não{\ displaystyle (X (i) (\ mathbf {e})) _ {i = 1 \ ldots n}}(x′(eu))eu=1...não{\ displaystyle (x '(i)) _ {i = 1 \ ldots n}}(x(eu))eu=1...não{\ displaystyle (x (i)) _ {i = 1 \ ldots n}}
X{\ displaystyle X}é considerado covariante quandox′(eu)=∑j=1nãoNOeujx(j){\ displaystyle x '(i) = \ sum _ {j = 1} ^ {n} A_ {i} ^ {j} x (j)}
A pista é então anotada na parte inferior e a convenção de Einstein pode ser usada, de modo que seja escrito:
xeu′=NOeujxj{\ displaystyle x_ {i} '= A_ {i} ^ {j} x_ {j}}
X{\ displaystyle X}é considerado contravariante quandox(j)=∑eu=1nãoNOeujx′(eu){\ displaystyle x (j) = \ sum _ {i = 1} ^ {n} A_ {i} ^ {j} x '(i)}
A pista é então anotada no topo e a convenção de Einstein pode ser usada, de modo que seja escrito:
xj=NOeujx′eu{\ displaystyle x ^ {j} = A_ {i} ^ {j} x '^ {i}}
Por um ligeiro abuso de linguagem, os termos covariante e contravariante também são aplicados a famílias de vetores e , estando implícita a dependência da escolha da base.
(xeu)eu=1...não{\ displaystyle (x_ {i}) _ {i = 1 \ ldots n}}(xeu)eu=1...não{\ displaystyle (x ^ {i}) _ {i = 1 \ ldots n}}
Exemplos
Decomposição em uma base
Teorema e definição -
Os coeficientes da decomposição única de um vetor em uma base formam uma família contravariante de escalares chamados de coordenadas contravariantes , que são, portanto, denotados com um índice alto.
x=xeueeu{\ displaystyle \ mathbf {x} = x ^ {i} \ mathbf {e} _ {i}}
Demonstração
Deixe ser um vetor e uma base .
x{\ displaystyle \ mathbf {x}}(eeu)eu=1...não{\ displaystyle (\ mathbf {e} _ {i}) _ {i = 1 \ ldots n}}
x{\ displaystyle \ mathbf {x}} é escrito de uma maneira única:
x=∑eu=1nãox(eu)eeu{\ displaystyle \ mathbf {x} = \ sum _ {i = 1} ^ {n} x (i) \ mathbf {e} _ {i}}Os escalares então formam uma família de funções de worm .
(x(eu))eu=1...não{\ displaystyle (x (i)) _ {i = 1 \ ldots n}}Vnão{\ displaystyle {\ mathcal {V}} ^ {n}}R{\ displaystyle \ mathbb {R}}
Na base está escrito:
(eeu′)eu=1...não{\ displaystyle (\ mathbf {e} '_ {i}) _ {i = 1 \ ldots n}}x{\ displaystyle \ mathbf {x}}
x=∑eu=1nãox′(eu)eeu′{\ displaystyle \ mathbf {x} = \ sum _ {i = 1} ^ {n} x '(i) \ mathbf {e}' _ {i}}Portanto:
x=∑eu=1nãox′(eu)NOeujej=∑j=1não(∑eu=1nãox′(eu)NOeuj)ej{\ displaystyle \ mathbf {x} = \ sum _ {i = 1} ^ {n} x '(i) A_ {i} ^ {j} \ mathbf {e} _ {j} = \ sum _ {j = 1} ^ {n} (\ sum _ {i = 1} ^ {n} x '(i) A_ {i} ^ {j}) \ mathbf {e} _ {j}}E, portanto, levando em consideração a singularidade da decomposição de na base :
x{\ displaystyle \ mathbf {x}}(ej)j=1...não{\ displaystyle (\ mathbf {e} _ {j}) _ {j = 1 \ ldots n}}
x(j)=∑eu=1nãox′(eu)NOeuj=∑eu=1nãoNOeujx′(eu){\ displaystyle x (j) = \ sum _ {i = 1} ^ {n} x '(i) A_ {i} ^ {j} = \ sum _ {i = 1} ^ {n} A_ {i} ^ {j} x '(i)}∎
Produtos de ponto em uma base
Teorema e definição - Os produtos escalares de um vetor pelos vetores de uma base constituem uma família covariante de escalares denominadas coordenadas covariantes , que, portanto, são denotadas com baixo índice.
xeu=x⋅eeu{\ displaystyle x_ {i} = \ mathbf {x} \ cdot \ mathbf {e} _ {i}}
Demonstração
Os produtos escalares de um vetor pelos vetores de uma base podem ser escritos:
x{\ displaystyle \ mathbf {x}}(eeu)eu=1...não{\ displaystyle (\ mathbf {e} _ {i}) _ {i = 1 \ ldots n}}
x(eu)=x⋅eeu{\ displaystyle x (i) = \ mathbf {x} \ cdot \ mathbf {e} _ {i}}Esses escalares formam uma família de funções de worm .
Vnão{\ displaystyle {\ mathcal {V}} ^ {n}}R{\ displaystyle \ mathbb {R}}
Então temos:
x′(eu)=x⋅eeu′=x⋅(NOeujej)=NOeujx⋅ej=NOeujx(j){\ displaystyle {\ begin {array} {rcl} x '(i) & = & \ mathbf {x} \ cdot \ mathbf {e}' _ {i} \\ & = & \ mathbf {x} \ cdot ( A_ {i} ^ {j} \ mathbf {e} _ {j}) \\ & = & A_ {i} ^ {j} \ mathbf {x} \ cdot \ mathbf {e} _ {j} \\ & = & A_ {i} ^ {j} x (j) \ end {array}}}A família é, portanto, bem covariante.
x(eu){\ displaystyle x (i)}∎
Derivadas direcionais
Na análise vetorial , é possível definir o operador de derivada direcional de acordo com uma direção da seguinte maneira:
d{\ displaystyle \ mathbf {d}}
∂d:EV→EVf↦(x↦limϵ→0f(x+ϵd)-f(x)ϵ){\ displaystyle {\ begin {array} {rccl} \ partial _ {\ mathbf {d}}: & {\ mathcal {E}} ^ {\ mathcal {V}} & \ rightarrow & {\ mathcal {E}} ^ {\ mathcal {V}} \\ & f & \ mapsto & (\ mathbf {x} \ mapsto \ lim _ {\ epsilon \ rightarrow 0} {\ frac {f (\ mathbf {x} + \ epsilon \ mathbf {d}) -f (\ mathbf {x})} {\ epsilon}}) \ end {array}}}
Teorema - Os operadores de derivação direcional de acordo com as direções definidas pelos vetores de uma base formam uma família covariante de operadores, que são, portanto, denotados com baixo índice.
∂eu=∂eeu{\ displaystyle \ partial _ {i} = \ partial _ {\ mathbf {e} _ {i}}}
Demonstração
É uma consequência direta da linearidade do operador de derivação direcional de acordo com a direção.
∂eeu′=∂NOeujej=NOeuj∂ej{\ displaystyle \ partial _ {\ mathbf {e} '_ {i}} = \ partial _ {A_ {i} ^ {j} \ mathbf {e} _ {j}} = A_ {i} ^ {j} \ parcial _ {\ mathbf {e} _ {j}}}∎
∂euf{\ displaystyle \ parcial _ {i} f}às vezes é notado .
f,eu{\ displaystyle f _ {, i}}
Propriedades
Link com bases duplas
Se for um espaço dimensional ou vetorial finito, então e seus duais são isomórficos . Portanto, cada vetor de corresponde a um único vetor de , e às vezes identificamos os dois. Na afirmação a seguir, a segunda igualdade deve, portanto, ser entendida como uma correspondência e não como uma igualdade.
E{\ displaystyle E}R{\ displaystyle \ mathbf {R}}VS{\ displaystyle \ mathbf {C}}E{\ displaystyle E}E∗{\ displaystyle E ^ {*}}x{\ displaystyle \ mathbf {x}}E{\ displaystyle E}x∗{\ displaystyle \ mathbf {x ^ {*}}}E∗{\ displaystyle E ^ {*}}
Além disso, o que se entende por "produto escalar" na declaração a seguir e sua prova é na realidade o colchete de dualidade de e de , isto é, o resultado da aplicação da forma linear a .
x⋅eeu{\ displaystyle \ mathbf {x} \ cdot \ mathbf {e} ^ {i}}eeu{\ displaystyle \ mathbf {e} ^ {i}}x{\ displaystyle \ mathbf {x}}eeu(x){\ displaystyle \ mathbf {e} ^ {i} (\ mathbf {x})}eeu{\ displaystyle \ mathbf {e} ^ {i}}x{\ displaystyle \ mathbf {x}}
Teorema - As coordenadas covariantes em uma base são as coordenadas contravariantes na base dual e vice-versa.
x=(x⋅eeu)eeu=(x⋅eeu)eeu{\ displaystyle \ mathbf {x} = (\ mathbf {x} \ cdot \ mathbf {e} ^ {i}) \ mathbf {e} _ {i} = (\ mathbf {x} \ cdot \ mathbf {e} _ {i}) \ mathbf {e} ^ {i}}
Quer dizer:
xeu=x⋅eeux=xeueeu{\ displaystyle {\ begin {array} {c} x ^ {i} = \ mathbf {x} \ cdot \ mathbf {e ^ {i}} \\\ mathbf {x} = x_ {i} \ mathbf {e } ^ {i} \ end {array}}}
Demonstração
Temos, por definição das coordenadas do vetor :
x{\ displaystyle \ mathbf {x}}
x=xeueeu{\ displaystyle \ mathbf {x} = x ^ {i} \ mathbf {e} _ {i}}Por definição da base dual, temos , portanto, calculando o produto escalar por :
eeu⋅ej=δeuj{\ displaystyle \ mathbf {e} _ {i} \ cdot \ mathbf {e} ^ {j} = \ delta _ {i} ^ {j}}ej{\ displaystyle \ mathbf {e} ^ {j}}
x⋅ej=xeueeu⋅ej=xeuδeuj=xj{\ displaystyle \ mathbf {x} \ cdot \ mathbf {e} ^ {j} = x ^ {i} \ mathbf {e} _ {i} \ cdot \ mathbf {e} ^ {j} = x ^ {i } \ delta _ {i} ^ {j} = x ^ {j}}E entao:
xj=x⋅ej{\ displaystyle x ^ {j} = \ mathbf {x} \ cdot \ mathbf {e} ^ {j}}Quer dizer:
x=(x⋅eeu)eeu{\ displaystyle \ mathbf {x} = (\ mathbf {x} \ cdot \ mathbf {e} ^ {i}) \ mathbf {e} _ {i}}∎
Demonstração
x{\ displaystyle \ mathbf {x}}está escrito, na base dupla :
eeu{\ displaystyle \ mathbf {e} ^ {i}}
x=x~(eu)eeu{\ displaystyle \ mathbf {x} = {\ tilde {x}} (i) \ mathbf {e} ^ {i}}O produto escalar dá:
ej{\ displaystyle \ mathbf {e} _ {j}}
x⋅ej=x~(eu)eeu⋅ej=x~(eu)δjeu=x~(j){\ displaystyle \ mathbf {x} \ cdot \ mathbf {e} _ {j} = {\ tilde {x}} (i) \ mathbf {e} ^ {i} \ cdot \ mathbf {e} _ {j} = {\ tilde {x}} (i) \ delta _ {j} ^ {i} = {\ tilde {x}} (j)}e entao:
x⋅ej=x~(j){\ displaystyle \ mathbf {x} \ cdot \ mathbf {e} _ {j} = {\ tilde {x}} (j)}De onde:
x=(x⋅eeu)eeu{\ displaystyle \ mathbf {x} = (\ mathbf {x} \ cdot \ mathbf {e} _ {i}) \ mathbf {e} ^ {i}}∎
Produto contratado
Teorema e definição -
Sejam
e duas famílias respectivamente contravariantes e covariantes, com valores em uma álgebra associativa . Expressão
(noeu)eu=1...não{\ displaystyle (a ^ {i}) _ {i = 1 \ ldots n}}(beu)eu=1...não{\ displaystyle (b_ {i}) _ {i = 1 \ ldots n}}
noeubeu{\ displaystyle a ^ {i} b_ {i}}
não depende da escolha da base utilizada e é denominado produto contratado .
Demonstração
Ao observar e as expressões das duas famílias na base , vem:
(no′eu)eu=1...não{\ displaystyle (a '^ {i}) _ {i = 1 \ ldots n}}(beu′)eu=1...não{\ displaystyle (b '_ {i}) _ {i = 1 \ ldots n}}eeu=1...não′{\ displaystyle \ mathbf {e} '_ {i = 1 \ ldots n}}
no′eubeu′=no′eu(NOeujbj)=NOeujno′eubj=(NOeujno′eu)bj=nojbj{\ displaystyle {\ begin {array} {rcl} a '^ {i} b' _ {i} & = & a '^ {i} (A_ {i} ^ {j} b_ {j}) \\ & = & A_ {i} ^ {j} a '^ {i} b_ {j} \\ & = & (A_ {i} ^ {j} a' ^ {i}) b_ {j} \\ & = & a ^ {j} b_ {j} \ end {array}}}∎
Extensão em geometria diferencial
Na geometria diferencial , os espaços considerados, ou seja, as variedades diferenciais , não têm estrutura de espaço vetorial e, como tal, os conceitos de covariância e contravariância não são diretamente aplicáveis. No entanto, variedades diferenciais são, localmente, assimiláveis a espaços vetoriais por meio de espaços tangentes . As correspondências naturais permitem, portanto, definir as noções vistas acima, não mais em relação a uma mudança de base, mas sim em relação a uma mudança de coordenadas .
x′µ(xµ){\ displaystyle x '^ {\ mu} (x ^ {\ mu})}
Localmente, essas coordenadas variam de acordo com os diferenciais:
dx′µ=∂x′µ∂xνdxν=∂νx′µdxν=NOνµdxν{\ displaystyle dx '^ {\ mu} = {\ frac {\ parcial x' ^ {\ mu}} {\ parcial x ^ {\ nu}}} dx ^ {\ nu} = \ parcial _ {\ nu} x '^ {\ mu} dx ^ {\ nu} = A _ {\ nu} ^ {\ mu} dx ^ {\ nu}}As diferenciais então formam uma base no espaço tangente, enquanto as derivadas parciais formam a matriz de passagem.
dxµ{\ displaystyle dx ^ {\ mu}}
Portanto, quando um conjunto de funções varia como os diferenciais, ou seja, quando
Tµ{\ displaystyle T ^ {\ mu}}
T′µ=∂νx′µTν{\ displaystyle T '^ {\ mu} = \ partial _ {\ nu} x' ^ {\ mu} T ^ {\ nu}}
então é dito ser covariante "para" (ou "de acordo com") o índice .
T{\ displaystyle T}µ{\ displaystyle \ mu}
Quando um conjunto varia de maneira oposta, ou seja, quando
Tν{\ displaystyle T _ {\ nu}}
Tν=∂νx′µTµ′{\ displaystyle T _ {\ nu} = \ partial _ {\ nu} x '^ {\ mu} T' _ {\ mu}}
ou
,
T′µ=∂xν∂x′µTν=∂µxνTν{\ displaystyle {T '} _ {\ mu} = {\ frac {\ parcial x ^ {\ nu}} {\ parcial x' ^ {\ mu}}} T _ {\ nu} = \ parcial _ {\ mu} x ^ {\ nu} T _ {\ nu}}
então é dito ser contravariante "para" (ou "de acordo com") o índice .
T{\ displaystyle T}ν{\ displaystyle \ nu}
T{\ displaystyle T}pode muito bem ser covariante para alguns índices e contravariante para outros. A transformação mais geral é então escrita:
T′ν1...νkµ1...µeu=∂ν1x′α1...∂νkx′αk∂β1xµ1...∂βeuxµeuTα1...αkβ1...βeu{\ displaystyle {T '} _ {\ nu _ {1} \ ldots \ nu _ {k}} ^ {\ mu _ {1} \ ldots \ mu _ {l}} = \ partial _ {\ nu _ { 1}} {x '} ^ {\ alpha _ {1}} \ ldots \ partial _ {\ nu _ {k}} {x'} ^ {\ alpha _ {k}} \ partial _ {\ beta _ { 1}} x ^ {\ mu _ {1}} \ ldots \ parcial _ {\ beta _ {l}} x ^ {\ mu _ {l}} T _ {\ alpha _ {1} \ ldots \ alpha _ {k}} ^ {\ beta _ {1} ... \ beta _ {l}}}
Isso constitui uma definição simplificada do conceito de tensor .
Alguns autores, como Sean M. Carroll (cf. bibliografia), preferem colocar o símbolo primo nos índices e não no tensor. Eles observam o seguinte:
Tν1′...νk′µ1′...µeu′=∂ν1′xµ1...∂νk′xµk∂ν1xµ1′...∂νeuxµeu′Tµ1...µkν1...νeu{\ displaystyle T _ {\ nu _ {1} '\ ldots \ nu _ {k}'} ^ {\ mu _ {1} '\ ldots \ mu _ {l}'} = \ partial _ {\ nu _ {1} '} {x} ^ {\ mu _ {1}} \ ldots \ parcial _ {\ nu _ {k}'} {x} ^ {\ mu _ {k}} \ parcial _ {\ nu _ {1}} x ^ {\ mu _ {1} '} \ ldots \ parcial _ {\ nu _ {l}} x ^ {\ mu _ {l}'} T _ {\ mu _ {1} \ ldots \ mu _ {k}} ^ {\ nu _ {1} ... \ nu _ {l}}}
Outros usos do termo
Os conceitos de covariância e contravariância são encontrados em outros campos, como na informática, em particular no que diz respeito à digitação de dados . A ligação entre esses diferentes usos reflete uma estrutura comum mais abstrata que, essencialmente, está incluída na teoria das categorias .
Bibliografia
Artigos relacionados
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">