Minhas notas sobre álgebra tensorial

Propaganda
6
Capı́tulo 1
Álgebra tensorial
1.1
Álgebra linear
Referências: [8, 16, 4, 5, 11, 7, 10, 14, 6, 21]
Obviamente, o conceito preciso e puro de vetor é aquele fornecido pela álgebra linear; em
particular, é óbvio que, a rigor, um vetor: (i) não é “uma grandeza caracterizada por módulo,
direção e sentido”, e (ii) não é “uma tripla (ou n-upla) numérica (real, complexa, etc)”. De fato,
num espaço vetorial puro (bruto) não existe a noção de módulo de um vetor, assim como a tripla
numérica define tão somente as componentes do vetor numa dada base1 . Isso posto, é claro
que devemos, imediatamente, reconhecer o papel fundamentalı́ssimo e talvez o mais importante,
do ponto de vista heurı́stico, da associação primitiva de vetores com deslocamentos no espaço
fı́sico; em geral, aliás, o surgimento de novos conceitos e teorias vem, a partir da prática, envolto
numa série de superestruturas supérfluas, que, só com o desenvolvimento lógico posterior, fica
evidenciado.
No caso particular dos deslocamentos, o que se faz necessário é considerar o espaço fı́sico
como um espaço afim, no sentido matemático preciso da palavra2 . Aqui, só queremos lembrar
que, com essa estrutura, é que podemos dar sentido à noção de que o espaço fı́sico, pelo menos
na acepção da geometria euclidiana, não possui origem privilegiada; o conceito mais primitivo é
o de ponto, a partir do qual se constrói o de deslocamento e, como conseqüência, o de vetor3 .
Dito de outra forma, num espaço vetorial puro, não existe a noção de ponto.
1
Eu, Maurı́cio Ortiz Calvão, sou “representado”, no Brasil, por uma carteira de identidade com um certo
número de registro geral, ao passo que, nos Estados Unidos, possuo uma carteira com um número distinto; será
que, por isso, eu, Maurı́cio Ortiz Calvão, sou duas pessoas?
2
Gostarı́amos de remeter, aqui, o leitor para o livro de Bamberg & Sternberg, [4], em especial as duas primeiras
seções do primeiro capı́tulo, onde os autores constroem, explicitamente, a idéia de vetor a partir dos pontos de
um espaço afim. Tal obra é extremamente didática e de agradável leitura.
3
Convém refletir sobre três conceitos de vetor tradicionalmente introduzidos na literatura: livre, deslizante e
ligado; pense na noção de equipolência na geometria euclidiana [16].
7
8
CAPÍTULO 1. ÁLGEBRA TENSORIAL
1.1.1
Espaços vetoriais
1.1.1.1
Axiomas
Um espaço vetorial (ou linear) T (sobre K) é um conjunto {T, +, ·, K}, onde T é um conjunto
não vazio de elementos chamados vetores, +, · são duas leis de composição:
+ : T × T → T (adição)
· : K × T → T (multiplicação por escalar)
e K := (K, ⊕, ¯) é um corpo, cujos elementos do conjunto de base, K, são chamados, nesse
contexto, de escalares (por exemplo, os números reais, racionais, ou complexos). Outrossim, tais
composições devem satisfazer, para quaisquer u, v, w ∈ T e a, b ∈ K, os seguintes axiomas4 :
1. v + w = w + v (comutatividade da adição)
2. u + (v + w) = (u + v) + w (associatividade da adição)
3. ∃ 0 | v + 0 = v (existência de elemento neutro para adição)
4. ∃ −v ∈ T | v + (−v) = 0, ∀ v (existência de elementos inversos para adição)
5. a · (v + w) = a · v + a · w
6. (a ⊕ b) · v = a · v + b · v
7. a · (b · v) = (a ¯ b) · v
8. 1·v = v.
Os axiomas de (1) a (4) tornam {T, +} um grupo abeliano (comutativo). Os axiomas (2) e (7),
com o abuso de notação mencionado na nota de rodapé 4, permitem a eliminação de parênteses
em certas expressões; ou seja, u+v+w=(u+v)+w e abv = (ab)v.
Exercı́cio 1.1 Prove as seguintes conseqüências imediatas dos axiomas:
1. o elemento neutro, 0, para adição é único.
2. para todo v ∈ T , 0v = 0.
3. os elementos inversos para adição são únicos.
4. se a ∈ K, v ∈ T , e av = 0, então ou a = 0 ou v = 0.
d vezes
z
}|
{
Exercı́cio 1.2 Seja T := Rd := R × · · · × R, onde R é o conjunto dos números reais. Definamos
(u1 , . . . , ud ) + (v1 , . . . , vd ) = (u1 + v1 , . . . , ud + vd ),
a · (v1 , . . . , vd ) = (av1 , . . . , avd ), ∀a ∈ R.
Prove que (Rd , +, ·) é, então, um espaço vetorial (sobre o corpo dos reais).
4
Infelizmente, por abuso de notação, costuma-se denotar ambas as operações · e ¯ simplesmente por justaposição, assim como as operações + e ⊕ pelo mesmo sı́mbolo +. Tome cuidado!
1.1. ÁLGEBRA LINEAR
9
Exercı́cio 1.3 Seja R+ o conjunto de números reais positivos. Defina a “soma” de dois elementos de R+ como sendo o produto no sentido usual (p + q := pq), e a multiplicação por escalares
de R como sendo
· : R × R+
(r, p) 7→ r · p := pr .
Com tais operações, mostre que (R+ , +, ·) é um espaço vetorial sobre R.
Se U e V são dois espaços vetoriais sobre o mesmo corpo de escalares, então construı́mos um
novo espaço vetorial, dito a soma direta de U e V e denotado por U + V, da seguinte forma: o
novo conjunto de vetores é U × V , as novas adição e multiplicação por escalar são definidas por
(com um evidente abuso de notação)
(u, v) + (u0 , v0 ) := (u + u0 , v + v0 )
a · (u, v) := (a · u, a · v).
Exercı́cio 1.4 Mostre que, no exercı́cio 1.2 acima, (Rd , +, ·) é a d-ésima soma direta de R
consigo mesmo.
1.1.1.2
Convenções de domı́nio, de soma e de núcleo-ı́ndice
Seguindo [8], é mais simples começar com um exemplo de equação matricial:
u = Av.
Aqui v é uma matriz (“vetor”) coluna, de ordem N × 1, digamos; A é uma matriz de ordem
M × N ; e u é, pois, uma matriz (“vetor”) coluna, de ordem M × 1. Esta equação matricial
nos diz como cada elemento individual de u é determinado a partir dos elementos individuais
de v via A. Para escrevermos explicitamente tal expressão, introduz-se uma notação para os
elementos (“componentes”) de u e v, assim como os elementos de A: digamos que v a represente
o a-ésimo elemento de u (a = 1, 2, . . . , N ), uα o α-ésimo elemento de v (α = 1, 2, . . . , M ), e
Aα a o elemento da α-ésima linha e a-ésima coluna de A. A equação matricial acima é, então,
equivalente às M equações
N
X
uα =
Aα a v a .
α=1
A convenção de domı́nio surge da observação de que não é necessário enunciar, em cada ocorrência
de um conjunto de equações como essa, que existem M equações envolvidas e que a validade de
cada uma delas está sendo afirmada. Isso pode ser percebido a partir da presença do ı́ndice α
em cada membro da equação: pois α é um ı́ndice livre, diferentemente de a, que está sujeito a
um sinal de somatório. Por outro lado, a convenção de soma segue da observação de que, sempre
que uma soma ocorre em uma expressão desse tipo, é uma soma sobre um ı́ndice (no caso a) que
ocorre precisamente duas vezes na expressão a ser somada. Assim, uma soma ocorre somente
quando há um ı́ndice repetido; e quando um ı́ndice está P
repetido, uma soma é quase sempre
implı́cita. Sob tais circunstâncias, o sı́mbolo de somatório N
a=1 não desempenha nenhum papel
10
CAPÍTULO 1. ÁLGEBRA TENSORIAL
útil, já que a soma pode ser reconhecida pela repetição de um ı́ndice; o sı́mbolo pode, pois, ser
omitido.
Assim, a equação de “componente” ou elemento acima é escrita, quando as convenções de
domı́nio e soma estão vigentes, na forma simples
uα = Aα a v a .
A presença do ı́ndice repetido a no membro direito implica soma sobre seu domı́nio permitido de
valores 1, 2, . . . , N em virtude da convenção de soma; ao passo que a presença do ı́ndice livre α,
em ambos os membros da equação, implica igualdade para cada valor 1, 2, . . . , M que ele pode
assumir, em virtude da convenção de domı́nio.
Em geral, as convenções de domı́nio e de soma funcionam da seguinte maneira. Se, numa
equação envolvendo grandezas indexadas, existem ı́ndice livres (não repetidos), então a equação
vale para todos os valores nos domı́nios de todos os ı́ndices livres, tendo tais domı́nios sido
anteriormente declarados: isso é a convenção de domı́nio. Onde, numa expressão envolvendo
grandezas indexadas, qualquer ı́ndice estiver repetido, soma sobre todos os valores possı́veis no
domı́nio daquele ı́ndice é implicada, o domı́nio, de novo, tendo sido previamente declarado: isso
é a convenção de soma.
O funcionamento das convenções de domı́nio e de soma na prática é relativamente direto.
Uma ou duas regras–freqüentemente melhor empregadas para verificação interativa da correção
de um cálculo–devem ser mencionadas. O número de ı́ndices livres nos dois membros de uma
equação deve ser o mesmo; e, naturalmente, cada ı́ndice livre diferente em uma expressão deve
ser representado por uma letra diferente. Índices repetidos em uma expressão só podem ocorrer
aos pares. A substituição de uma letra representando um ı́ndice por outra letra é permitida,
contanto que todas as ocorrências da letra sejam alteradas no mesmo tempo e da mesma maneira,
e contanto que fique subentendido que a nova letra tem o mesmo domı́nio de valores que aquela
que ela substitui. A prática mais conveniente a se adotar, onde ı́ndices com diferentes domı́nios
estiverem envolvidos em um único cálculo, é reservar uma pequena seção de um particular
alfabeto para representar os ı́ndices com um dado domı́nio. Assim, no caso discutido acima,
poder-se-ia tomar a, b, c para variarem e se somarem de 1 a N , e α, β, γ para variarem e se
somarem de 1 a M ; então, uβ = Aβ c v c significaria exatamente o mesmo que uα = Aα a v a .
Dois pontos devem ser enfatizados sobre a maneira em que tais convenções são usadas nessas
notas. Em primeiro lugar, nós arranjamos as coisas de modo que o par de ı́ndices repetidos
implicando uma soma ocorrerá (quase sempre) com um ı́ndice na posição superior e outro na
inferior. Isso já está aparente no modo em que escolhemos escrever a equação matricial acima,
quando algo do tipo uα = Aαa va poderia ser esperado. O ponto está relacionado à importância
de distinguir entre um espaço vetorial e o seu dual (vetores coluna versus vetores linha), que
será explorado, com detalhes, mais a frente.
O segundo ponto a prestar atenção é que uma expressão como (xc ) é freqüentemente usada
para representar (x1 , x2 , . . . , xn ). E mais, o valor de uma função de n variáveis, digamos f , em
(xc ), será denotado por f (xc ). Nesta situação, o ı́ndice c não está sujeito nem à convenção de
soma nem à de domı́nio. Em tal contexto, (xc ) deve geralmente ser pensado como o conjunto
das coordenadas de um ponto em algum espaço.
1.1. ÁLGEBRA LINEAR
1.1.1.3
11
Independência linear e bases
Seja T um espaço vetorial. Um conjunto finito de vetores, digamos {v1 , . . . , vr }, é dito lineari
mente dependente se existirem escalares a1 , . . . , ar , nem todos zero, tais
Prque ia vi = 0 (aqui, fica
subentendido, pelas convenções de domı́nio e soma, que trata-se de i=1 a vi = 0.). Um conjunto infinito é linearmente dependente se algum subconjunto finito for linearmente dependente.
Um conjunto de vetores é linearmente independente se ele não for linearmente dependente.
Uma soma da forma ai vi , onde vi ∈ T e ai ∈ K, é chamada uma combinação linear de
v1 , . . . , vr .
Como conseqüências simples, notamos que dois vetores são linearmente dependentes se um
é múltiplo do outro; não podemos dizer que cada um é múltiplo do outro, já que um deles pode
ser 0. Se um conjunto S inclui 0, então ele é linearmente dependente a despeito de quaisquer
outros elementos.
Exercı́cio 1.5 Prove essas duas últimas afirmações.
O número máximo de vetores linearmente independentes em um espaço vetorial T é chamado
de dimensão de T e denota-se por dim T. Naturalmente, pode não haver um máximo finito, em
cujo caso escrevemos dim T = ∞; isso significa que, para todo n positivo, há um subconjunto
linearmente independente de T tendo n elementos.
Uma base de T é um subconjunto S de T linearmente independente e tal que todo vetor é
uma combinação linear de elementos de S.5
Exercı́cio 1.6 Prove que, se S é uma base, então a combinação linear que expressa v ∈ T em
termos dos elementos de S é única, exceto pela ordem das “parcelas”.
Se S é uma base de T, então, para cada v ∈ T , os escalares unı́vocos que ocorrem como
coeficientes na combinação linear de elementos de S que expressam v são chamados de componentes de v com respeito à base S. Consideramos que uma componente de v é atribuı́da a cada
elemento de S; no entanto, somente um número finito de componentes serão não zero6 .
Exercı́cio 1.7 Prove que todas as bases têm o mesmo número de elementos, a dimensão de T.
1.1.1.4
Transformações de base; vetores contravariantes (ou primais)
Seja {e1 , . . . , eN } (ou, simplesmente, {eα }) uma base de um espaço vetorial N -dimensional, T,
de modo que qualquer v ∈ T pode ser escito como v = v a lphaeα , para convenientes escalares
v α . Os escalares v α são as componentes de v com respeito à base {eα }.
Queremos agora ver como as componentes de um vetor se transformam quando uma nova
0
base é introduzida. Seja {eα0 } uma nova base de T, e sejam v α as componentes de v com
respeito a essa nova base. Então
0
(1.1)
v = v α eα0 .
5
Mencionamos, sem prova, que uma base sempre existe. Isso é óbvio se dim T for finita, mas, caso contrário,
exige indução transfinita.
6
Em espaços vetorias puros, somente combinações lineares com um número finito de termos são definidas, já
que nenhum significado é atribuı́do a limites ou convergência. Espaços vetorias nos quais uma noção de limite
está definida e que satisfazem certas relações adicionais são chamados espaços vetoriais topológicos. Quando esta
estrutura adicional é derivada de um produto interno positivo definido, o espaço é dito um espaço de Hilbert.
12
CAPÍTULO 1. ÁLGEBRA TENSORIAL
Os novos vetores de base podem, como quaisquer vetores, ser expressos como uma combinação
linear dos antigos:
eα0 = Xαβ0 eβ ,
(1.2)
e, inversamente, os antigos como uma combinação linear dos novos:
0
eγ = Xγα eα0 .
(1.3)
(Embora estejamos usando a mesma letra de núcleo X, os N 2 números Xαβ0 são diferentes dos N 2
0
números Xβγ , as posições das plicas indicando a diferença.) Substituindo, agora, eα0 , de (1.2),
em 1.3, vem
0
eγ = Xγα Xαβ0 eβ .
(1.4)
Devido à independência linear de {eβ }, temos pois
0
Xγα Xαβ0 = δγβ ,
(1.5)
onde δγβ é o delta de Kronecker, definido por
½
0, se β =
6 γ,
β
δγ :=
1, se β = γ.
(1.6)
(Note que não podemos dizer que δββ = 1, pois β aparece tanto como um super-ı́ndice quanto
como um sub-ı́ndice e, de acordo com nossas convenções, um somatório está implı́cito; de fato,
δββ = N , a dimensão de T.) Analogamente, podemos deduzir que
0
0
Xαβ0 Xβγ = δαγ 0
(= δαγ ).
(1.7)
Exercı́cio 1.8 Deduza essa última equação.
A substituição de eα0 , a partir da equação (1.2), em (1.1), fornece
0
v = v α Xαβ0 eβ ,
(1.8)
e, devido à independência linear de eβ ,
0
v β = Xαβ0 v α .
Conseqüentemente,
0
0
(1.9)
0
0
0
0
Xαγ v α = Xαγ Xβα0 v β = δβγ0 v β = v β .
(1.10)
Recapitulando, se as bases com e sem plica estão relacionadas por
eα0 = Xαβ0 eβ ,
0
eα = Xαβ eβ 0 ,
(1.11)
então as componentes estão relacionadas por
0
0
v α = Xβα v β ,
0
v α = Xβα0 v β ,
(1.12)
e valem
0
Xβα0 Xγβ = δγα ,
0
0
Xβα Xγβ0 = δγα0 .
(1.13)
1.1. ÁLGEBRA LINEAR
1.1.2
13
Espaços duais
Embora se sugira que possa ser útil visualizar os vetores de um espaço vetorial como um conjunto
de setas partindo de uma origem, de certa forma esta imagem pode ser muito capciosa, pois
muitos conjuntos de objetos sem qualquer semelhança com setas constituem espaços vetoriais
sob definições adequadas de adição e multiplicação por escalar. Dentre tais objetos, temos as
funções (voce imaginaria uma delas como uma seta?).
Restrinjamo-nos a funções reais definidas num espaço vetorial real de conjunto de vetores T .
Matematicamente, uma tal função f é simbolizada por f : T → R, indicando que ela aplica um
vetor de T em um número real. Pode-se dotar o conjunto de todas as funções desse tipo com
uma estrutura de espaço vetorial, definindo-se:
1. a soma f + g de duas funções f e g como
(f + g)(v) = f (v) + g(v),
para todo v ∈ T ;
2. o produto af do escalar a pela função f como
(af )(v) = a(f (v)),
para todo v ∈ T ;
3. a função zero 0 como
0(v) = 0,
para todo v ∈ T
(onde, na esquerda, 0 é uma função, ao passo que, na direita, ele é o número real zero);
4. a função inversa −f da função f como
(−f )(v) = −(f (v)),
para todo v ∈ T.
Exercı́cio 1.9 Prove que, munido dessas operações, o conjunto de funções f constitui um espaço
vetorial. Qual é a sua dimensão?
1.1.2.1
Funcionais ou formas lineares
O espaço de todas as funções reais sobre um espaço vetorial T é grande demais para nossos
propósitos; restringir-nos-emos, pois, àquelas funções que são lineares. Ou seja, as funções que
satisfazem
(1.14)
f (au + bv) = af (u) + bf (v),
para todos a, b ∈ R e todos u, v ∈ T . Funções lineares reais sobre um espaço vetorial real
são geralmente chamadas de funcionais ou formas lineares. É fácil verificar que a soma de dois
funcionais lineares é também um funcional linear, e que a multiplicação por um escalar fornece
um funcional linear também. Essas observações garantem que o conjunto de todos os funcionais
lineares sobre um espaço vetorial T é também um espaço vetorial. Este espaço é o dual de T e
denota-se por T∗ .
Exercı́cio 1.10 Prove as últimas afirmações.
14
CAPÍTULO 1. ÁLGEBRA TENSORIAL
Como os funcionais lineares são vetores, iremos, de agora em diante, usar o tipo em negrito
para eles. Destarte, se v ∈ T e f ∈ T ∗ , então f (v) ∈ R, ou seja, é um escalar, a despeito do tipo
em negrito.
Temos agora dois tipos de vetores, aqueles em T e aqueles em T ∗ . Para distingui-los, aqueles
em T são chamados vetores contravariantes ou primais, ao passo que aqueles em T ∗ são chamados
de vetores covariantes ou duais. Como uma caracterı́stica distintiva adicional, os vetores de base
de T∗ portarão super-ı́ndices e as componentes de vetores em T ∗ portarão sub-ı́ndices. Assim,
se {eα } é uma base de T∗ , então g ∈ T ∗ tem uma expressão única g = gα eα , em termos de
componentes. Na verdade, a razão para a escolha das expressões contravariante e covariante
ficará mais clara ainda na segunda subsubseção a seguir.
1.1.2.2
Bases duais (naturais)
O uso da letra minúscula α na soma implı́cita acima sugere, de acordo com nossa convenção de
domı́nio, que o domı́nio da soma é de 1 a N , a dimensão de T, ou seja, que T∗ tem a mesma
dimensão que T. Esse, de fato, é o caso, como provaremos, agora, mostrando que uma dada base
{eα } de T induz, de uma maneira natural, uma base dual {eα } de T∗ possuindo N elementos
que satisfazem eα (eβ ) = δβα .
Começamos por definir eα como a função real que leva cada vetor v ∈ T no número real que
é a sua α-ésima componente v α relativamente a {eα }, ou seja, eα (v) = v α , para todo v ∈ T .
Isso nos dá N funções reais que claramente satisfazem eα (eβ ) = δβα ; resta mostrar que elas são
lineares e que constituem uma base de T∗ .
Exercı́cio 1.11 Verifique que as funções eα são, de fato, lineares.
Para provar que constituem uma base, prosseguimos assim.
Para qualquer g ∈ T ∗ , podemos definir N números reais gα por g(eα ) =: gα . Então, para
qualquer v ∈ T ,
g(v) = g(v α eα ) = v α g(eα ) (pela linearidade de g)
= v α gα = gα eα (v).
Assim, para qualquer g ∈ T ∗ , temos g = gα eα , mostrando que {eα } gera T ∗ e resta a questão
da independência linear de {eα }. Isso se responde notando que uma relação xα eα = 0, onde
xα ∈ R e 0 é o funcional zero, implica que
0 = xα eα (eβ ) = xα δβα = xβ ,
para todo β.
Do exposto, vemos que, dada uma base {eα } de T , as componentes gα de g ∈ T ∗ relativamente
à base dual {eα } são dadas por gα = g(eα ).
1.1.2.3
Lei de transformação das componentes
Uma mudança de base (1.11) em T induz uma mudança da base dual. Denotemos o dual da
0
0
0
0
0
base com plica {eα0 } por eα , de modo que, por definição, eα (eβ 0 ) = δβα0 , e eα = Yβα eβ , para
1.2. ÁLGEBRA MULTILINEAR
15
0
alguns Yβα . Então,
0
0
0
δβα0 = eα (eβ 0 ) = Yγα eγ (Xβµ0 eµ )
0
= Yγα Xβµ0 eγ (eµ ) (pela linearidade dos eγ )
0
0
= Yγα Xβµ0 δµγ = Yγα Xβγ0 .
0
0
o que quer dizer Yγα = Xγα .
Exercı́cio 1.12 Prove essa última afirmação.
Sendo assim, mediante uma mudança de base de T dada por (1.11), as bases duais de T ∗ se
transformam como
0
0
0
eα = Xβα eβ , eα = Xβα0 eβ .
(1.15)
Mostra-se de imediato que as componentes de g ∈ T ∗ , relativamente às bases duais se transformam como
0
gα0 = Xαβ0 gβ , gα = Xαβ gβ 0 .
(1.16)
Exercı́cio 1.13 Prove isso.
0
Então, a mesma matriz [Xβα ] e sua inversa [Xβα0 ] estão envolvidas, mas os seus papéis relativamente aos vetores de base e às componentes estão trocados.
Dado T e uma base sua {eα }, acabamos de ver como construir o seu dual T∗ com base dual
{eα } satisfazendo eα (eβ ) = δβα . Podemos aplicar esse processo novamente para chegar no dual
T∗∗ de T∗ , com base dual {f α }, digamos, satisfazendo fα (eβ ) = δαβ , e os vetores h ∈ T ∗∗ podem
ser expressos em termos de componentes como h = hα fα . Sob uma mudança de base de T, as
0
0
componentes de vetores em T se transformama de acordo com v α = Xβα v β . Isso induz uma
mudança da base dual de T∗ , sob a qual as componentes de vetores em T ∗ se transformam de
acordo com gα0 = Xαβ0 gβ . Por sua vez, isso induz uma mudança de base de T∗∗ , sob a qual vê-se
0
0
prontamente que as componentes de vetores em T ∗∗ se transformam de acordo com hα = Xβα hβ
(porque a inversa da inversa de uma matriz é a própria matriz). Ou seja, as componentes de
vetores em T ∗∗ se transformam exatamente da mesma maneira que as componentes de vetores
em T . Isso significa que, se estabelecermos uma correspondência biunı́voca entre os vetores de
T e de T ∗∗ , fazendo com que v α eα em T corresponda a v α fα em T ∗∗ , onde {fα } é o dual do dual
de {eα }, então essa correspondência será independente de base.
Exercı́cio 1.14 Convença-se disso!
Uma correspondência biunı́voca independente de base entre dois espaços vetoriais é chamada um
isomorfismo natural e, naturalmente, espaços vetoriais naturalmente isomorfos são geralmente
identificados, identificando-se os vetores correspondentes. Conseqüentemente, nós identificaremos T∗∗ e T.
1.2
Álgebra multilinear
Referências: [5, 11, 7, 10, 14, 21, 15, 19, 2]
16
1.2.1
CAPÍTULO 1. ÁLGEBRA TENSORIAL
Produtos tensoriais; o espaço Trs
Dado um espaço vetorial T, vimos como criar um novo espaço vetorial, a saber o seu dual
T∗ , mas o processo acaba aı́ (ao identificarmos T∗∗ com T). Entretanto, é possı́vel gerar um
novo espaço vetorial a partir de dois espaços vetoriais, formando o que se chama o seu produto
tensorial. Como preliminar para isso, precisamos definir funcionais bilineares em um par de
espaços vetoriais.
Sejam T e U dois espaços vetoriais reais de dimensão finita. O produto cartesiano T × U é
o conjunto de todos os pares (ordenados) da forma (v, w), onde v ∈ T e w ∈ U . Um funcional
bilinear f sobre T × U é uma função real f : T × U → R, que é bilinear, ou seja, satisfaz
f (au + bv, w) = af (u, w) + bf (v, w),
para todos a, b ∈ R, u, v ∈ T e w ∈ U,
e
f (v, cw + ex) = cf (v, w) + ef (v, x),
para todos c, e ∈ R, v ∈ T e w, x ∈ U.
Com definições de adição, multiplicação por escalar, a função zero e inversas análogas às
dadas para funcionais lineares na Subseção 1.1.2, é imediato demonstrar que o conjunto de
funcionais bilineares sobre T × U é um espaço vetorial e, de agora em diante, usaremos tipo em
negrito para os funcionais bilineares.
Exercı́cio 1.15 Demonstre o dito acima.
Estamos agora em condições de definir o produto tensorial T ⊗ U de T e U como o espaço
vetorial de todos os funcionais bilineares sobre T ∗ × U ∗ . Note que, nessa definição, usamos os
conjuntos de base T ∗ e U ∗ dos espaços duais, e não os próprios T e U .
Surge, naturalmente, a questão da dimensão de T ⊗ U. Ela é, de fato, N M , onde N e M são
as dimensões de T e U, respectivamente; provamos isso mostrando que, a partir de bases dadas
de T e U, podemos definir N M elementos de T ⊗ U, que constituem uma base para ele.
Seja {eα }, α = 1, . . . , N e {f a }, a = 1, . . . , M , bases de T∗ e U∗ , duais às bases {eα } e {fa } de
T e U, respectivamente. (Note que usamos dois alfabetos diferentes para os sufixos que possuem
domı́nios diferentes.) Definamos N M funções eαa : T ∗ × U ∗ → R como
eαa (g, h) = gα ha ,
(1.17)
onde gα são as componentes de g ∈ T ∗ relativamente a {eα } e ha as de h ∈ U ∗ relativamente a
{f a }. Em particular,
eαa (eβ , f b ) = δαβ δab .
(1.18)
É simples mostrar que os eαa são bilineares e pertencem, assim, a T ⊗ U. Para mostrar que
constituem uma base devemos mostrar que geram T ⊗ U e que são linearmente independentes.
Exercı́cio 1.16 Seguindo um desenvolvimento análogo ao da Subsubseção 1.1.2.2, mostre que
{eαa } (i) gera T ⊗ U, e (ii) é linearmente independente.
1.2. ÁLGEBRA MULTILINEAR
17
Com o exercı́cio acima, demonstramos, pois, que a dimensão de T ⊗ U é N M , o produto das
dimensões de T e U, e que, de uma maneira natural, bases {eα } de T e {fa } de U induzem uma
base {eαa } de T ⊗ U, sendo as componentes τ αa de qualquer τ ∈ T ⊗ U, relativamente a essa
base, dadas, em termos das bases duais, por τ αa =τ (eα , f a ).
Investiguemos, agora, como as componentes τ αa e os vetores de base eαa se transformam
quando novas bases são introduzidas em T e U. Suponhamos que as bases de T e U se transformem de acordo com
eα0 = Xαβ0 eβ , fa0 = Yab0 fb .
(1.19)
Isso induz uma nova base {eα0 a0 } de T ⊗ U, e, para quaisquer (g, h) ∈ T ∗ × U ∗ ,
eα0 a0 (g, h) = gα0 ha0 = Xαβ0 Yab0 gβ hb
= Xαβ0 Yab0 eβb (g, h).
Sendo assim,
eα0 a0 = Xαβ0 Yab0 eβb .
(1.20)
Analogamente, para as componentes, obtemos
0 0
0
0
τ α a = Xβα Yba τ βb .
(1.21)
Exercı́cio 1.17 Prove isso.
Um vetor que é um elemento do produto tensorial de dois espaços (ou mais, vide abaixo) é
chamado um tensor. O produto tensorial, conforme definido acima, é um produto de espaçõs. É
possı́vel definir um tensor que é o produto tensorial g ⊗ h de vetores individuais g ∈ T e h ∈ U,
exigindo-se que
g ⊗ h = g α ha eαa ,
(1.22)
onde g α e ha são as componentes de g e h relativamente a bases de T e U que induzem a
base {eαa } de T ⊗ U. Embora essa definição seja dada por intermédio de bases, ela é, de fato,
independente de base.
Exercı́cio 1.18 Prove isso.
Em particular temos
eα ⊗ fa = eαa .
(1.23)
O produto tensorial g ⊗ h pertence a T ⊗ U, mas nem todos os tensores de T ⊗ U são dessa
forma. Aqueles que o são chamam-se de tensores decomponı́veis.
Tendo estabelecido a iéia básica do produto tensorial de dois espaços vetoriais, podemos
estendê-la para três ou mais espaços. No entanto, dados três espaços T, U, V, podemos formar o
seu produto tensorial de duas maneiras: (T⊗U)⊗V ou T⊗(U⊗V). Esses dois espaços claramente
possuem a mesma dimensão e são, de fato, naturalmente isomorfos, no sentido de que podemos
estabelecer uma correspondência bijetiva, independente de base, entre os seus elementos, assim
como fizemos com T e T ∗∗ . Isso é feito escolhendo-se bases {eα }, {fa } e {gA } em T, U e
V, respectivamente (três domı́nios, portanto três “alfabetos”), deixando τ αaA eα ⊗ (fa ⊗ gA )
corresponder a (τ αaA eα ⊗ fa ) ⊗ gA , e mostrando, então, que essa correspondência é independente
de base. Devido a esse isomorfismo natural, identificamos esses espaços, e a notação T ⊗ U ⊗ V
não é ambı́gua.
18
CAPÍTULO 1. ÁLGEBRA TENSORIAL
Exercı́cio 1.19 Prove a existência do isomorfismo natural mencionado.
Uma maneira alternativa de definir T ⊗ U ⊗ V é como o espaço de funcionais trilineares
sobre T ∗ × U ∗ × V ∗ . Isso leva a um espaço que é naturalmente isomorfo àqueles do parágrafo
precedente, e todos os três são identificados.
Exercı́cio 1.20 Convença-se disso.
Existem outros isomorfismos naturais, por exemplo entre T ⊗ U e U ⊗ T, ou entre (T ⊗ U)∗ e
T∗ ⊗ U∗ , e ,sempre que eles existirem, os espaços são identificados.
Exercı́cio 1.21 Convença-se disso.
De agora em diante, restringir-nos-emos a espaços de produto tensorial obtidos tomando-se
produtos tensoriais repetidos de um único espaço vetorial T e o seu dual T∗ . Introduzimos a
seguinte notação:
r vezes
z
}|
{
T ⊗ T ⊗ · · · ⊗ T =: Tr = T r (esta última notação, por abuso),
s vezes
}|
{
z
T∗ ⊗ T∗ ⊗ · · · ⊗ T∗ =: Ts = Ts (esta última notação, por abuso),
T r ⊗ Ts =: Tsr .
Em particular T = T 1 e T ∗ = T1 .
Um elemento de T r é um tensor contravariante de posto r, um elemento de Ts é um tensor
covariante de posto s, ao passo que um elemento de Tsr é um tensor misto de posto (r, s). Note
que esta nomenclatura rotula vetores contravariantes e covariantes como tensores de posto (1, 0)
e (0, 1) respectivamente. Escalares podem ser incluı́dos no esquema geral considerando-os como
tensores de posto (0, 0).
Uma base {eα } de T (de dimensão N ) induz uma base dual {eα } de T ∗ e essas, juntas,
r
r
r+s
s
induzem uma base {eβα11···β
componentes unı́vocas
···αr } de Ts . Cada tensor τ ∈ Ts tem N
relativamente à base induzida:
s
(1.24)
τ = τ α1 ···αr β1 ···βs eβα11···β
···αr .
Uma mudança de base de T induz uma mudança de base de Tsr , sob a qual as componentes se
transformam de acordo com:
0
0
0
0
···µr
τ α1 ···αr β10 ···βs0 = Xµα11 · · · Xµαrr Xβν10 · · · Xβνss0 τνµ11···ν
.
s
1
(1.25)
Por exemplo, para um tensor τ ∈ T21 ,
0
0
τ α β 0 γ 0 = Xρα Xβσ0 Xγλ0 τ ρ σλ .
É comum definir-se os tensores como objetos tendo componentes que se transformam de
acordo com as equações (1.25). Esta maneira de se encarar tensores se justifica notando-se que
se a cada base de T estão associados N r+s números reais, que, sob uma mudança de base dada
pelas equações (1.11), se transformam como (1.25), então esses números são as componentes de
um tensor τ de posto (r, s), conforme nós definimos tal objeto; simplesmente fazemos
s
τ = τ α1 ···αr β1 ···βs eαβ11···β
···αr .
1.2. ÁLGEBRA MULTILINEAR
1.2.2
19
Tensores relativos
Mostraremos agora que existem ainda objetos geométricos mais gerais que os tensores acima
vistos, cujas componentes se transformam, nao simplesmente com fatores da matriz de transformação de base, mas, além disso, com um fator dependente do determinante de tal matriz.
Para tanto, relembraremos, na Subsubseção seguinte, algo sobre determinantes.
1.2.2.1
Determinantes, sı́mbolos de Levi-Civita, deltas de Kronecker generalizados
Seja uma matriz quadrada N ×N [Z α β ], onde, como usual, suporemos que o superı́ndice α indica
linha e o subı́ndice β indica coluna, ou seja,


Z 11 Z 12 · · · Z 1N
 Z 21 Z 22 · · · Z 2N 


α
[Z β =  ..
(1.26)
..
..  .
.
.
 .
.
.
. 
ZN 1 ZN 2 · · · ZN N
O determinante dessa matriz, det[Z] ou, simplesmente, Z, pode ser definido através da regra
geral de Cramer ou, de uma maneira mais geométrica, através do estudo da noção de volume
num espaço N -dimensional. Aqui queremos que você se convença que ele também pode ser
escrito como:
det[Z] = ²α1 α2 ...αN Z α1 1 Z α2 2 · · · Z αN N ,
= ²α1 α2 ...αN Z 1 α1 Z 2 α2 · · · Z N αN ,
(1.27)
onde introduzimos os chamados sı́mbolos de Levi-Civita:

 1, se (α1 , α2 , . . . , αN ) for permutação par de (1, 2, . . . , N );
−1, se (α1 , α2 , . . . , αN ) for permutação ı́mpar de (1, 2, . . . , N );
²α1 α2 ...αN := ²α1 α2 ...αN :=

0, nos outros casos, ou seja, se houver ı́ndices repetidos.
(1.28)
Observações:
1. Note que seguimos a convenção de ²12...N = ²12...N = 1 e não aquela de ²12...N = −²12...N = 1,
às vezes adotada por alguns autores.
2. Note que, com a equação (1.27), de fato, fica óvio que, por troca de quaisquer duas filas
(linhas ou colunas), o determinante muda de sinal, devido à anti-simetria dos sı́mbolos de
Levi-Civita
3. Como conseqüência do item acima, ou diretamente da própria equação (1.27), o determinante de uma matriz com duas filas proporcionais resulta ser nulo.
4. Para ajudar ainda mais na aceitação da expressão (1.27) para o determinante, lembre-se
de (ou prove agora), do cálculo vetorial básico, a expressão para (i) o produto vetorial em
termos de componentes cartesianas:


x̂ ŷ ẑ
A × B = det  Ax Ay Az 
Bx By Bz
= ²ijk Ai Bj êk .
20
CAPÍTULO 1. ÁLGEBRA TENSORIAL
ou (ii) o produto misto, também em termos de componentes cartesianas:


Ax Ay Az
A · (B × C) = det  Bx By Bz  ,
Cx Cy Cz
o que também faz uma conexão com a idéia, acima mencionada, de determinante como
uma medida de volume (no caso, do paralelepı́pedo com “arestas” A, B e C).
Tendo em conta a anti-simetria dos sı́mbolos de Levi-Civita, podemos ainda reescrever a
(1.27) como
²α1 α2 ...αN Z = ²β1 β2 ...βN Z α1 β1 Z α2 β2 . . . Z αN βN ,
(1.29)
ou
²α1 α2 ...αN Z = ²β1 β2 ...βN Z β1 α1 Z β2 α2 . . . Z βN αN ,
(1.30)
formas que serão úteis para a subsubseção seguinte.
Exercı́cio 1.22 Convença-se da validade de tais fórmulas.
Seria interessante se pudéssemos ter uma expressão final para o determinante, Z, isolado
em um membro dessa expressão, em função dos sı́mbolos de Levi-Civita e dos elementos da
matriz. Para tanto, convém introduzirmos novos objetos, que são os tensores deltas de Kronecker
···αr
generalizados, δβα11βα22···β
, definidos por
r



···αr
δβα11βα22···β
:=
det

r

δβα11 δβα21
δβα12 δβα22
..
. ···
δβα1r δβα2r
· · · δβαr1
· · · δβαr2
...
···
· · · δβαrr





(1.31)
Obviamente, o delta de Kronecker (usual) é um caso particular dessa definição, correspondente
ao valor r = 1. Com r = 2 em (1.31), vemos que
αβ
δµν
= δµα δνβ − δνα δµβ .
···αr
é a soma de r! termos, cada um dos quais é o produto de r deltas de Kronecker
Em geral, δβα11βα22···β
r
(usuais). Como, conforme já vimos, o delta de Kronecker (usual) é um tensor do tipo (1,1), segue
imediatamente que o delta de Kronecker generalizado é um tensor do tipo (r, r). Da sua própria
definição é fácil mostrar que: (i) o delta de Kronecker generalizado é anti-simétrico em todos
os super-ı́ndices e todos os sub-ı́ndices; (ii) se r > N , onde N é a dimensão do espaço, então
···αr
≡ 0.
δβα11βα22···β
r
Exercı́cio 1.23 Convença-se dessas afirmações.
Queremos agora estabelecer uma relação ou identidade fundamental entre ²α1 α2 ···αN , ²β1 β2 ···βN e
···αN
δβα11βα22···β
:
N
···αN
²α1 α2 ···αN ²β1 β2 ···βN = δβα11βα22···β
.
N
(1.32)
1.2. ÁLGEBRA MULTILINEAR
21
Para tanto, consideremos a grandeza
···αN
···αN
Aαβ11βα22···β
:= ²β1 β2 ···βN ²α1 α2 ···αN − δβα11βα22···β
,
N
N
(1.33)
que é obviamente anti-simétrica nos subı́ndices e nos super-ı́ndices. Conseqüentemente, as únicas
···αN
possı́veis componentes não nulas de Aαβ11βα22···β
ocorrerão quando (α1 , α2 , . . . , αN ) e (β1 , β2 , . . . , βN )
N
forem permutações (sem repetição) de (1, 2, . . . , N ). No entanto, de (1.28), (1.33) e (1.31), vê-se
facilmente que
A12···N
12···N = 0.
Logo, acabamos de mostrar que
···αN
Aαβ11βα22···β
≡ 0,
N
o que, por (1.33), estabelece (1.32).
Exercı́cio 1.24 Mostre, a partir de (1.32), que, genericamente,
1 α1 ...αN −j γ1 ...γj
α ...α −j
²
²β1 ...βN −j γ1 ...γj = δβ11...βNN−j
.
j!
(1.34)
Daı́ ou da própria (1.32) vem, em particular, que:
²α1 α2 ···αN ²α1 α2 ···αN = N !
Exercı́cio 1.25 Prove isso!
Finalmente, podemos, pois, ter a expressão que procurávamos:
Z := det[Z µ ν ] =
1 α1 α2 ···αN
²β1 β2 ···βN Z1β α1 Z β2 α2 · · · Z βN αN .
²
N!
(1.35)
Exercı́cio 1.26 Prove-a!
1.2.2.2
Tensores relativos
Consideremos, agora, como caso particular da matriz [Z α β ], tratada na subsubseção anterior,
uma matriz mudança de base, num certo espaço vetorial:
eα0 = Xαβ0 eβ .
(1.36)
Nessa situação, a expressão para o determinante de [Xβα ], conforme (1.29) ou (1.30), mostra
que, se postularmos, como é naturalı́ssimo, que, independentemente de base, os valores das
0 0
0
componentes dos sı́mbolos de Levi-Civita são os mesmos (²α1 α2 ···αN = ²α1 α2 ···αN e ²α01 α02 ···α0N =
²α1 α2 ···αN ), então concluı́mos que as leis de transformação para esses sı́mbolos (invariantes por
definição) passam a ser:
0
0
α0
0
α0
α0
²α1 α2 ···αN = X −1 Xβ11 Xβ22 · · · XβNN
e
²α01 α02 ···α0N = XXαβ01 Xαβ02 · · · Xαβ0N ²β1 β2 ···βN .
1
2
N
22
CAPÍTULO 1. ÁLGEBRA TENSORIAL
Tais leis são iguais àquelas para tensores, exceto pela presença de um fator potência do determinante da matriz mudança de base. Isso sugere a importância de tratarmos de objetos geométricos
cujas componentes se transformem de uma maneira mais geral. Sendo assim, fugindo um pouco
à nossa apresentação geométrica ou independente de base atá aqui, diremos que um conjunto
de N r+s números Λα1 ···αr β1 ···βs constituem as componentes de um tensor relativo de posto (r, s) e
peso w, se, sob uma mudança de base (1.36), esses números (chamados componentes do tensor
relativo) se transformarem de acordo com
0
0
0
0
Λα1 ···αr β10 ···βs0 = X −w Xµα11 · · · Xµαrr Xβν10 · · · Xβνss0 Λµ1 ···µr ν1 ···νs .
1
(1.37)
Note o sinal no expoente do determinante X. Podemos observar, então que:
1. ²α1 ···αN e ²α1 ···αN constituem as componentes de tensores relativos de peso 1 e -1, respectivamente.
2. os tensores de que tratamos até antes dessa subsubseção são tensores relativos de peso 0;
às vezes, eles são chamados tensores absolutos.
1.2.3
Operações e resultados adicionais
1.2.3.1
Contração
Até aqui, temos três operações básicas com tensores (absolutos ou relativos): adição de tensores
de mesmo posto, multiplicação de um tensor por um escalar e formação do produto tensorial.
Existe uma quarta operação básica com tensores, que é mais facilmente explicada em termos
de componentes. Esta operação é a contração, que associa N r+s−2 números (componentes)
Rα1 ···αp−1 αp+1 ···αr β1 ···βq−1 βq+1 ···βs com N r+s números (componentes) Qα1 ···αr β1 ···βs , definidos por
Rα1 ···αp−1 αp+1 ···αr β1 ···βq−1 βq+1 ···βs := Qα1 ···αp−1 γαp+1 ···αr β1 ···βq−1 γβq+1 ···βs .
(1.38)
Ou seja, fazendo-se um sub-ı́ndice igual a um supre-ı́ndice e somando, como a convenção de
soma implica. É claro que existem rs maneiras de fazer isso, cada uma das quais leva a uma
contração do conjunto original de números.
O significado especial que essa operação tem para tensores (absolutos ou relativos) é que, se
os números originais forem as componentes de um tensor relativo de posto (r, s) e peso w, então
suas contrações são as componentes de um tensor relativo de posto (r − 1, s − 1) e mesmo peso,
w.
Exercı́cio 1.27 Prove isso!
1.2.3.2
Simetrização e anti-simetrização
Dada uma matriz [Mαβ ], podemos expressá-la sempre como a soma de duas outras matrizes,
[M(αβ) ] e [M[αβ] ], tal que
(1.39)
Mαβ = M(αβ) + M[αβ] ,
onde
1
(Mαβ + Mβα )
2
1
(Mαβ − Mβα ).
:=
2
M(αβ) :=
(1.40)
M[αβ]
(1.41)
1.2. ÁLGEBRA MULTILINEAR
23
A matriz [M(αβ) ] é a chamada parte simétrica de [Mαβ ] e o processo mostrado em (1.40) é
chamado simetrização de [Mαβ ], ao passo que a matriz [M[αβ] ] é a chamada parte anti-simétrica
de [Mαβ ] e o processo indicado em (1.41) é chamado anti-simetrização de [Mαβ ]; tal terminologia
justifica-se pelo fato de que
M(αβ) = M(βα)
e
M[αβ] = −M[βα] .
Além disso, se, de fato, Mαβ constituı́ rem as componentes de um tensor de posto (2, 0), assim
também o constituem M(αβ) e M[αβ] , diferentemente de M α β .
Exercı́cio 1.28 Prove isso!
No caso mais geral, a componente M(α1 ···αr ) da chamada parte (totalmente) simétrica de Mα1 ···αr
é obtida somando-se todas as componentes obtidas por permutações dos ı́ndices (α1 , . . . , αr ) e
dividindo-se o resultado por r!; ou seja, no caso de três ı́ndices, terı́amos:
M(αβγ) :=
1
(Mαβγ + Mαγβ + Mβαγ + Mβγα + Mγαβ + Mγβα ) .
3!
Algo análogo vale para a chamada parte (totalmente) anti-simétrica, mas, aqui, as permutações
pares dos ı́ndices (α1 , . . . , αr ) são somadas, ao passo que as permutações ı́mpares são subtraı́das,
ou seja:
1
M[αβγ] := (Mαβγ − Mαγβ − Mβαγ + Mβγα + Mγαβ − Mγβα ) .
3!
Naturalmente, tudo isso pode ser estendido para “ı́ndices covariantes”, presenvando sempre o
caráter tensorial dos objetos resultantes (as partes simétrica e anti-simétrica). Já a simetrização
ou anti-simetrização em ı́ndices em nı́veis distintos não gera tensores.
Exercı́cio 1.29 Prove isso!
1.2.3.3
Regras do quociente
As regras do quociente permitem estabelecer diretamente o caráter tensorial de um objeto dado
que o produto dele com um tensor (relativo) arbitrário gera sempre um tensor (relativo). Raciocinemos através de um exemplo concreto, em termos de componentes, de novo.
Sejam dados, numa certa base, um conjunto de números Y α βγ , que, quando multiplicados
pelas componentes T γµ de um tensor arbitrário, saibamos fornecer sempre um tensor C α β µ ; ou
seja,
(1.42)
C α β µ = Y α βγ T γµ
é um tensor para qualquer tensor T γµ . Então, a regra do quociente, nesse caso, afirma que Y α βγ
constituirão as componentes de um tensor também, de posto (1,2), conforme sugerido pela sua
estrutura de ı́ndices.
Para provar isso, usamos a lei de transformação caracterı́stica das componentes de um tensor.
Imaginamos que, numa nova base, ainda vale a equação (1.42), como que por definição das novas
24
CAPÍTULO 1. ÁLGEBRA TENSORIAL
componentes do objeto Y, cujo caráter queremos descobrir. Então,
0
0
C α β0 µ
0
0
0 0
0
0
0
0
0
0
= Y α β0γ0 T γ µ
w
w
w
w (pois C e T são tensores)
w
Ä
0
Xαα Xββ0 Xµµ C α β µ = Y α β 0 γ 0 Xγγ Xµµ T γµ
w
w
w
w substituindo (1.42)
w
Ä
0
0
Xαα Xββ0 Xµµ Y α βγ T γµ =
w
w
w
w
w
Ä
³ 0
´
0
0
0
Y α β 0 γ 0 Xγγ − Xαα Xββ0 Y α βγ Xµµ =
w
w
w
w
w
Ä
0
Y α β 0 γ 0 Xγγ
0
0
Y α β 0 γ 0 Xγγ Xµµ T γµ
já que T é arbitrário
0
multiplicando por Xµµ0
0
= Xαα Xββ0 Y α βγ
w
w
w
w multiplicando por X γ0
σ
w
Ä
0
Y α β 0 σ0 = Xαα Xββ0 Xσγ0 Y α βγ ,
que é justamente o que querı́amos demonstrar. A própria expressão “regra do quociente” se
explica pela forma como Y α βγ se apresenta em (1.42).
Exercı́cio 1.30 Como voce adaptaria o enunciado de tal regra ao caso de tensores relativos?
Exercı́cio 1.31 Se, para um tensor simétrico, mas, fora isso, arbitrário, de componentes S αβ ,
o resultado
C α = Y α βγ S βγ
é sempre um vetor contravariante, o que você pode deduzir sobre o caráter de Y α βγ ou de alguma(s) de suas partes?
Referências Bibliográficas
[1] R. Adler, M. Bazin, and M. Schiffer. Introduction to general relativity. McGraw-Hill Kogakusha, Tokyo, Japan, second edition, 1975.
[2] J. L. Synge an A. Schild. Tensor calculus. Dover, New York, USA, 1978.
[3] J. L. Anderson. Principles of relativity physics. Academic Press, New York, USA, 1967.
[4] P. Bamberg and S. Sternberg. A course in mathematics for students of physics. Cambridge
University Press, Cambridge, England, 1988.
[5] R. L. Bishop and S. I. Goldberg. Einstein’s theory of relativity. Dover, New York, USA,
1980.
[6] A. I. Borisenko and I. E. Tarapov. Vector and tensor analysisi with applications. Dover,
New York, USA, 1979.
[7] W. L. Burke. Applied differential geometry. Cambridge University Press, Cambridge, England, 1985.
[8] M. Crampin and F. A. E. Pirani. Applicable differential geometry. Cambridge University
Press, Cambridge, England, 1986.
[9] R. d’Inverno. Introducing Einstein’s relativity. Oxford University Press, Oxford, England,
1992.
[10] C. T. J. Dodson and T. Poston. Tensor geometry. The geometric viewpoint and its uses.
Pitman, London, England, 1977.
[11] J. Foster and J. D. Nightingale. A short course in general relativity. Longman, London,
England, first edition, 1979.
[12] J. Foster and J. D. Nightingale. A short course in general relativity. Springer-Verlag, New
York, USA, second edition, 1995.
[13] L. P. Hughston and K. P. Tod. An introduction to general relativity. Cambridge University
Press, Cambridge, England, 1990.
[14] A. Lichnerowicz. Elements of tensor calculus. Methuen, London, England, 1962.
[15] D. Lovelock and H. Rund. Tensors, differential forms, and variational principles. John
Wiley & Sons, Chichester, England, 1975.
31
32
REFERÊNCIAS BIBLIOGRÁFICAS
[16] L. Nachbin. Introdução à álgebra. McGraw-Hill do Brasil, Rio de Janeiro, Brasil, 1971.
[17] C. Nash and S. Sen. Topology and geometry for physicists. Academic Press, New York,
USA, 1983.
[18] B. O’Neill. Semi-Riemannian geometry, with applications to relativity. Academic, New
York, USA, 1983.
[19] J. A. Schouten. Ricci-calculus. Springer, Berlin, Germany, 1954.
[20] B. F. Schutz. Geometrical methods of mathematical physics. Cambridge University Press,
Cambridge, England, 1980.
[21] A. Trautman. Foundations and current problems of general relativity. In S. Deser and K. W.
Ford, editors, Lectures on general relativity, Proceedings of the 1964 Brandeis Summer
Institute in Theoretical Physics, Englewood Cliffs, USA, 1965. Prentice-Hall.
Download