6 Capı́tulo 1 Álgebra tensorial 1.1 Álgebra linear Referências: [8, 16, 4, 5, 11, 7, 10, 14, 6, 21] Obviamente, o conceito preciso e puro de vetor é aquele fornecido pela álgebra linear; em particular, é óbvio que, a rigor, um vetor: (i) não é “uma grandeza caracterizada por módulo, direção e sentido”, e (ii) não é “uma tripla (ou n-upla) numérica (real, complexa, etc)”. De fato, num espaço vetorial puro (bruto) não existe a noção de módulo de um vetor, assim como a tripla numérica define tão somente as componentes do vetor numa dada base1 . Isso posto, é claro que devemos, imediatamente, reconhecer o papel fundamentalı́ssimo e talvez o mais importante, do ponto de vista heurı́stico, da associação primitiva de vetores com deslocamentos no espaço fı́sico; em geral, aliás, o surgimento de novos conceitos e teorias vem, a partir da prática, envolto numa série de superestruturas supérfluas, que, só com o desenvolvimento lógico posterior, fica evidenciado. No caso particular dos deslocamentos, o que se faz necessário é considerar o espaço fı́sico como um espaço afim, no sentido matemático preciso da palavra2 . Aqui, só queremos lembrar que, com essa estrutura, é que podemos dar sentido à noção de que o espaço fı́sico, pelo menos na acepção da geometria euclidiana, não possui origem privilegiada; o conceito mais primitivo é o de ponto, a partir do qual se constrói o de deslocamento e, como conseqüência, o de vetor3 . Dito de outra forma, num espaço vetorial puro, não existe a noção de ponto. 1 Eu, Maurı́cio Ortiz Calvão, sou “representado”, no Brasil, por uma carteira de identidade com um certo número de registro geral, ao passo que, nos Estados Unidos, possuo uma carteira com um número distinto; será que, por isso, eu, Maurı́cio Ortiz Calvão, sou duas pessoas? 2 Gostarı́amos de remeter, aqui, o leitor para o livro de Bamberg & Sternberg, [4], em especial as duas primeiras seções do primeiro capı́tulo, onde os autores constroem, explicitamente, a idéia de vetor a partir dos pontos de um espaço afim. Tal obra é extremamente didática e de agradável leitura. 3 Convém refletir sobre três conceitos de vetor tradicionalmente introduzidos na literatura: livre, deslizante e ligado; pense na noção de equipolência na geometria euclidiana [16]. 7 8 CAPÍTULO 1. ÁLGEBRA TENSORIAL 1.1.1 Espaços vetoriais 1.1.1.1 Axiomas Um espaço vetorial (ou linear) T (sobre K) é um conjunto {T, +, ·, K}, onde T é um conjunto não vazio de elementos chamados vetores, +, · são duas leis de composição: + : T × T → T (adição) · : K × T → T (multiplicação por escalar) e K := (K, ⊕, ¯) é um corpo, cujos elementos do conjunto de base, K, são chamados, nesse contexto, de escalares (por exemplo, os números reais, racionais, ou complexos). Outrossim, tais composições devem satisfazer, para quaisquer u, v, w ∈ T e a, b ∈ K, os seguintes axiomas4 : 1. v + w = w + v (comutatividade da adição) 2. u + (v + w) = (u + v) + w (associatividade da adição) 3. ∃ 0 | v + 0 = v (existência de elemento neutro para adição) 4. ∃ −v ∈ T | v + (−v) = 0, ∀ v (existência de elementos inversos para adição) 5. a · (v + w) = a · v + a · w 6. (a ⊕ b) · v = a · v + b · v 7. a · (b · v) = (a ¯ b) · v 8. 1·v = v. Os axiomas de (1) a (4) tornam {T, +} um grupo abeliano (comutativo). Os axiomas (2) e (7), com o abuso de notação mencionado na nota de rodapé 4, permitem a eliminação de parênteses em certas expressões; ou seja, u+v+w=(u+v)+w e abv = (ab)v. Exercı́cio 1.1 Prove as seguintes conseqüências imediatas dos axiomas: 1. o elemento neutro, 0, para adição é único. 2. para todo v ∈ T , 0v = 0. 3. os elementos inversos para adição são únicos. 4. se a ∈ K, v ∈ T , e av = 0, então ou a = 0 ou v = 0. d vezes z }| { Exercı́cio 1.2 Seja T := Rd := R × · · · × R, onde R é o conjunto dos números reais. Definamos (u1 , . . . , ud ) + (v1 , . . . , vd ) = (u1 + v1 , . . . , ud + vd ), a · (v1 , . . . , vd ) = (av1 , . . . , avd ), ∀a ∈ R. Prove que (Rd , +, ·) é, então, um espaço vetorial (sobre o corpo dos reais). 4 Infelizmente, por abuso de notação, costuma-se denotar ambas as operações · e ¯ simplesmente por justaposição, assim como as operações + e ⊕ pelo mesmo sı́mbolo +. Tome cuidado! 1.1. ÁLGEBRA LINEAR 9 Exercı́cio 1.3 Seja R+ o conjunto de números reais positivos. Defina a “soma” de dois elementos de R+ como sendo o produto no sentido usual (p + q := pq), e a multiplicação por escalares de R como sendo · : R × R+ (r, p) 7→ r · p := pr . Com tais operações, mostre que (R+ , +, ·) é um espaço vetorial sobre R. Se U e V são dois espaços vetoriais sobre o mesmo corpo de escalares, então construı́mos um novo espaço vetorial, dito a soma direta de U e V e denotado por U + V, da seguinte forma: o novo conjunto de vetores é U × V , as novas adição e multiplicação por escalar são definidas por (com um evidente abuso de notação) (u, v) + (u0 , v0 ) := (u + u0 , v + v0 ) a · (u, v) := (a · u, a · v). Exercı́cio 1.4 Mostre que, no exercı́cio 1.2 acima, (Rd , +, ·) é a d-ésima soma direta de R consigo mesmo. 1.1.1.2 Convenções de domı́nio, de soma e de núcleo-ı́ndice Seguindo [8], é mais simples começar com um exemplo de equação matricial: u = Av. Aqui v é uma matriz (“vetor”) coluna, de ordem N × 1, digamos; A é uma matriz de ordem M × N ; e u é, pois, uma matriz (“vetor”) coluna, de ordem M × 1. Esta equação matricial nos diz como cada elemento individual de u é determinado a partir dos elementos individuais de v via A. Para escrevermos explicitamente tal expressão, introduz-se uma notação para os elementos (“componentes”) de u e v, assim como os elementos de A: digamos que v a represente o a-ésimo elemento de u (a = 1, 2, . . . , N ), uα o α-ésimo elemento de v (α = 1, 2, . . . , M ), e Aα a o elemento da α-ésima linha e a-ésima coluna de A. A equação matricial acima é, então, equivalente às M equações N X uα = Aα a v a . α=1 A convenção de domı́nio surge da observação de que não é necessário enunciar, em cada ocorrência de um conjunto de equações como essa, que existem M equações envolvidas e que a validade de cada uma delas está sendo afirmada. Isso pode ser percebido a partir da presença do ı́ndice α em cada membro da equação: pois α é um ı́ndice livre, diferentemente de a, que está sujeito a um sinal de somatório. Por outro lado, a convenção de soma segue da observação de que, sempre que uma soma ocorre em uma expressão desse tipo, é uma soma sobre um ı́ndice (no caso a) que ocorre precisamente duas vezes na expressão a ser somada. Assim, uma soma ocorre somente quando há um ı́ndice repetido; e quando um ı́ndice está P repetido, uma soma é quase sempre implı́cita. Sob tais circunstâncias, o sı́mbolo de somatório N a=1 não desempenha nenhum papel 10 CAPÍTULO 1. ÁLGEBRA TENSORIAL útil, já que a soma pode ser reconhecida pela repetição de um ı́ndice; o sı́mbolo pode, pois, ser omitido. Assim, a equação de “componente” ou elemento acima é escrita, quando as convenções de domı́nio e soma estão vigentes, na forma simples uα = Aα a v a . A presença do ı́ndice repetido a no membro direito implica soma sobre seu domı́nio permitido de valores 1, 2, . . . , N em virtude da convenção de soma; ao passo que a presença do ı́ndice livre α, em ambos os membros da equação, implica igualdade para cada valor 1, 2, . . . , M que ele pode assumir, em virtude da convenção de domı́nio. Em geral, as convenções de domı́nio e de soma funcionam da seguinte maneira. Se, numa equação envolvendo grandezas indexadas, existem ı́ndice livres (não repetidos), então a equação vale para todos os valores nos domı́nios de todos os ı́ndices livres, tendo tais domı́nios sido anteriormente declarados: isso é a convenção de domı́nio. Onde, numa expressão envolvendo grandezas indexadas, qualquer ı́ndice estiver repetido, soma sobre todos os valores possı́veis no domı́nio daquele ı́ndice é implicada, o domı́nio, de novo, tendo sido previamente declarado: isso é a convenção de soma. O funcionamento das convenções de domı́nio e de soma na prática é relativamente direto. Uma ou duas regras–freqüentemente melhor empregadas para verificação interativa da correção de um cálculo–devem ser mencionadas. O número de ı́ndices livres nos dois membros de uma equação deve ser o mesmo; e, naturalmente, cada ı́ndice livre diferente em uma expressão deve ser representado por uma letra diferente. Índices repetidos em uma expressão só podem ocorrer aos pares. A substituição de uma letra representando um ı́ndice por outra letra é permitida, contanto que todas as ocorrências da letra sejam alteradas no mesmo tempo e da mesma maneira, e contanto que fique subentendido que a nova letra tem o mesmo domı́nio de valores que aquela que ela substitui. A prática mais conveniente a se adotar, onde ı́ndices com diferentes domı́nios estiverem envolvidos em um único cálculo, é reservar uma pequena seção de um particular alfabeto para representar os ı́ndices com um dado domı́nio. Assim, no caso discutido acima, poder-se-ia tomar a, b, c para variarem e se somarem de 1 a N , e α, β, γ para variarem e se somarem de 1 a M ; então, uβ = Aβ c v c significaria exatamente o mesmo que uα = Aα a v a . Dois pontos devem ser enfatizados sobre a maneira em que tais convenções são usadas nessas notas. Em primeiro lugar, nós arranjamos as coisas de modo que o par de ı́ndices repetidos implicando uma soma ocorrerá (quase sempre) com um ı́ndice na posição superior e outro na inferior. Isso já está aparente no modo em que escolhemos escrever a equação matricial acima, quando algo do tipo uα = Aαa va poderia ser esperado. O ponto está relacionado à importância de distinguir entre um espaço vetorial e o seu dual (vetores coluna versus vetores linha), que será explorado, com detalhes, mais a frente. O segundo ponto a prestar atenção é que uma expressão como (xc ) é freqüentemente usada para representar (x1 , x2 , . . . , xn ). E mais, o valor de uma função de n variáveis, digamos f , em (xc ), será denotado por f (xc ). Nesta situação, o ı́ndice c não está sujeito nem à convenção de soma nem à de domı́nio. Em tal contexto, (xc ) deve geralmente ser pensado como o conjunto das coordenadas de um ponto em algum espaço. 1.1. ÁLGEBRA LINEAR 1.1.1.3 11 Independência linear e bases Seja T um espaço vetorial. Um conjunto finito de vetores, digamos {v1 , . . . , vr }, é dito lineari mente dependente se existirem escalares a1 , . . . , ar , nem todos zero, tais Prque ia vi = 0 (aqui, fica subentendido, pelas convenções de domı́nio e soma, que trata-se de i=1 a vi = 0.). Um conjunto infinito é linearmente dependente se algum subconjunto finito for linearmente dependente. Um conjunto de vetores é linearmente independente se ele não for linearmente dependente. Uma soma da forma ai vi , onde vi ∈ T e ai ∈ K, é chamada uma combinação linear de v1 , . . . , vr . Como conseqüências simples, notamos que dois vetores são linearmente dependentes se um é múltiplo do outro; não podemos dizer que cada um é múltiplo do outro, já que um deles pode ser 0. Se um conjunto S inclui 0, então ele é linearmente dependente a despeito de quaisquer outros elementos. Exercı́cio 1.5 Prove essas duas últimas afirmações. O número máximo de vetores linearmente independentes em um espaço vetorial T é chamado de dimensão de T e denota-se por dim T. Naturalmente, pode não haver um máximo finito, em cujo caso escrevemos dim T = ∞; isso significa que, para todo n positivo, há um subconjunto linearmente independente de T tendo n elementos. Uma base de T é um subconjunto S de T linearmente independente e tal que todo vetor é uma combinação linear de elementos de S.5 Exercı́cio 1.6 Prove que, se S é uma base, então a combinação linear que expressa v ∈ T em termos dos elementos de S é única, exceto pela ordem das “parcelas”. Se S é uma base de T, então, para cada v ∈ T , os escalares unı́vocos que ocorrem como coeficientes na combinação linear de elementos de S que expressam v são chamados de componentes de v com respeito à base S. Consideramos que uma componente de v é atribuı́da a cada elemento de S; no entanto, somente um número finito de componentes serão não zero6 . Exercı́cio 1.7 Prove que todas as bases têm o mesmo número de elementos, a dimensão de T. 1.1.1.4 Transformações de base; vetores contravariantes (ou primais) Seja {e1 , . . . , eN } (ou, simplesmente, {eα }) uma base de um espaço vetorial N -dimensional, T, de modo que qualquer v ∈ T pode ser escito como v = v a lphaeα , para convenientes escalares v α . Os escalares v α são as componentes de v com respeito à base {eα }. Queremos agora ver como as componentes de um vetor se transformam quando uma nova 0 base é introduzida. Seja {eα0 } uma nova base de T, e sejam v α as componentes de v com respeito a essa nova base. Então 0 (1.1) v = v α eα0 . 5 Mencionamos, sem prova, que uma base sempre existe. Isso é óbvio se dim T for finita, mas, caso contrário, exige indução transfinita. 6 Em espaços vetorias puros, somente combinações lineares com um número finito de termos são definidas, já que nenhum significado é atribuı́do a limites ou convergência. Espaços vetorias nos quais uma noção de limite está definida e que satisfazem certas relações adicionais são chamados espaços vetoriais topológicos. Quando esta estrutura adicional é derivada de um produto interno positivo definido, o espaço é dito um espaço de Hilbert. 12 CAPÍTULO 1. ÁLGEBRA TENSORIAL Os novos vetores de base podem, como quaisquer vetores, ser expressos como uma combinação linear dos antigos: eα0 = Xαβ0 eβ , (1.2) e, inversamente, os antigos como uma combinação linear dos novos: 0 eγ = Xγα eα0 . (1.3) (Embora estejamos usando a mesma letra de núcleo X, os N 2 números Xαβ0 são diferentes dos N 2 0 números Xβγ , as posições das plicas indicando a diferença.) Substituindo, agora, eα0 , de (1.2), em 1.3, vem 0 eγ = Xγα Xαβ0 eβ . (1.4) Devido à independência linear de {eβ }, temos pois 0 Xγα Xαβ0 = δγβ , (1.5) onde δγβ é o delta de Kronecker, definido por ½ 0, se β = 6 γ, β δγ := 1, se β = γ. (1.6) (Note que não podemos dizer que δββ = 1, pois β aparece tanto como um super-ı́ndice quanto como um sub-ı́ndice e, de acordo com nossas convenções, um somatório está implı́cito; de fato, δββ = N , a dimensão de T.) Analogamente, podemos deduzir que 0 0 Xαβ0 Xβγ = δαγ 0 (= δαγ ). (1.7) Exercı́cio 1.8 Deduza essa última equação. A substituição de eα0 , a partir da equação (1.2), em (1.1), fornece 0 v = v α Xαβ0 eβ , (1.8) e, devido à independência linear de eβ , 0 v β = Xαβ0 v α . Conseqüentemente, 0 0 (1.9) 0 0 0 0 Xαγ v α = Xαγ Xβα0 v β = δβγ0 v β = v β . (1.10) Recapitulando, se as bases com e sem plica estão relacionadas por eα0 = Xαβ0 eβ , 0 eα = Xαβ eβ 0 , (1.11) então as componentes estão relacionadas por 0 0 v α = Xβα v β , 0 v α = Xβα0 v β , (1.12) e valem 0 Xβα0 Xγβ = δγα , 0 0 Xβα Xγβ0 = δγα0 . (1.13) 1.1. ÁLGEBRA LINEAR 1.1.2 13 Espaços duais Embora se sugira que possa ser útil visualizar os vetores de um espaço vetorial como um conjunto de setas partindo de uma origem, de certa forma esta imagem pode ser muito capciosa, pois muitos conjuntos de objetos sem qualquer semelhança com setas constituem espaços vetoriais sob definições adequadas de adição e multiplicação por escalar. Dentre tais objetos, temos as funções (voce imaginaria uma delas como uma seta?). Restrinjamo-nos a funções reais definidas num espaço vetorial real de conjunto de vetores T . Matematicamente, uma tal função f é simbolizada por f : T → R, indicando que ela aplica um vetor de T em um número real. Pode-se dotar o conjunto de todas as funções desse tipo com uma estrutura de espaço vetorial, definindo-se: 1. a soma f + g de duas funções f e g como (f + g)(v) = f (v) + g(v), para todo v ∈ T ; 2. o produto af do escalar a pela função f como (af )(v) = a(f (v)), para todo v ∈ T ; 3. a função zero 0 como 0(v) = 0, para todo v ∈ T (onde, na esquerda, 0 é uma função, ao passo que, na direita, ele é o número real zero); 4. a função inversa −f da função f como (−f )(v) = −(f (v)), para todo v ∈ T. Exercı́cio 1.9 Prove que, munido dessas operações, o conjunto de funções f constitui um espaço vetorial. Qual é a sua dimensão? 1.1.2.1 Funcionais ou formas lineares O espaço de todas as funções reais sobre um espaço vetorial T é grande demais para nossos propósitos; restringir-nos-emos, pois, àquelas funções que são lineares. Ou seja, as funções que satisfazem (1.14) f (au + bv) = af (u) + bf (v), para todos a, b ∈ R e todos u, v ∈ T . Funções lineares reais sobre um espaço vetorial real são geralmente chamadas de funcionais ou formas lineares. É fácil verificar que a soma de dois funcionais lineares é também um funcional linear, e que a multiplicação por um escalar fornece um funcional linear também. Essas observações garantem que o conjunto de todos os funcionais lineares sobre um espaço vetorial T é também um espaço vetorial. Este espaço é o dual de T e denota-se por T∗ . Exercı́cio 1.10 Prove as últimas afirmações. 14 CAPÍTULO 1. ÁLGEBRA TENSORIAL Como os funcionais lineares são vetores, iremos, de agora em diante, usar o tipo em negrito para eles. Destarte, se v ∈ T e f ∈ T ∗ , então f (v) ∈ R, ou seja, é um escalar, a despeito do tipo em negrito. Temos agora dois tipos de vetores, aqueles em T e aqueles em T ∗ . Para distingui-los, aqueles em T são chamados vetores contravariantes ou primais, ao passo que aqueles em T ∗ são chamados de vetores covariantes ou duais. Como uma caracterı́stica distintiva adicional, os vetores de base de T∗ portarão super-ı́ndices e as componentes de vetores em T ∗ portarão sub-ı́ndices. Assim, se {eα } é uma base de T∗ , então g ∈ T ∗ tem uma expressão única g = gα eα , em termos de componentes. Na verdade, a razão para a escolha das expressões contravariante e covariante ficará mais clara ainda na segunda subsubseção a seguir. 1.1.2.2 Bases duais (naturais) O uso da letra minúscula α na soma implı́cita acima sugere, de acordo com nossa convenção de domı́nio, que o domı́nio da soma é de 1 a N , a dimensão de T, ou seja, que T∗ tem a mesma dimensão que T. Esse, de fato, é o caso, como provaremos, agora, mostrando que uma dada base {eα } de T induz, de uma maneira natural, uma base dual {eα } de T∗ possuindo N elementos que satisfazem eα (eβ ) = δβα . Começamos por definir eα como a função real que leva cada vetor v ∈ T no número real que é a sua α-ésima componente v α relativamente a {eα }, ou seja, eα (v) = v α , para todo v ∈ T . Isso nos dá N funções reais que claramente satisfazem eα (eβ ) = δβα ; resta mostrar que elas são lineares e que constituem uma base de T∗ . Exercı́cio 1.11 Verifique que as funções eα são, de fato, lineares. Para provar que constituem uma base, prosseguimos assim. Para qualquer g ∈ T ∗ , podemos definir N números reais gα por g(eα ) =: gα . Então, para qualquer v ∈ T , g(v) = g(v α eα ) = v α g(eα ) (pela linearidade de g) = v α gα = gα eα (v). Assim, para qualquer g ∈ T ∗ , temos g = gα eα , mostrando que {eα } gera T ∗ e resta a questão da independência linear de {eα }. Isso se responde notando que uma relação xα eα = 0, onde xα ∈ R e 0 é o funcional zero, implica que 0 = xα eα (eβ ) = xα δβα = xβ , para todo β. Do exposto, vemos que, dada uma base {eα } de T , as componentes gα de g ∈ T ∗ relativamente à base dual {eα } são dadas por gα = g(eα ). 1.1.2.3 Lei de transformação das componentes Uma mudança de base (1.11) em T induz uma mudança da base dual. Denotemos o dual da 0 0 0 0 0 base com plica {eα0 } por eα , de modo que, por definição, eα (eβ 0 ) = δβα0 , e eα = Yβα eβ , para 1.2. ÁLGEBRA MULTILINEAR 15 0 alguns Yβα . Então, 0 0 0 δβα0 = eα (eβ 0 ) = Yγα eγ (Xβµ0 eµ ) 0 = Yγα Xβµ0 eγ (eµ ) (pela linearidade dos eγ ) 0 0 = Yγα Xβµ0 δµγ = Yγα Xβγ0 . 0 0 o que quer dizer Yγα = Xγα . Exercı́cio 1.12 Prove essa última afirmação. Sendo assim, mediante uma mudança de base de T dada por (1.11), as bases duais de T ∗ se transformam como 0 0 0 eα = Xβα eβ , eα = Xβα0 eβ . (1.15) Mostra-se de imediato que as componentes de g ∈ T ∗ , relativamente às bases duais se transformam como 0 gα0 = Xαβ0 gβ , gα = Xαβ gβ 0 . (1.16) Exercı́cio 1.13 Prove isso. 0 Então, a mesma matriz [Xβα ] e sua inversa [Xβα0 ] estão envolvidas, mas os seus papéis relativamente aos vetores de base e às componentes estão trocados. Dado T e uma base sua {eα }, acabamos de ver como construir o seu dual T∗ com base dual {eα } satisfazendo eα (eβ ) = δβα . Podemos aplicar esse processo novamente para chegar no dual T∗∗ de T∗ , com base dual {f α }, digamos, satisfazendo fα (eβ ) = δαβ , e os vetores h ∈ T ∗∗ podem ser expressos em termos de componentes como h = hα fα . Sob uma mudança de base de T, as 0 0 componentes de vetores em T se transformama de acordo com v α = Xβα v β . Isso induz uma mudança da base dual de T∗ , sob a qual as componentes de vetores em T ∗ se transformam de acordo com gα0 = Xαβ0 gβ . Por sua vez, isso induz uma mudança de base de T∗∗ , sob a qual vê-se 0 0 prontamente que as componentes de vetores em T ∗∗ se transformam de acordo com hα = Xβα hβ (porque a inversa da inversa de uma matriz é a própria matriz). Ou seja, as componentes de vetores em T ∗∗ se transformam exatamente da mesma maneira que as componentes de vetores em T . Isso significa que, se estabelecermos uma correspondência biunı́voca entre os vetores de T e de T ∗∗ , fazendo com que v α eα em T corresponda a v α fα em T ∗∗ , onde {fα } é o dual do dual de {eα }, então essa correspondência será independente de base. Exercı́cio 1.14 Convença-se disso! Uma correspondência biunı́voca independente de base entre dois espaços vetoriais é chamada um isomorfismo natural e, naturalmente, espaços vetoriais naturalmente isomorfos são geralmente identificados, identificando-se os vetores correspondentes. Conseqüentemente, nós identificaremos T∗∗ e T. 1.2 Álgebra multilinear Referências: [5, 11, 7, 10, 14, 21, 15, 19, 2] 16 1.2.1 CAPÍTULO 1. ÁLGEBRA TENSORIAL Produtos tensoriais; o espaço Trs Dado um espaço vetorial T, vimos como criar um novo espaço vetorial, a saber o seu dual T∗ , mas o processo acaba aı́ (ao identificarmos T∗∗ com T). Entretanto, é possı́vel gerar um novo espaço vetorial a partir de dois espaços vetoriais, formando o que se chama o seu produto tensorial. Como preliminar para isso, precisamos definir funcionais bilineares em um par de espaços vetoriais. Sejam T e U dois espaços vetoriais reais de dimensão finita. O produto cartesiano T × U é o conjunto de todos os pares (ordenados) da forma (v, w), onde v ∈ T e w ∈ U . Um funcional bilinear f sobre T × U é uma função real f : T × U → R, que é bilinear, ou seja, satisfaz f (au + bv, w) = af (u, w) + bf (v, w), para todos a, b ∈ R, u, v ∈ T e w ∈ U, e f (v, cw + ex) = cf (v, w) + ef (v, x), para todos c, e ∈ R, v ∈ T e w, x ∈ U. Com definições de adição, multiplicação por escalar, a função zero e inversas análogas às dadas para funcionais lineares na Subseção 1.1.2, é imediato demonstrar que o conjunto de funcionais bilineares sobre T × U é um espaço vetorial e, de agora em diante, usaremos tipo em negrito para os funcionais bilineares. Exercı́cio 1.15 Demonstre o dito acima. Estamos agora em condições de definir o produto tensorial T ⊗ U de T e U como o espaço vetorial de todos os funcionais bilineares sobre T ∗ × U ∗ . Note que, nessa definição, usamos os conjuntos de base T ∗ e U ∗ dos espaços duais, e não os próprios T e U . Surge, naturalmente, a questão da dimensão de T ⊗ U. Ela é, de fato, N M , onde N e M são as dimensões de T e U, respectivamente; provamos isso mostrando que, a partir de bases dadas de T e U, podemos definir N M elementos de T ⊗ U, que constituem uma base para ele. Seja {eα }, α = 1, . . . , N e {f a }, a = 1, . . . , M , bases de T∗ e U∗ , duais às bases {eα } e {fa } de T e U, respectivamente. (Note que usamos dois alfabetos diferentes para os sufixos que possuem domı́nios diferentes.) Definamos N M funções eαa : T ∗ × U ∗ → R como eαa (g, h) = gα ha , (1.17) onde gα são as componentes de g ∈ T ∗ relativamente a {eα } e ha as de h ∈ U ∗ relativamente a {f a }. Em particular, eαa (eβ , f b ) = δαβ δab . (1.18) É simples mostrar que os eαa são bilineares e pertencem, assim, a T ⊗ U. Para mostrar que constituem uma base devemos mostrar que geram T ⊗ U e que são linearmente independentes. Exercı́cio 1.16 Seguindo um desenvolvimento análogo ao da Subsubseção 1.1.2.2, mostre que {eαa } (i) gera T ⊗ U, e (ii) é linearmente independente. 1.2. ÁLGEBRA MULTILINEAR 17 Com o exercı́cio acima, demonstramos, pois, que a dimensão de T ⊗ U é N M , o produto das dimensões de T e U, e que, de uma maneira natural, bases {eα } de T e {fa } de U induzem uma base {eαa } de T ⊗ U, sendo as componentes τ αa de qualquer τ ∈ T ⊗ U, relativamente a essa base, dadas, em termos das bases duais, por τ αa =τ (eα , f a ). Investiguemos, agora, como as componentes τ αa e os vetores de base eαa se transformam quando novas bases são introduzidas em T e U. Suponhamos que as bases de T e U se transformem de acordo com eα0 = Xαβ0 eβ , fa0 = Yab0 fb . (1.19) Isso induz uma nova base {eα0 a0 } de T ⊗ U, e, para quaisquer (g, h) ∈ T ∗ × U ∗ , eα0 a0 (g, h) = gα0 ha0 = Xαβ0 Yab0 gβ hb = Xαβ0 Yab0 eβb (g, h). Sendo assim, eα0 a0 = Xαβ0 Yab0 eβb . (1.20) Analogamente, para as componentes, obtemos 0 0 0 0 τ α a = Xβα Yba τ βb . (1.21) Exercı́cio 1.17 Prove isso. Um vetor que é um elemento do produto tensorial de dois espaços (ou mais, vide abaixo) é chamado um tensor. O produto tensorial, conforme definido acima, é um produto de espaçõs. É possı́vel definir um tensor que é o produto tensorial g ⊗ h de vetores individuais g ∈ T e h ∈ U, exigindo-se que g ⊗ h = g α ha eαa , (1.22) onde g α e ha são as componentes de g e h relativamente a bases de T e U que induzem a base {eαa } de T ⊗ U. Embora essa definição seja dada por intermédio de bases, ela é, de fato, independente de base. Exercı́cio 1.18 Prove isso. Em particular temos eα ⊗ fa = eαa . (1.23) O produto tensorial g ⊗ h pertence a T ⊗ U, mas nem todos os tensores de T ⊗ U são dessa forma. Aqueles que o são chamam-se de tensores decomponı́veis. Tendo estabelecido a iéia básica do produto tensorial de dois espaços vetoriais, podemos estendê-la para três ou mais espaços. No entanto, dados três espaços T, U, V, podemos formar o seu produto tensorial de duas maneiras: (T⊗U)⊗V ou T⊗(U⊗V). Esses dois espaços claramente possuem a mesma dimensão e são, de fato, naturalmente isomorfos, no sentido de que podemos estabelecer uma correspondência bijetiva, independente de base, entre os seus elementos, assim como fizemos com T e T ∗∗ . Isso é feito escolhendo-se bases {eα }, {fa } e {gA } em T, U e V, respectivamente (três domı́nios, portanto três “alfabetos”), deixando τ αaA eα ⊗ (fa ⊗ gA ) corresponder a (τ αaA eα ⊗ fa ) ⊗ gA , e mostrando, então, que essa correspondência é independente de base. Devido a esse isomorfismo natural, identificamos esses espaços, e a notação T ⊗ U ⊗ V não é ambı́gua. 18 CAPÍTULO 1. ÁLGEBRA TENSORIAL Exercı́cio 1.19 Prove a existência do isomorfismo natural mencionado. Uma maneira alternativa de definir T ⊗ U ⊗ V é como o espaço de funcionais trilineares sobre T ∗ × U ∗ × V ∗ . Isso leva a um espaço que é naturalmente isomorfo àqueles do parágrafo precedente, e todos os três são identificados. Exercı́cio 1.20 Convença-se disso. Existem outros isomorfismos naturais, por exemplo entre T ⊗ U e U ⊗ T, ou entre (T ⊗ U)∗ e T∗ ⊗ U∗ , e ,sempre que eles existirem, os espaços são identificados. Exercı́cio 1.21 Convença-se disso. De agora em diante, restringir-nos-emos a espaços de produto tensorial obtidos tomando-se produtos tensoriais repetidos de um único espaço vetorial T e o seu dual T∗ . Introduzimos a seguinte notação: r vezes z }| { T ⊗ T ⊗ · · · ⊗ T =: Tr = T r (esta última notação, por abuso), s vezes }| { z T∗ ⊗ T∗ ⊗ · · · ⊗ T∗ =: Ts = Ts (esta última notação, por abuso), T r ⊗ Ts =: Tsr . Em particular T = T 1 e T ∗ = T1 . Um elemento de T r é um tensor contravariante de posto r, um elemento de Ts é um tensor covariante de posto s, ao passo que um elemento de Tsr é um tensor misto de posto (r, s). Note que esta nomenclatura rotula vetores contravariantes e covariantes como tensores de posto (1, 0) e (0, 1) respectivamente. Escalares podem ser incluı́dos no esquema geral considerando-os como tensores de posto (0, 0). Uma base {eα } de T (de dimensão N ) induz uma base dual {eα } de T ∗ e essas, juntas, r r r+s s induzem uma base {eβα11···β componentes unı́vocas ···αr } de Ts . Cada tensor τ ∈ Ts tem N relativamente à base induzida: s (1.24) τ = τ α1 ···αr β1 ···βs eβα11···β ···αr . Uma mudança de base de T induz uma mudança de base de Tsr , sob a qual as componentes se transformam de acordo com: 0 0 0 0 ···µr τ α1 ···αr β10 ···βs0 = Xµα11 · · · Xµαrr Xβν10 · · · Xβνss0 τνµ11···ν . s 1 (1.25) Por exemplo, para um tensor τ ∈ T21 , 0 0 τ α β 0 γ 0 = Xρα Xβσ0 Xγλ0 τ ρ σλ . É comum definir-se os tensores como objetos tendo componentes que se transformam de acordo com as equações (1.25). Esta maneira de se encarar tensores se justifica notando-se que se a cada base de T estão associados N r+s números reais, que, sob uma mudança de base dada pelas equações (1.11), se transformam como (1.25), então esses números são as componentes de um tensor τ de posto (r, s), conforme nós definimos tal objeto; simplesmente fazemos s τ = τ α1 ···αr β1 ···βs eαβ11···β ···αr . 1.2. ÁLGEBRA MULTILINEAR 1.2.2 19 Tensores relativos Mostraremos agora que existem ainda objetos geométricos mais gerais que os tensores acima vistos, cujas componentes se transformam, nao simplesmente com fatores da matriz de transformação de base, mas, além disso, com um fator dependente do determinante de tal matriz. Para tanto, relembraremos, na Subsubseção seguinte, algo sobre determinantes. 1.2.2.1 Determinantes, sı́mbolos de Levi-Civita, deltas de Kronecker generalizados Seja uma matriz quadrada N ×N [Z α β ], onde, como usual, suporemos que o superı́ndice α indica linha e o subı́ndice β indica coluna, ou seja, Z 11 Z 12 · · · Z 1N Z 21 Z 22 · · · Z 2N α [Z β = .. (1.26) .. .. . . . . . . . ZN 1 ZN 2 · · · ZN N O determinante dessa matriz, det[Z] ou, simplesmente, Z, pode ser definido através da regra geral de Cramer ou, de uma maneira mais geométrica, através do estudo da noção de volume num espaço N -dimensional. Aqui queremos que você se convença que ele também pode ser escrito como: det[Z] = ²α1 α2 ...αN Z α1 1 Z α2 2 · · · Z αN N , = ²α1 α2 ...αN Z 1 α1 Z 2 α2 · · · Z N αN , (1.27) onde introduzimos os chamados sı́mbolos de Levi-Civita: 1, se (α1 , α2 , . . . , αN ) for permutação par de (1, 2, . . . , N ); −1, se (α1 , α2 , . . . , αN ) for permutação ı́mpar de (1, 2, . . . , N ); ²α1 α2 ...αN := ²α1 α2 ...αN := 0, nos outros casos, ou seja, se houver ı́ndices repetidos. (1.28) Observações: 1. Note que seguimos a convenção de ²12...N = ²12...N = 1 e não aquela de ²12...N = −²12...N = 1, às vezes adotada por alguns autores. 2. Note que, com a equação (1.27), de fato, fica óvio que, por troca de quaisquer duas filas (linhas ou colunas), o determinante muda de sinal, devido à anti-simetria dos sı́mbolos de Levi-Civita 3. Como conseqüência do item acima, ou diretamente da própria equação (1.27), o determinante de uma matriz com duas filas proporcionais resulta ser nulo. 4. Para ajudar ainda mais na aceitação da expressão (1.27) para o determinante, lembre-se de (ou prove agora), do cálculo vetorial básico, a expressão para (i) o produto vetorial em termos de componentes cartesianas: x̂ ŷ ẑ A × B = det Ax Ay Az Bx By Bz = ²ijk Ai Bj êk . 20 CAPÍTULO 1. ÁLGEBRA TENSORIAL ou (ii) o produto misto, também em termos de componentes cartesianas: Ax Ay Az A · (B × C) = det Bx By Bz , Cx Cy Cz o que também faz uma conexão com a idéia, acima mencionada, de determinante como uma medida de volume (no caso, do paralelepı́pedo com “arestas” A, B e C). Tendo em conta a anti-simetria dos sı́mbolos de Levi-Civita, podemos ainda reescrever a (1.27) como ²α1 α2 ...αN Z = ²β1 β2 ...βN Z α1 β1 Z α2 β2 . . . Z αN βN , (1.29) ou ²α1 α2 ...αN Z = ²β1 β2 ...βN Z β1 α1 Z β2 α2 . . . Z βN αN , (1.30) formas que serão úteis para a subsubseção seguinte. Exercı́cio 1.22 Convença-se da validade de tais fórmulas. Seria interessante se pudéssemos ter uma expressão final para o determinante, Z, isolado em um membro dessa expressão, em função dos sı́mbolos de Levi-Civita e dos elementos da matriz. Para tanto, convém introduzirmos novos objetos, que são os tensores deltas de Kronecker ···αr generalizados, δβα11βα22···β , definidos por r ···αr δβα11βα22···β := det r δβα11 δβα21 δβα12 δβα22 .. . ··· δβα1r δβα2r · · · δβαr1 · · · δβαr2 ... ··· · · · δβαrr (1.31) Obviamente, o delta de Kronecker (usual) é um caso particular dessa definição, correspondente ao valor r = 1. Com r = 2 em (1.31), vemos que αβ δµν = δµα δνβ − δνα δµβ . ···αr é a soma de r! termos, cada um dos quais é o produto de r deltas de Kronecker Em geral, δβα11βα22···β r (usuais). Como, conforme já vimos, o delta de Kronecker (usual) é um tensor do tipo (1,1), segue imediatamente que o delta de Kronecker generalizado é um tensor do tipo (r, r). Da sua própria definição é fácil mostrar que: (i) o delta de Kronecker generalizado é anti-simétrico em todos os super-ı́ndices e todos os sub-ı́ndices; (ii) se r > N , onde N é a dimensão do espaço, então ···αr ≡ 0. δβα11βα22···β r Exercı́cio 1.23 Convença-se dessas afirmações. Queremos agora estabelecer uma relação ou identidade fundamental entre ²α1 α2 ···αN , ²β1 β2 ···βN e ···αN δβα11βα22···β : N ···αN ²α1 α2 ···αN ²β1 β2 ···βN = δβα11βα22···β . N (1.32) 1.2. ÁLGEBRA MULTILINEAR 21 Para tanto, consideremos a grandeza ···αN ···αN Aαβ11βα22···β := ²β1 β2 ···βN ²α1 α2 ···αN − δβα11βα22···β , N N (1.33) que é obviamente anti-simétrica nos subı́ndices e nos super-ı́ndices. Conseqüentemente, as únicas ···αN possı́veis componentes não nulas de Aαβ11βα22···β ocorrerão quando (α1 , α2 , . . . , αN ) e (β1 , β2 , . . . , βN ) N forem permutações (sem repetição) de (1, 2, . . . , N ). No entanto, de (1.28), (1.33) e (1.31), vê-se facilmente que A12···N 12···N = 0. Logo, acabamos de mostrar que ···αN Aαβ11βα22···β ≡ 0, N o que, por (1.33), estabelece (1.32). Exercı́cio 1.24 Mostre, a partir de (1.32), que, genericamente, 1 α1 ...αN −j γ1 ...γj α ...α −j ² ²β1 ...βN −j γ1 ...γj = δβ11...βNN−j . j! (1.34) Daı́ ou da própria (1.32) vem, em particular, que: ²α1 α2 ···αN ²α1 α2 ···αN = N ! Exercı́cio 1.25 Prove isso! Finalmente, podemos, pois, ter a expressão que procurávamos: Z := det[Z µ ν ] = 1 α1 α2 ···αN ²β1 β2 ···βN Z1β α1 Z β2 α2 · · · Z βN αN . ² N! (1.35) Exercı́cio 1.26 Prove-a! 1.2.2.2 Tensores relativos Consideremos, agora, como caso particular da matriz [Z α β ], tratada na subsubseção anterior, uma matriz mudança de base, num certo espaço vetorial: eα0 = Xαβ0 eβ . (1.36) Nessa situação, a expressão para o determinante de [Xβα ], conforme (1.29) ou (1.30), mostra que, se postularmos, como é naturalı́ssimo, que, independentemente de base, os valores das 0 0 0 componentes dos sı́mbolos de Levi-Civita são os mesmos (²α1 α2 ···αN = ²α1 α2 ···αN e ²α01 α02 ···α0N = ²α1 α2 ···αN ), então concluı́mos que as leis de transformação para esses sı́mbolos (invariantes por definição) passam a ser: 0 0 α0 0 α0 α0 ²α1 α2 ···αN = X −1 Xβ11 Xβ22 · · · XβNN e ²α01 α02 ···α0N = XXαβ01 Xαβ02 · · · Xαβ0N ²β1 β2 ···βN . 1 2 N 22 CAPÍTULO 1. ÁLGEBRA TENSORIAL Tais leis são iguais àquelas para tensores, exceto pela presença de um fator potência do determinante da matriz mudança de base. Isso sugere a importância de tratarmos de objetos geométricos cujas componentes se transformem de uma maneira mais geral. Sendo assim, fugindo um pouco à nossa apresentação geométrica ou independente de base atá aqui, diremos que um conjunto de N r+s números Λα1 ···αr β1 ···βs constituem as componentes de um tensor relativo de posto (r, s) e peso w, se, sob uma mudança de base (1.36), esses números (chamados componentes do tensor relativo) se transformarem de acordo com 0 0 0 0 Λα1 ···αr β10 ···βs0 = X −w Xµα11 · · · Xµαrr Xβν10 · · · Xβνss0 Λµ1 ···µr ν1 ···νs . 1 (1.37) Note o sinal no expoente do determinante X. Podemos observar, então que: 1. ²α1 ···αN e ²α1 ···αN constituem as componentes de tensores relativos de peso 1 e -1, respectivamente. 2. os tensores de que tratamos até antes dessa subsubseção são tensores relativos de peso 0; às vezes, eles são chamados tensores absolutos. 1.2.3 Operações e resultados adicionais 1.2.3.1 Contração Até aqui, temos três operações básicas com tensores (absolutos ou relativos): adição de tensores de mesmo posto, multiplicação de um tensor por um escalar e formação do produto tensorial. Existe uma quarta operação básica com tensores, que é mais facilmente explicada em termos de componentes. Esta operação é a contração, que associa N r+s−2 números (componentes) Rα1 ···αp−1 αp+1 ···αr β1 ···βq−1 βq+1 ···βs com N r+s números (componentes) Qα1 ···αr β1 ···βs , definidos por Rα1 ···αp−1 αp+1 ···αr β1 ···βq−1 βq+1 ···βs := Qα1 ···αp−1 γαp+1 ···αr β1 ···βq−1 γβq+1 ···βs . (1.38) Ou seja, fazendo-se um sub-ı́ndice igual a um supre-ı́ndice e somando, como a convenção de soma implica. É claro que existem rs maneiras de fazer isso, cada uma das quais leva a uma contração do conjunto original de números. O significado especial que essa operação tem para tensores (absolutos ou relativos) é que, se os números originais forem as componentes de um tensor relativo de posto (r, s) e peso w, então suas contrações são as componentes de um tensor relativo de posto (r − 1, s − 1) e mesmo peso, w. Exercı́cio 1.27 Prove isso! 1.2.3.2 Simetrização e anti-simetrização Dada uma matriz [Mαβ ], podemos expressá-la sempre como a soma de duas outras matrizes, [M(αβ) ] e [M[αβ] ], tal que (1.39) Mαβ = M(αβ) + M[αβ] , onde 1 (Mαβ + Mβα ) 2 1 (Mαβ − Mβα ). := 2 M(αβ) := (1.40) M[αβ] (1.41) 1.2. ÁLGEBRA MULTILINEAR 23 A matriz [M(αβ) ] é a chamada parte simétrica de [Mαβ ] e o processo mostrado em (1.40) é chamado simetrização de [Mαβ ], ao passo que a matriz [M[αβ] ] é a chamada parte anti-simétrica de [Mαβ ] e o processo indicado em (1.41) é chamado anti-simetrização de [Mαβ ]; tal terminologia justifica-se pelo fato de que M(αβ) = M(βα) e M[αβ] = −M[βα] . Além disso, se, de fato, Mαβ constituı́ rem as componentes de um tensor de posto (2, 0), assim também o constituem M(αβ) e M[αβ] , diferentemente de M α β . Exercı́cio 1.28 Prove isso! No caso mais geral, a componente M(α1 ···αr ) da chamada parte (totalmente) simétrica de Mα1 ···αr é obtida somando-se todas as componentes obtidas por permutações dos ı́ndices (α1 , . . . , αr ) e dividindo-se o resultado por r!; ou seja, no caso de três ı́ndices, terı́amos: M(αβγ) := 1 (Mαβγ + Mαγβ + Mβαγ + Mβγα + Mγαβ + Mγβα ) . 3! Algo análogo vale para a chamada parte (totalmente) anti-simétrica, mas, aqui, as permutações pares dos ı́ndices (α1 , . . . , αr ) são somadas, ao passo que as permutações ı́mpares são subtraı́das, ou seja: 1 M[αβγ] := (Mαβγ − Mαγβ − Mβαγ + Mβγα + Mγαβ − Mγβα ) . 3! Naturalmente, tudo isso pode ser estendido para “ı́ndices covariantes”, presenvando sempre o caráter tensorial dos objetos resultantes (as partes simétrica e anti-simétrica). Já a simetrização ou anti-simetrização em ı́ndices em nı́veis distintos não gera tensores. Exercı́cio 1.29 Prove isso! 1.2.3.3 Regras do quociente As regras do quociente permitem estabelecer diretamente o caráter tensorial de um objeto dado que o produto dele com um tensor (relativo) arbitrário gera sempre um tensor (relativo). Raciocinemos através de um exemplo concreto, em termos de componentes, de novo. Sejam dados, numa certa base, um conjunto de números Y α βγ , que, quando multiplicados pelas componentes T γµ de um tensor arbitrário, saibamos fornecer sempre um tensor C α β µ ; ou seja, (1.42) C α β µ = Y α βγ T γµ é um tensor para qualquer tensor T γµ . Então, a regra do quociente, nesse caso, afirma que Y α βγ constituirão as componentes de um tensor também, de posto (1,2), conforme sugerido pela sua estrutura de ı́ndices. Para provar isso, usamos a lei de transformação caracterı́stica das componentes de um tensor. Imaginamos que, numa nova base, ainda vale a equação (1.42), como que por definição das novas 24 CAPÍTULO 1. ÁLGEBRA TENSORIAL componentes do objeto Y, cujo caráter queremos descobrir. Então, 0 0 C α β0 µ 0 0 0 0 0 0 0 0 0 0 = Y α β0γ0 T γ µ w w w w (pois C e T são tensores) w Ä 0 Xαα Xββ0 Xµµ C α β µ = Y α β 0 γ 0 Xγγ Xµµ T γµ w w w w substituindo (1.42) w Ä 0 0 Xαα Xββ0 Xµµ Y α βγ T γµ = w w w w w Ä ³ 0 ´ 0 0 0 Y α β 0 γ 0 Xγγ − Xαα Xββ0 Y α βγ Xµµ = w w w w w Ä 0 Y α β 0 γ 0 Xγγ 0 0 Y α β 0 γ 0 Xγγ Xµµ T γµ já que T é arbitrário 0 multiplicando por Xµµ0 0 = Xαα Xββ0 Y α βγ w w w w multiplicando por X γ0 σ w Ä 0 Y α β 0 σ0 = Xαα Xββ0 Xσγ0 Y α βγ , que é justamente o que querı́amos demonstrar. A própria expressão “regra do quociente” se explica pela forma como Y α βγ se apresenta em (1.42). Exercı́cio 1.30 Como voce adaptaria o enunciado de tal regra ao caso de tensores relativos? Exercı́cio 1.31 Se, para um tensor simétrico, mas, fora isso, arbitrário, de componentes S αβ , o resultado C α = Y α βγ S βγ é sempre um vetor contravariante, o que você pode deduzir sobre o caráter de Y α βγ ou de alguma(s) de suas partes? Referências Bibliográficas [1] R. Adler, M. Bazin, and M. Schiffer. Introduction to general relativity. McGraw-Hill Kogakusha, Tokyo, Japan, second edition, 1975. [2] J. L. Synge an A. Schild. Tensor calculus. Dover, New York, USA, 1978. [3] J. L. Anderson. Principles of relativity physics. Academic Press, New York, USA, 1967. [4] P. Bamberg and S. Sternberg. A course in mathematics for students of physics. Cambridge University Press, Cambridge, England, 1988. [5] R. L. Bishop and S. I. Goldberg. Einstein’s theory of relativity. Dover, New York, USA, 1980. [6] A. I. Borisenko and I. E. Tarapov. Vector and tensor analysisi with applications. Dover, New York, USA, 1979. [7] W. L. Burke. Applied differential geometry. Cambridge University Press, Cambridge, England, 1985. [8] M. Crampin and F. A. E. Pirani. Applicable differential geometry. Cambridge University Press, Cambridge, England, 1986. [9] R. d’Inverno. Introducing Einstein’s relativity. Oxford University Press, Oxford, England, 1992. [10] C. T. J. Dodson and T. Poston. Tensor geometry. The geometric viewpoint and its uses. Pitman, London, England, 1977. [11] J. Foster and J. D. Nightingale. A short course in general relativity. Longman, London, England, first edition, 1979. [12] J. Foster and J. D. Nightingale. A short course in general relativity. Springer-Verlag, New York, USA, second edition, 1995. [13] L. P. Hughston and K. P. Tod. An introduction to general relativity. Cambridge University Press, Cambridge, England, 1990. [14] A. Lichnerowicz. Elements of tensor calculus. Methuen, London, England, 1962. [15] D. Lovelock and H. Rund. Tensors, differential forms, and variational principles. John Wiley & Sons, Chichester, England, 1975. 31 32 REFERÊNCIAS BIBLIOGRÁFICAS [16] L. Nachbin. Introdução à álgebra. McGraw-Hill do Brasil, Rio de Janeiro, Brasil, 1971. [17] C. Nash and S. Sen. Topology and geometry for physicists. Academic Press, New York, USA, 1983. [18] B. O’Neill. Semi-Riemannian geometry, with applications to relativity. Academic, New York, USA, 1983. [19] J. A. Schouten. Ricci-calculus. Springer, Berlin, Germany, 1954. [20] B. F. Schutz. Geometrical methods of mathematical physics. Cambridge University Press, Cambridge, England, 1980. [21] A. Trautman. Foundations and current problems of general relativity. In S. Deser and K. W. Ford, editors, Lectures on general relativity, Proceedings of the 1964 Brandeis Summer Institute in Theoretical Physics, Englewood Cliffs, USA, 1965. Prentice-Hall.