Document

Propaganda
Á LGEBRA L INEAR
Pedro Resende
Departamento de Matemática, Instituto Superior Técnico, Lisboa, Portugal
2010/2011
Capı́tulo 1
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
1. L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
2. G. Strang, Linear Algebra and Its Applications, 1988, 3a.
ed., Academic Press.
3. S. Lipschutz, Álgebra Linear, 1994, Schaum’s Outline
Series. McGraw-Hill.
4. T.M. Apostol, Cálculo, 1994, Vols. I e II. Reverté.
5. G. Strang, Introduction to Linear Algebra, 2003,
Wellesley–Cambridge Press.
6. H. Anton, C. Rorres, Elementary Linear Algebra —
Applications Version, 1994, John Wiley & Sons.
H OR ÁRIOS DE D ÚVIDAS
Serão afixados em breve na página da cadeira, na barra lateral
esquerda com o tı́tulo “Horários de Dúvidas”.
AVALIAÇ ÃO
T ESTE 1: Nas aulas da 5a semana (18–23/10), com 40
minutos de duração.
T ESTE 2: Sábado, 4/12/2010, com 50 minutos de duração.
T ESTE 3: Sábado, 8/1/2011, com 90 minutos de duração.
Os três testes são classificados com números inteiros de 0 a
20, respectivamente T1 , T2 e T3 . A classificação geral é o
número inteiro T de 0 a 20 que resulta de arredondar o valor
2T1 + 3T2 + 5T3
.
10
AVALIAÇ ÃO
P ROVAS DE RECUPERAÇ ÃO :
No dia 25/1/2011 haverá uma prova escrita de
recuperação, com duração máxima de 3 horas.
Os alunos que se apresentarem a esta prova
receberão um enunciado correspondente a toda a
matéria, dividido em duas partes.
As classificações da primeira parte e da segunda
parte são números inteiros R12 e R3 ,
respectivamente, ambos de 0 a 20, havendo duas
opções de recuperação:
AVALIAÇ ÃO
R ECUPERAÇ ÃO PARCIAL : O aluno entrega a prova ao fim de um
tempo máximo igual a 90 minutos e assinala qual
das duas partes deve ser classificada:
I Se assinalar a primeira parte, no cálculo de T
o valor 2T1 + 3T2 é substituı́do por 5R12 , se
este for superior;
I Se assinalar a segunda parte, no cálculo de T
o valor T3 é substituı́do por R3 , se este for
superior.
R ECUPERAÇ ÃO TOTAL : O aluno assinala ambas as partes e
ambas são classificadas. O valor T é substituı́do
pela média arredondada de R12 e R3 , se esta for
superior.
AVALIAÇ ÃO
I NSCRIÇ ÕES NAS PROVAS ESCRITAS :
Haverá, para cada prova escrita, um perı́odo de
inscrição (no fénix), o qual decorrerá durante a
semana da prova (que será sempre num sábado)
desde as 8:00 de 2a feira até ao meio dia da 4a
feira.
Todos os alunos que pretendem fazer uma prova
escrita devem inscrever-se, a fim de que seja feita
uma previsão correcta do número de salas
necessárias e assim não venham a faltar lugares
para todos.
A inscrição não é vinculativa: se um aluno se
inscrever e por qualquer razão tiver de faltar à
prova não sofre qualquer penalização. Mas, pelo
contrário, se um aluno não se inscrever poderá
ver-se impedido de realizar a prova.
AVALIAÇ ÃO
AVALIAÇ ÃO CONT ÍNUA : Durante o semestre será avaliada a
resolução de problemas pelos alunos nas aulas
de problemas. A classificação final desta
componente é um número inteiro P ∈ {0, 1, 2} que
contribui com uma bonificação para a nota global
N de acordo com a tabela seguinte:
I Se T ≤ 9 então N = T + P;
I Se 10 ≤ T ≤ 13 então N = T + dP/2e;
I Se 14 ≤ T ≤ 15 então N = T + bP/2c;
I Se 16 ≤ T então N = T.
AVALIAÇ ÃO
P ROVA ORAL : Se N ≥ 18 o aluno pode fazer uma prova oral
(facultativa) em data a combinar oportunamente
com o responsável da cadeira. A classificação da
prova oral é um número inteiro de 0 a 20.
A PROVAÇ ÃO E CLASSIFICAÇ ÃO FINAL : Se tiver havido prova
oral, a classificação final F será a da prova oral.
Caso contrário a classificação final será
F = min{17, N}. Há aprovação na cadeira se e só
se T3 ≥ 8 e F ≥ 10.
I N ÍCIO DAS AULAS
As aulas iniciam-se pontualmente 10 minutos depois da hora
indicada no horário.
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
S ISTEMAS DE EQUAÇ ÕES LINEARES
E XPRESS ÕES LINEARES :
I x + y − 3z
I 5z − 2x
I 2y
E XPRESS ÕES N ÃO LINEARES :
I 5x2 + y
I xyz
I 3


2y + 2z = 6
x + 2y − z = 1
S ISTEMA DE EQUAÇ ÕES LINEARES :

x+y+z = 4
I
Método da substituição
I
Método da redução
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS
F IGURA : O alemão Carl Friedrich Gauss (30/04/1777 – 23/02/1855),
considerado por muitos um dos mais geniais matemáticos de
sempre.
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS
2y + 2z = 6
x + 2y − z = 1
x + y + z = 4
x + 2y −
z
= 1
2y + 2z = 6
x +
y
+
z
= 4
x +
2y
−
z
= 1
2y
+ 2z = 6
−y + 2z = 3
(Permutámos a primeira e a
segunda equações.)
(Subtraı́mos
a
primeira
equação da terceira.)
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS
x +
2y
−
z
= 1
y
+
z
= 3
(Dividimos por 2 ambos os lados da segunda equação.)
−y + 2z = 3
x + 2y −
z
= 1
+
z
= 3
y
(Adicionámos a segunda
equação à terceira.)
3z = 6
= 1
x
y
= 1
(Aplicámos o
substituição.)
método
da
z = 2
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES
2y + 2z = 6
x + 2y − z = 1
x + y + z = 4
0x + 2y +
2z = 6
1x + 2y + (−1)z = 1
1x + 1y +
1z = 4

I

0 2
2 6
 1 2 −1 1 
1 1
1 4
Este quadro designa-se por matriz.
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES
2y + 2z = 6
x + 2y − z = 1
x + y + z = 4


0 2
2 6
Matriz aumentada do sistema:  1 2 −1 1 
1 1
1 4


0 2
2
Matriz dos coeficientes do sistema:  1 2 −1 
1 1
1
 
6
Matriz dos termos independentes do sistema:  1 
4
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES

0 2
2
 1 2 −1
1 1
1

 
6
1 2 −1
1 → 0 2
2
4
1 1
1
 
1
1
2 −1
6 → 0
2
2
4
0 −1
2
 
1
2 −1
1
1
1
1
3 → 0
→ 0
0 −1
2
3
0

 x + 2y − z
y + z
→

3z
2 −1
1
1
0
3
= 1
= 3
= 6

1
3 
6

1
6 
3
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES
1. Podem permutar-se linhas da matriz aumentada sem que
a solução do sistema se altere.
2. Pode adicionar-se a uma linha um múltiplo de outra linha
(distinta) sem que a solução do sistema se altere.
3. Pode multiplicar-se uma linha por um número diferente de
zero sem que a solução do sistema se altere.
N ÚMEROS COMPLEXOS
I
Os números que surgem nos sistemas de equações
lineares e nas correspondentes matrizes podem ser de
vários tipos.
I
Nesta disciplina vamos sobretudo considerar os números
racionais, os reais e os complexos.
I
Os números racionais são representados por fracções m/n
em que m e n são números inteiros.
I
Os números reais são definidos a partir dos racionais e
incluem números como π = 3, 141592654..., e = 2, 71828...,
etc., e há várias formas de os definir (uma será vista em
CDI-I).
I
Os números complexos são representados por pares de
números reais: o número (a, b) é usualmente representado
na forma z = a + ib, onde a é a parte real de z e b é a parte
imaginária de z.
N ÚMEROS COMPLEXOS
Podemos também representar o número complexo z = a + ib
geometricamente no plano de Argand, em que a parte real é
a abcissa e a parte imaginária é a ordenada (coordenadas
cartesianas):
N ÚMEROS COMPLEXOS
I
Soma, subtracção e multiplicação de números complexos:
(a + ib) + (c + id) = (a + c) + i(b + d)
(a + ib) − (c + id) = (a − c) + i(b − d)
(a + ib)(c + id) = (ac − bd) + i(ad + bc)
(Análogo a operações com polinómios a + bx e c + dx, onde
x é substituı́do por i e temos i2 = −1.)
I
Divisão de números complexos:
a + ib (a + ib)(c − id) ac + bd
bc − ad
=
= 2
+
i
.
c + id (c + id)(c − id)
c + d2
c2 + d2
I
w = c − id é o conjugado de w = c + id.
I
2
Na divis
√ ão usámos a igualdade ww = |w| , onde
|w| = c2 + d2 é o módulo de w.
N ÚMEROS COMPLEXOS
A representação do número complexo z = a + ib pode também
ser em coordenadas polares, com a = r cos θ e b = r sen θ
(r = |z|):
N ÚMEROS COMPLEXOS
Neste caso z é definido pela operação de exponenciação de
números complexos: z = reiθ (no ensino secundário era usual a
notação r cis θ , onde “cis” corresponde a “cos ...i sen”).
Multiplicação e divisão de números complexos em
coordenadas polares:
iθ1
iθ2
r1 e
r2 e
= (r1 r2 )ei(θ1 +θ2 )
iθ1
iθ2
r1 e
/ r2 e
= (r1 /r2 )ei(θ1 −θ2 )
N ÚMEROS COMPLEXOS
I
Os conjuntos dos números racionais, dos números reais e
dos números complexos denotam-se por Q, R e C,
respectivamente.
I
Munidos das operações algébricas de soma,
multiplicação, divisão, etc., têm a estrutura de um corpo
algébrico. (Voltaremos a ver esta noção mais à frente.)
I
O corpo C distingue-se de Q e de R pelo facto de ser
completo. Por outras palavras, verifica-se o Teorema
Fundamental da Álgebra:
Vamos rever o Teorema Fundamental da Álgebra:
T EOREMA
Qualquer polinómio com coeficientes complexos e grau
maior ou igual a 1 tem pelo menos uma raiz complexa.
C OROL ÁRIO
Para qualquer polinómio p(z) = a0 + a1 z + · · · an zn de coeficientes
complexos com n ≥ 1 existem z1 , . . . , zn ∈ C tais que
p(z) = an (z − z1 ) · · · (z − zn ) .
N OTA
z1 , . . . , zn são as raı́zes do polinómio.
Para cada i, o número de factores em que ocorre a raiz zi é a
multiplicidade dessa raiz.
Capı́tulo 2
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 1.2,1.5 e o inı́cio de 1.3.
R EVIS ÃO
2y + 2z = 6
x + 2y − z = 1
x + y + z = 4


0 2
2 6
Matriz aumentada do sistema:  1 2 −1 1 
1 1
1 4


0 2
2
Matriz dos coeficientes do sistema:  1 2 −1 
1 1
1
 
6
Matriz dos termos independentes do sistema:  1 
4
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES

0 2
2
 1 2 −1
1 1
1
 
1 2 −1
6
1 → 0 2
2
4
1 1
1

 
1
2 −1
1
6 → 0
2
2
4
0 −1
2
 
1
2 −1
1
1
1
1
3 → 0
→ 0
0 −1
2
3
0

 x + 2y − z
y + z
→

3z
2 −1
1
1
0
3
= 1
= 3
= 6
E NTRADAS DUMA MATRIZ

I

2 1
4
2
0 −10 
A= 6 1
−1 2 −10 −4


a11 a12 a13 a14
A =  a21 a22 a23 a24 
a31 a32 a33 a34
aij é a entrada da linha i e da coluna j.
I
a23 = 0, a34 = −4, etc.
I
Exemplo: linha 2 = [6 1 0 − 10]
 
1
Exemplo: coluna 2 =  1 
2
I
I
I

1
3 
6

1
6 
3
M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES
R EGRA DA PERMUTAÇ ÃO : Podem permutar-se linhas da matriz
aumentada sem que a solução do sistema se
altere.
R EGRA DA ELIMINAÇ ÃO : Pode adicionar-se a uma linha um
múltiplo de outra linha (distinta) sem que a
solução do sistema se altere.
R EGRA DA MULTIPLICAÇ ÃO : Pode multiplicar-se uma linha por
um número diferente de zero sem que a solução
do sistema se altere.
R EGRA DA ELIMINAÇ ÃO
2x + y + 4z =
2
6x + y
= −10
−x + 2y − 10z = −4

I

2 1
4
2
0 −10 
Matriz aumentada do sistema:  6 1
−1 2 −10 −4
Pivot = 2
I
Adicionar à segunda linha
I
I
6
− × (primeira linha) = [−6 − 3 − 12 − 6] :
2


2
1
4
2
 0 −2 −12 −16 
−1
2 −10 −4
R EGRA DA ELIMINAÇ ÃO

I

2
1
4
2
 0 −2 −12 −16 
−1
2 −10 −4
Pivot = 2
I
Adicionar à terceira linha
I
(−1)
1
−
× (primeira linha) = 1
2 1 :
2
2


2
1
4
2
 0 −2 −12 −16 
5
0
−8 −3
2
R EGRA DA ELIMINAÇ ÃO
I

2
1
4
2
 0 −2 −12 −16 
5
0
−8 −3
2
Segundo pivot = -2
I
Adicionar à terceira linha

I
I
I
5
(5/2)
−
× (segunda linha) = 0 −
− 15 − 20 :
(−2)
2


2
1
4
2
 0 −2 −12 −16 
0
0 −23 −23
O processo de eliminação terminou (o terceiro pivot teria
sido −23).
Um pivot é necessariamente diferente de zero!
E SBOÇO DE ALGORITMO ( INSUFICIENTE )
I
Seja A a matriz aumentada dum sistema.
I
Se a11 6= 0 escolhe-se a11 como pivot para obter uma nova
matriz B com b21 = b31 = . . . = 0.
I
Se b22 6= 0 escolher b22 como pivot para obter uma nova
matriz C com c32 = c42 = . . . = 0.
I
Se c33 6= 0 escolher c33 como pivot, etc.
I
Se alguma entrada que queremos usar como pivot for nula
podemos recorrer à regra da permutação para tentar obter
um pivot válido.
I
A regra da multiplicação é teoricamente desnecessária
mas serve para simplificar os cálculos (e às vezes para
minorar problemas numéricos com arredondamentos).
I
Um pivot não tem de ser uma entrada aij com i = j como
nos exemplos anteriores:

 

2 1
4
2
2 1
4
2
A =  0 0 −1 −10  →  0 0 −1 −10 
0 0
1 −4
0 0
0 −14
(A eliminação terminou e os pivots são 2, −1 e −14.)
I
Neste caso a regra da permutação não permite obter uma
matriz com um pivot na posição i = j = 2.
I
O objectivo da eliminação de Gauss é obter uma matriz na
forma de “escada de linhas”, como veremos de seguida.
D EFINIÇ ÃO
Seja A uma matriz com m linhas e n colunas. Para cada i seja
zi o número total de zeros consecutivos a contar da esquerda
na linha i (ou seja, o maior número em {0, . . . , n} tal que aij = 0
para qualquer j ∈ {0, . . . , zi }).
Diz-se que A tem a forma de escada de linhas, ou que é uma
matriz em escada de linhas, se para quaisquer i, k ∈ {1, . . . , m}
tais que i < k então:
I
se zi = n então zk = n e
I
se zi < n então zi < zk .
E XEMPLO
A matriz






0
0
0
0
0
2
0
0
0
0

1
4
2
0 −1 −10 

0
0 −14 

0
0
0 
0
0
0
está na forma de escada de linhas:
z1 = 1
z2 = 3
z3 = 4
z4 = 5 (= número de colunas)
z5 = 5
A LGORITMO
I
Seja A uma matriz. Se z1 ≤ zi para qualquer linha i então o
primeiro pivot é a1j com j = z1 + 1.
I
Em caso contrário, primeiro permuta-se a linha 1 com uma
linha i que tenha zi mı́nimo e só depois se escolhe o pivot
da primeira linha.
I
Aplica-se a regra da eliminação com o primeiro pivot a
todas as linhas por forma a obter uma matriz B.
I
Se z2 ≤ zi para qualquer linha i > 2 de B então o segundo
pivot é b2j com j = z2 + 1.
I
Em caso contrário, primeiro permuta-se a linha 2 de B com
uma linha i > 2 que tenha zi mı́nimo e só depois se
escolhe o pivot da segunda linha.
I
Assim por diante até obter uma matriz na forma de escada
de linhas.
E XEMPLO / C ARACTER ÍSTICA DE UMA MATRIZ

0
 1
A=
 1
1
 
 

2
2 6
1 2 −1 1
1
2 −1 1


2 −1 1 
2 6 
2
2 6 
→ 0 2
→ 0

1
1 4   1 1
1 4   0 −1
2 3 
1
1 1
1 1
1 1
0 −1
2 0

1
 0
→
 0
0
 
2 −1 1
1 2 −1
1

2
2 6 
2
6
→ 0 2
0
3 6   0 0
3
6
0
3 3
0 0
0 −3


=B

Há quatro pivots: diz-se então que a matriz B (e, conforme
veremos adiante, também a matriz A) tem caracterı́stica igual a
4 (numa matriz em escada de linhas a caracterı́stica é igual ao
número de linhas não nulas, ou seja, que têm pelo menos uma
entrada não nula).
R EVIS ÃO
Um vector de Rn é uma lista de n números reais a = (a1 , . . . , an ).
Vectores especiais e operações com vectores:
I
Vector nulo: 0 = (0, . . . , 0)
I
Soma: a + b = (a1 + b1 , . . . , an + bn )
I
Produto por um escalar: ab = (ab1 , . . . , abn )
Exemplos: em R2 a interpretação geométrica é a dos vectores
no plano: o vector nulo é a origem; a soma é definida pela
regra do paralelogramo; o produto por escalar altera o
comprimento e o sentido de um vector mas não a direcção.
Idém para R3 e vectores no espaço.
D EFINIÇ ÃO
Uma solução de um sistema de equações lineares em n
incógnitas x1 , . . . , xn é um vector
(a1 , . . . , an ) ∈ Rn
tal que todas as equações são verdadeiras se se substituir xi
por ai para cada i ∈ {1, . . . , n}.
Um sistema diz-se:
I
possı́vel se tiver pelo menos uma solução.
I
determinado se tiver exactamente uma solução.
I
indeterminado se tiver mais do que uma solução.
I
impossı́vel se não tiver nenhuma solução.
E XEMPLOS
Para as seguintes matrizes aumentadas (já na forma de
escada de linhas) os respectivos sistemas são:


1 2 −1
1
Impossı́vel — a carac 0 2
6 
2
 terı́stica da matriz aumenI 
 0 0
3
6  tada é superior à da matriz
−3
0 0
0
dos coeficientes.

 Determinado
(e
portanto
1 2 −1
1
 0 2
 possı́vel) com solução (1, 1, 2)
2
6
 — a caracterı́stica (de ambas as
I 
 0 0
6 
3
matrizes) é igual ao número de
0 0
0
0
incógnitas.


1 2 −1
1
 0 2
2
6 
 Indeterminado (e portanto possı́vel)
I 
 0 0
0
0 
0
0 0
0
S OLUÇ ÃO GERAL DE UM SISTEMA INDETERMINADO

1
 0

 0
0
2 −1
2
2
0
0
0
0
 
1
x + 2y − z = 1



2y + 2z = 6
6 
→
0  
0 = 0


0
0 = 0
A coluna da incógnita z (a terceira coluna) não tem nenhum
pivot e portanto o valor de z não fica determinado: podemos
considerar z uma incógnita livre e definir as outras incógnitas
em função de z, pelo método da substituição:
x + 2(−z + 3) − z = 1
x = 3z − 5
→
y = −z + 3
y = −z + 3
O conjunto-solução do sistema é
{(x, y, z) ∈ R3 | x = 3z − 5, y = −z + 3} .
D ESCRIÇ ÃO PARAM ÉTRICA DO CONJUNTO - SOLUÇ ÃO
O conjunto
{(x, y, z) ∈ R3 | x = 3z − 5, y = −z + 3}
é o conjunto dos vectores da forma
(3z−5, −z+3, z) = (3z, −z, z)+(−5, 3, 0) = z(3, −1, 1)+(−5, 3, 0) .
A incógnita livre z é um parâmetro (neste caso único) em
função do qual é definido o vector.

1
 0

 0
0
2 −1 2 3
2
2 0 2
0
0 2 2
0
0 0 0

1
6 

0 
0

x1 + 2x2 − x3 + 2x4 + 3x5



2x2 + 2x3
+ 2x5
→
+ 2x4 + 2x5



0
=
=
=
=
1
6
0
0
As incógnitas livres são x3 e x5 .
O grau de indeterminação é 2 = número de incógnitas livres =
número de incógnitas menos o número de pivots = número de
colunas da matriz dos coeficientes menos a caracterı́stica (de
ambas as matrizes).
(Nota: um sistema é determinado ⇐⇒ é possı́vel com grau de
indeterminação = 0.)

x1 + 2x2 − x3 + 2x4 + 3x5



2x2 + 2x3
+ 2x5
+ 2x4 + 2x5



0
=
=
=
=
1
6
0
0
O conjunto-solução é o conjunto dos vectores
(x1 , x2 , x3 , x4 , x5 ) ∈ R5 tais que
x1 = 3x3 + x5 − 11
x2 = −x3 − x5 + 6
x4 = −x5
Na forma paramétrica há dois parâmetros, x3 e x5 :
x1
x2
x
4
z
}|
{ z
}|
{
z}|{
(3x3 + x5 − 11, −x3 − x5 + 6, x3 , −x5 , x5 ) = x3 (3, −1, 1, 0, 0)
+ x5 (1, −1, 0, −1, 1)
+ (−11, 6, 0, 0, 0)
P ROPOSIÇ ÃO
Qualquer sistema indeterminado tem infinitas soluções.
Capı́tulo 3
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 1.3.
C OMPLEMENTO DA AULA PASSADA
D EFINIÇ ÃO
Um sistema diz-se homogéneo se os termos independentes
forem todos nulos, ou seja, se a matriz aumentada for da forma
seguinte:


a11 · · · a1n 0
 ..

..
..
 .
.
. 0 
am1 · · ·
amn 0
P ROPOSIÇ ÃO
Qualquer sistema homogéneo é completamente definido pela
matriz dos coeficientes e é um sistema possı́vel cujo
conjunto-solução contém o vector nulo. Se o sistema for
determinado então a (única) solução é o vector nulo.
C OMPLEMENTO DA AULA PASSADA
T EOREMA
Seja A uma matriz e B uma matriz em escada de linhas obtida
de A aplicando as três regras do método de eliminação de
Gauss por uma ordem arbitrária. Qualquer que seja a matriz B
assim obtida o número de pivots é sempre o mesmo.
D EFINIÇ ÃO
A caracterı́stica de uma matriz A é o número de pivots de
qualquer matriz em escada de linhas B obtida de A pelo
método de eliminação de Gauss.
M AIS TERMINOLOGIA PARA MATRIZES
I
I
I
I
I
I
Uma matriz com m linhas e n colunas


a11 · · · a1n

.. 
..
A =  ...
.
. 
am1 · · · amn
diz-se uma matriz m por n, ou uma matriz de dimensão
m × n, ou simplesmente uma matriz m × n.
Se m = n a matriz diz-se quadrada, caso contrário diz-se
rectangular.
Se a matriz for quadrada a sua diagonal principal é a
lista (a11 , . . . , ann ).
Se m = 1 diz-se que A é uma matriz linha.
Se n = 1 diz-se que A é uma matriz coluna.
O conjunto de todas as matrizes m × n denota-se por
Matm×n .
V ECTORES COMO MATRIZES COLUNA
Há uma correspondência evidente entre os vectores
x = (x1 , . . . , xn )
de Rn e as matrizes coluna de dimensão n × 1


x1
 .. 
X= .  .
xn
Por esta razão chamaremos também vectores coluna às
matrizes coluna e usaremos tanto a notação X de matriz ou a
notação x de vector, para este tipo de matrizes, consoante as
circunstâncias.
V ECTORES COMO MATRIZES COLUNA
S LOGAN
Nesta disciplina vamos usar a convenção
Rn = Matn×1 .
A notação de vector ou a notação de matriz serão escolhidas
em função das circunstâncias.
Em particular os números reais são identificados com as
matrizes 1 × 1:
R = Mat1×1 .
(Também poderia estabelecer-se uma correspondência entre
vectores e matrizes linha, como é óbvio, mas não adoptaremos
essa convenção.)
O PERAÇ ÕES COM MATRIZES
As operações de vectores de Rn (soma e produto por escalar)
podem ser definidas para matrizes mais gerais (desde que
tenham todas a mesma dimensão):
D EFINIÇ ÃO
Sejam A e B duas matrizes m × n e seja r ∈ R. Definem-se as
matrizes A + B e rA da forma seguinte:


a11 + b11 · · · a1n + b1n


..
..
..
A+B = 

.
.
.
am1 + bm1 · · ·

amn + bmn

ra11 · · · ra1n

.. 
..
rA =  ...
.
. 
ram1 · · · ramn
N OTAÇ ÕES ALTERNATIVAS
I
Usa-se por vezes a notação abreviada [aij ] para denotar a
matriz A. Com esta notação, a soma e o produto por
escalar de matrizes são definidos por
[aij ] + [bij ] = [aij + bij ]
r[aij ] = [raij ] .
I
Para qualquer expressão E que represente uma matriz,
por exemplo A + (B + 3C), a respectiva entrada da linha i e
da coluna j é usualmente denotada por (E )ij . Em particular
tem-se, portanto:
(A)ij = aij
(A + B)ij = aij + bij
(rA)ij = raij .
D EFINIÇ ÃO
Para qualquer dimensão m × n denota-se por 0 a matriz nula
definida por (0)ij = 0, e por −A = (−1)A o simétrico de A.
P ROPOSIÇ ÃO
As operações com matrizes satisfazem as seguintes
propriedades:
A SSOCIATIVIDADE DA SOMA : A + (B + C) = (A + B) + C
C OMUTATIVIDADE DA SOMA : A + B = B + A
E LEMENTO NEUTRO DA SOMA : A + 0 = A
A SSOCIATIVIDADE DO PRODUTO POR ESCALAR : (rs)A = r(sA)
S IM ÉTRICO DE UMA MATRIZ : A + (−A) = 0
E LEMENTO ABSORVENTE À ESQUERDA : 0A = 0
E LEMENTO ABSORVENTE À DIREITA : r0 = 0
(Escrevemos habitualmente A − B em vez de A + (−B).)
O PERAÇ ÕES ENVOLVENDO DIMENS ÕES DIFERENTES
D EFINIÇ ÃO
A transposta de uma matriz A m × n é a matriz AT n × m
definida por
(AT )ij = aji .
Uma matriz A diz-se:
I
simétrica se A = AT ;
I
anti-simétrica se A = −AT .
P ROPOSIÇ ÃO
Algumas propriedades:
(AT )T
(A + B)T
(rA)T
= A
= AT + BT
= rAT
D EFINIÇ ÃO
Sejam A e B duas matrizes, respectivamente de dimensões
m × p e p × n. O produto de A por B é a matriz AB de dimensão
m × n definida da seguinte forma:
p
(AB)ij =
∑ aik bkj .
k=1
O produto AB só está definido se o número de colunas de A for
igual ao número de linhas de B!
p
(AB)ij =
∑ aik bkj
k=1
E XEMPLO
Sejam x, y ∈ Rn . O produto interno (ou produto escalar) de x e y
(que generaliza o produto escalar de R2 ou R3 visto no ensino
secundário) é o número real
n
x · y = x1 y1 + . . . + xn yn = ∑ xi yi .
i=1
Logo, o produto escalar dos vectores coincide com o produto
de matrizes


y1


xT y = x1 · · · xn  ...  .
yn
E XEMPLO
Seja A uma matriz m × n e seja x ∈ Rn . Então tem-se


a11 x1 + . . . + a1n xn


..
Ax = 
.
.
am1 x1 + . . . + amn xn
Logo, o sistema de equações


 a11 x1 + . . . + a1n xn = b1
..
.


am1 x1 + . . . + amn xn = bm
é equivalente à equação matricial
Ax = b .
D EFINIÇ ÃO
Para qualquer dimensão n × n denota-se por I a matriz
identidade (quadrada) definida por
0 se i 6= j
(I)ij =
1 se i = j
P ROPOSIÇ ÃO
As operações com matrizes satisfazem as seguintes
propriedades:
A SSOCIATIVIDADE DO PRODUTO : A(BC) = (AB)C
D ISTRIBUTIVIDADE À ESQUERDA : A(B + C) = AB + AC
D ISTRIBUTIVIDADE À DIREITA : (B + C)A = BA + CA
E LEMENTO NEUTRO DO PRODUTO : AI = IA = A
E LEMENTO ABSORVENTE : A0 = 0A = 0
T RANSPOSTA DUM PRODUTO : (AB)T = BT AT
O BSERVAÇ ÃO IMPORTANTE
O produto de matrizes não é em geral comutativo, pois mesmo
para matrizes quadradas da mesma dimensão pode ter-se
AB 6= BA:
1 0
0 0
0 0
0 0
1 0
= 0 6=
=
1 0
1 1
2 0
1 1
1 0
Nota: existem matrizes A e B não quadradas tais que os
produtos AB e BA também estão ambos definidos (exercı́cio:
escreva um exemplo e mostre que se tem necessariamente
AB 6= BA).
Exercı́cio: Dê exemplos de matrizes quadradas A e B distintas,
com a mesma dimensão, tais que AB = BA.
Capı́tulo 4
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 1.3 e 1.6.
R EVIS ÃO
D EFINIÇ ÃO
Sejam A e B duas matrizes, respectivamente de dimensões
m × p e p × n. O produto de A por B é a matriz AB de dimensão
m × n definida da seguinte forma:
p
(AB)ij =
∑ aik bkj .
k=1
O produto AB só está definido se o número de colunas de A for
igual ao número de linhas de B!
R EVIS ÃO
E XEMPLO
Seja A uma matriz m × n e seja x ∈ Rn . O sistema de equações


 a11 x1 + . . . + a1n xn = b1
..
.


am1 x1 + . . . + amn xn = bm
é equivalente à equação matricial
Ax = b .
D EFINIÇ ÃO
Para qualquer dimensão n × n denota-se por I a matriz
identidade (quadrada) definida por
0 se i 6= j
(I)ij =
1 se i = j
P ROPOSIÇ ÃO
As operações com matrizes satisfazem as seguintes
propriedades:
A SSOCIATIVIDADE DO PRODUTO : A(BC) = (AB)C
D ISTRIBUTIVIDADE À ESQUERDA : A(B + C) = AB + AC
D ISTRIBUTIVIDADE À DIREITA : (B + C)A = BA + CA
E LEMENTO NEUTRO DO PRODUTO : AI = IA = A
E LEMENTO ABSORVENTE : A0 = 0A = 0
T RANSPOSTA DUM PRODUTO : (AB)T = BT AT
O BSERVAÇ ÃO IMPORTANTE
O produto de matrizes não é em geral comutativo, pois mesmo
para matrizes quadradas da mesma dimensão pode ter-se
AB 6= BA:
1 0
0 0
0 0
0 0
1 0
= 0 6=
=
1 0
1 1
2 0
1 1
1 0
Nota: existem matrizes A e B não quadradas tais que os
produtos AB e BA também estão ambos definidos (exercı́cio:
escreva um exemplo e mostre que se tem necessariamente
AB 6= BA).
Exercı́cio: Dê exemplos de matrizes quadradas A e B distintas,
com a mesma dimensão, tais que AB = BA.
M ATRIZ INVERSA DE UMA MATRIZ QUADRADA
D EFINIÇ ÃO
Seja A uma matriz quadrada. Designa-se por inversa de A
uma matriz B (necessariamente da mesma dimensão) tal que
AB = BA = I. Uma matriz A para a qual existe inversa diz-se
invertı́vel.
P ROPOSIÇ ÃO
1. Qualquer matriz quadrada A tem quando muito uma matriz
inversa. Se existir, a inversa de A é denotada por A−1 .
2. Se A e B forem invertı́veis então AB também é e tem-se
(AB)−1 = B−1 A−1 .
3. Se A for invertı́vel então AT também é e tem-se
(AT )−1 = (A−1 )T .
A PLICAÇ ÃO AOS SISTEMAS DE n EQUAÇ ÕES LINEARES A
n INC ÓGNITAS
Seja A uma matriz quadrada de dimensão n × n.
Se A for invertı́vel então o sistema linear
Ax = b
é determinado e a solução é
x = A−1 b .
(Note-se a analogia com a solução x = a−1 b da equação ax = b
quando a 6= 0.)
E LIMINAÇ ÃO DE G AUSS –J ORDAN
Seja A uma matriz quadrada n × n. Se o sistema
Ax = b
for determinado podemos encontrar a solução usando os
passos do método de eliminação de Gauss por forma a
transformar a matriz aumentada


b1
a11 · · · a1n
 .. . .
.
.. 
 .
. ..
. 
an1 · · ·
ann
bn
numa com a forma [I | x], onde x é a solução do sistema:


1 ··· 0
x1
 .. . . ..
.. 
 .
. .
. 
0 ···
1
xn
R ESOLUÇ ÃO SIMULT ÂNEA DE V ÁRIOS SISTEMAS
Seja A uma matriz dos coeficientes comum a k sistemas
diferentes:
Ax = b(1)
..
.
Ax = b(k)
Podemos fazer a eliminação de Gauss de uma só vez numa
matriz aumentada que inclui todos os vectores de termos
independentes:

(1)
···
..
.
a1n
..
.
b1
..
.
am1 · · ·
amn
bm
a11
 ..
 .
(1)
(k) 
· · · b1
.. 
..
.
. 
(k)
· · · bm
Capı́tulo 5
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 1.6.
R EVIS ÃO — I NVERSAS DE MATRIZES
D EFINIÇ ÃO
Seja A uma matriz quadrada. Designa-se por inversa de A
uma matriz B (necessariamente da mesma dimensão) tal que
AB = BA = I. Uma matriz A para a qual existe inversa diz-se
invertı́vel.
P ROPOSIÇ ÃO
Se A for invertı́vel qualquer sistema Ax = b é determinado e a
solução é dada por x = A−1 b.
R EVIS ÃO — E LIMINAÇ ÃO DE G AUSS –J ORDAN
Seja A uma matriz quadrada n × n. Se o sistema
Ax = b
for determinado podemos encontrar a solução usando os
passos do método de eliminação de Gauss por forma a
transformar a matriz aumentada


b1
a11 · · · a1n
 .. . .
.
.. 
 .
. ..
. 
an1 · · ·
ann
bn
numa com a forma [I | x], onde x é a solução do sistema:


1 ··· 0
x1
 .. . . ..
.. 
 .
. .
. 
0 ···
1
xn
R EVIS ÃO — R ESOLUÇ ÃO DE M ÚLTIPLOS SISTEMAS
Seja A uma matriz dos coeficientes comum a k sistemas
diferentes:
Ax = b(1)
..
.
Ax = b(k)
Podemos fazer a eliminação de Gauss de uma só vez numa
matriz aumentada que inclui todos os vectores de termos
independentes:

(1)
···
..
.
a1n
..
.
b1
..
.
am1 · · ·
amn
bm
a11
 ..
 .
(1)
(k) 
· · · b1
.. 
..
.
. 
(k)
· · · bm
Suponha-se que cada um dos sistemas Ax = b(`) é possı́vel e
tem uma solução x(`) :
Ax(1) = b(1)
..
.
Ax(k) = b(k)
Então, sendo X e B as matrizes n × k e m × k definidas por
(j)
(j)
xij = xi e bij = bi , tem-se
AX = B .
Se A for uma matriz n × n invertı́vel (caso em que todos os
sistemas Ax = b são determinados) podemos resolver os k
sistemas de uma só vez por eliminação de Gauss–Jordan:

a11 · · · a1n
 .. . .
.
 .
. ..
an1 · · · ann

1 ··· 0

→  ... . . . ...
0 ··· 1
(1)
b1
..
.
(1)
bn
(1)
x1
..
.
(1)
xn
(k) 
· · · b1
.. 
..
.
. 
(k)
· · · bn
(k) 
· · · x1
.. 
..
.
. 
(k)
· · · xn
Mas se A for invertı́vel também resulta de AX = B que
X = A−1 B
e portanto concluı́mos que a eliminação de Gauss–Jordan
produz a seguinte transformação de matrizes:
[A | B] → [I | A−1 B] .
Em particular, tem-se
[A | I] → [I | A−1 ] .
Podemos assim calcular a matriz inversa de uma forma
expedita pelo método de Gauss–Jordan.
E XEMPLO
2 1
Vamos verificar que a matriz A =
tem inversa e vamos
2 2
calcular A−1 . O primeiro passo é obter uma matriz em escada
de linhas:
2 1
1 0
2 1
1 0
→
2 2
0 1
0 1
−1 1
Há dois pivots (2 e 1) e portanto a inversa existe (o sistema
AX = I é determinado).
2 1
1 0
2 0
2 −1
1 0
1 −1/2
→
→
0 1
−1 1
0 1
−1 1
0 1
−1
1
Portanto tem-se
A−1 =
1 −1/2
−1
1
.
D EFINIÇ ÃO
Seja A uma matriz quadrada n × n. Se por eliminação de Gauss
encontrarmos n pivots para A então A diz-se não-singular.
caso contrário diz-se singular. (Por outras palavras, A é
não-singular se e só se a sua caracterı́stica for n.)
T EOREMA
Seja A uma matriz quadrada n × n. As seguintes afirmações
são equivalentes:
1. A é invertı́vel.
2. A é não-singular.
O BSERVAÇ ÕES
I
Se A for uma matriz quadrada então o sistema
Ax = b
é determinado se e só se qualquer sistema
Ax = b0
for determinado.
I
Esta afirmação é falsa para matrizes rectangulares:
o

3
1 2
2  é
sistema que tem a matriz aumentada  0 2
0 0
0


1 2
3
2  é impossı́vel.
determinado mas  0 2
0 0
1
M ATRIZES ESPECIAIS
D EFINIÇ ÃO
Seja A uma matriz quadrada. Diz-se que a matriz A é
triangular superior se i > j ⇒ aij = 0.
E XEMPLO

I
I

1 1 1
 0 0 1  é triangular superior.
0 0 1
Qualquer matriz quadrada em escada de linhas é
triangular superior (o exemplo anterior mostra que a
afirmação recı́proca é falsa).
P ROPOSIÇ ÃO
Uma matriz triangular superior é invertı́vel se e só se tiver
todos os elementos da diagonal principal diferentes de zero.
Nesse caso a inversa também é uma matriz triangular superior.
D EFINIÇ ÃO
Seja A uma matriz quadrada. Diz-se que a matriz A é
I
triangular inferior se i < j ⇒ aij = 0 (ou seja, AT é
triangular superior);
I
elementar se for triangular inferior com todas as entradas
da diagonal principal iguais a 1 e apenas uma entrada
abaixo da diagonal principal diferente de zero.
P ROPOSIÇ ÃO
Uma matriz triangular superior é invertı́vel se e só se tiver
todos os elementos da diagonal principal diferentes de zero.
Nesse caso a inversa também é uma matriz triangular superior.
P ROPOSIÇ ÃO
A inversa de uma matriz elementar obtém-se trocando o sinal
da única entrada não-nula fora da diagonal principal.
E XEMPLO
−1 

1 0 0
1 0 0
 0 1 0  =  0 1 0 
−2 0 1
2 0 1

D EFINIÇ ÃO
Uma matriz de permutação é uma matriz quadrada cujas
entradas são todas 0 ou 1, tal que em cada linha e em cada
coluna existe exactamente uma entrada com o valor 1.
(Equivalentemente, uma matriz que resulta da matriz
identidade por uma permutação das linhas, ou por uma
permutação das colunas.)
E XEMPLO


0 1 0
 1 0 0 
0 0 1
P ROPOSIÇ ÃO
Se P for uma matriz de permutação então é invertı́vel e tem-se
P−1 = PT .
Capı́tulo 6
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Capı́tulo 5.
M OTIVAÇ ÃO — ÁREAS DE PARALELOGRAMOS
Dados dois vectores x, y ∈ R2 , seja
A (x, y)
o número real igual, em módulo, à área do paralelogramo
determinado pelos vectores, com sinal igual ao do seno do
ângulo formado pelos vectores x e y (por esta ordem) — por
exemplo na figura seguinte tem-se A (x, y) > 0:
y
x
A LGUMAS PROPRIEDADES DA FUNÇ ÃO A
A NULAÇ ÃO : A (x, x) = 0
A LTERN ÂNCIA : A (x, y) = − A (y, x)
e1 = (1, 0)
N ORMALIZAÇ ÃO : A (e1 , e2 ) = 1
onde
e2 = (0, 1)
A LGUMAS PROPRIEDADES DA FUNÇ ÃO A
L INEARIDADE À ESQUERDA :
A (αx, y) = α A (x, y)
A (x + x0 , y) = A (x, y) + A (x0 , y)
Estas duas propriedades são equivalentes à seguinte:
A (αx + β x0 , y) = α A (x, y) + β A (x0 , y)
Da mesma forma existe linearidade à direita (respeitante às
somas e produtos por escalar na segunda variável). O conjunto
dos dois tipos de linearidade designa-se por bilinearidade.
Volumes de paralelepı́pedos podem ser tratados de forma
análoga, por meio duma função
V
que a cada três vectores x, y, z ∈ R3 atribui um número real
V (x, y, z) que em módulo é igual ao volume do paralelepı́pedo
determinado pelos três vectores. Teremos agora:
I
Linearidade em cada uma das três variáveis.
I
Anulação: V (x, y, z) = 0 se se tiver x = y ou x = z ou y = z.
I
Alternância: V (x, y, z) = − V (y, x, z), etc. (o sinal muda
sempre que se permutarem duas das variáveis).
I
Normalização: V (e1 , e2 , e3 ) = 1, onde e1 = (1, 0, 0),
e2 = (0, 1, 0) e e3 = (0, 0, 1).
D EFINIÇ ÃO
Uma função determinante de ordem n é uma função d que a
cada n vectores x1 , . . . , xn de Rn atribui um número real
d(x1 , . . . , xn )
satisfazendo as condições seguintes:
M ULTILINEARIDADE : (= linearidade em cada uma das n
variáveis)
d(x1 , . . . , αxi , . . . , xn ) = αd(x1 , . . . , xi , . . . , xn ) ;
d(x1 , . . . , xi + x0i , . . . , xn ) = d(x1 , . . . , xi , . . . , xn )
+ d(x1 , . . . , x0i , . . . , xn ) .
A NULAÇ ÃO : d(x1 , . . . , xn ) = 0 se existirem i 6= j tais que xi = xj .
N ORMALIZAÇ ÃO : d(e1 , . . . , en ) = 1, onde e1 = (1, 0, . . . , 0),
e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
A alternância é uma propriedade derivada das anteriores:
0 = d(x1 , . . . , x + y, . . . , x + y, . . . , xn )
(Anul.)
= d(x1 , . . . , x, . . . , x, . . . , xn ) + d(x1 , . . . , x, . . . , y, . . . , xn )
+d(x1 , . . . , y, . . . , x, . . . , xn ) + d(x1 , . . . , y, . . . , y, . . . , xn ) (Mult.)
= d(x1 , . . . , x, . . . , y, . . . , xn )
+d(x1 , . . . , y, . . . , x, . . . , xn )
(Anul.)
Nota: Na verdade a anulação também é consequência da
alternância, pois se x ocorre em duas posições diferentes
então trocando x com x nessas duas posições o valor da
função determinante não se altera mas a alternância impõe
uma mudança de sinal:
d(x1 , . . . , x, . . . , x, . . . , xn ) = −d(x1 , . . . , x, . . . , x, . . . , xn )
Logo, obtemos 2d(x1 , . . . , x, . . . , x, . . . , xn ) = 0 e portanto
d(x1 , . . . , x, . . . , x, . . . , xn ) = 0 .
F UNÇ ÕES DETERMINANTE PARA MATRIZES
A nossa identificação de vectores com matrizes coluna
permite-nos pensar numa função determinante de ordem n
d : Rn × . . . × Rn → R
como uma função definida sobre o conjunto das matrizes n × n:
d : Matn×n → R .
Sendo A uma matriz n × n,
d(A)
é o mesmo que
d(x1 , . . . , xn ) ,
onde, para cada j, o vector xj é a coluna j de A.
M ATRIZES DE PERMUTAÇ ÃO
I
Para qualquer função determinante d tem de ter-se
d(I) = 1.
I
Se P for uma matriz de permutação que resulta de I por
um número k de trocas de colunas então tem de ter-se
d(P) = (−1)k .
I
O número (−1)k designa-se por paridade da matriz de
permutação (qualquer outro número k0 de permutações
0
que levem de I a P tem de satisfazer (−1)k = (−1)k e
portanto a noção de paridade está bem definida — a
paridade é um conceito associado a permutações em
geral).
P ERMUTAÇ ÕES
Seja C = {a1 , . . . , an } um conjunto de n objectos distintos
(números, colunas de uma matriz, etc.). Uma permutação de
C é uma função bijectiva
σ :C→C.
Convencionando uma ordem para os elementos de C, por
exemplo
(a1 , . . . , an ) ,
podemos representar as permutações σ por outras listas
ordenadas de elementos de C:
E XEMPLO
Seja C = {1, 2, 3, 4}. Adoptando a lista (1, 2, 3, 4) como
referência, a permutação σ : C → C tal que σ (1) = 3, σ (2) = 4,
σ (3) = 1 e σ (4) = 2 é representada pela lista
(σ (1), σ (2), σ (3), σ (4)) = (3, 4, 1, 2).
Notação simplificada: σi em vez de σ (i).
P ROPOSIÇ ÃO
Seja σ uma permutação de {1, . . . , n} e sejam k e k0 dois
números de trocas de elementos aos pares que transformam a
lista (1, . . . , n) em (σ1 , . . . , σn ). Então ambos os números k e k0
são pares ou ambos são ı́mpares.
D EFINIÇ ÃO
O número (−1)k ∈ {−1, 1} da proposição anterior designa-se
por paridade ou sinal da permutação σ e denota-se por
sgn(σ ). Se a paridade é 1 a permutação diz-se par, caso
contrário diz-se ı́mpar.
E XEMPLO
A permutação que transforma (1, 2, 3, 4) em (1, 3, 4, 2) é par:
(1, 2, 3, 4) → (1, 3, 2, 4) → (1, 3, 4, 2) .
Da mesma forma dizemos que uma matriz de permutação P é
par ou ı́mpar quando a permutação das colunas que
transforma I em P é par ou ı́mpar, respectivamente.
Dada uma matriz de permutação P de dimensão n × n seja σ a
permutação de C = {1, . . . , n} tal que para cada j ∈ C a coluna j
de P é igual à coluna σj de I. Então as entradas de P que são
iguais a 1 são exactamente
pσ1 1 , . . . , pσn n .
E XEMPLO
Seja

0
 0
P=
 1
0
1
0
0
0
0
1
0
0

0
0 

0 
1
As entradas iguais a 1 são p31 , p12 , p23 , p44 e portanto a
permutação σ corresponde à lista (3, 1, 2, 4) e é par.
E XEMPLO
Seja


0 a12 0
0
 0
0 a23 0 


A=
a31 0
0
0 
0
0
0 a44
e seja σ a mesma permutação do exemplo anterior. Se d for
uma função determinante de ordem 4 então pela
multinearidade temos
d(A) = a31 a12 a23 a44 d(P) = sgn(σ )a31 a12 a23 a44 = a31 a12 a23 a44 .
E XEMPLO
Seja d uma função determinante de ordem 2. Pela
multilinearidade, uma vez que (a11 , a21 ) = a11 (1, 0) + a21 (0, 1) e
(a12 , a22 ) = a12 (1, 0) + a22 (0, 1), temos
a11 a12
1 1
d
= a11 a12 d
a21 a22
0 0
1 0
+ a11 a22 d
0 1
0 1
+ a21 a12 d
1 0
0 0
+ a21 a22 d
1 1
= a11 a22 − a21 a12 .
O BSERVAÇ ÕES
O exemplo anterior mostra que existe uma e uma só função
determinante d de ordem 2. Para cada matriz A de dimensão
2 × 2 temos
d(A) = a11 a22 − a21 a12 .
Este resultado permite obter uma fórmula simples para a área
de um paralelogramo:
P ROPOSIÇ ÃO
A área do paralelogramo determinado por dois vectores
x, y ∈ R2 é igual a
|x1 y2 − x2 y1 | .
M ATRIZES 3 × 3
Da mesma forma se mostra que para qualquer ordem n existe
uma e uma só função determinante d.
Por exemplo, se A for uma matriz 3 × 3 ter-se-á d(A) igual a
uma soma de seis parcelas (correspondendo às seis
permutações de três colunas):
d(A) = a11 a22 a33 − a11 a32 a23 + a31 a12 a23
− a31 a22 a13 + a21 a32 a13 − a21 a12 a33 .
P ROPOSIÇ ÃO
O volume do paralelepı́pedo determinado por três vectores
x, y, z ∈ R3 é igual a
|x1 y2 z3 − x1 y3 z2 + x3 y1 z2 − x3 y2 z1 + x2 y3 z1 − x2 y1 z3 | .
T EOREMA
Para cada n ∈ N existe uma e uma só função determinante d,
que é definida, para cada matriz A de dimensão n × n, pela
fórmula seguinte, onde Sn é o conjunto das permutações de
{1, . . . , n}:
d(A) = ∑ sgn(σ )aσ1 1 . . . aσn n .
σ ∈Sn
D EFINIÇ ÃO
O determinante de uma matriz A de dimensão n × n é o valor
atribuı́do à matriz A pela única função determinante de ordem
n. Denota-se este valor por det A ou det(A).
a11 · · · an1 .. . .
.
.. .
Outra notação: det(A) = .
.
an1 · · · ann E XERC ÍCIO
Calcule o determinante seguinte:
1 0 0
0 2 1
0 3 0
0 0 0
0
0
4
2
Capı́tulo 7
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Capı́tulo 5.
R EVIS ÃO
Uma função determinante de ordem n é uma função d que a
cada n vectores x1 , . . . , xn de Rn atribui um número real
d(x1 , . . . , xn )
satisfazendo as condições de multilinearidade, anulação e
normalização (e em consequência também alternância).
Exemplos são:
I
a área orientada determinada por dois vectores de R2 ;
I
o volume orientado determinado por três vectores de R3 .
Para qualquer n existe uma e uma só função determinante de
ordem n. (Vamos concluir isto hoje.)
Pensando em vectores como colunas de matrizes obtemos a
noção de determinante de uma matriz quadrada:
D EFINIÇ ÃO
O determinante de uma matriz A de dimensão n × n é o valor
atribuı́do à matriz A pela única função determinante de ordem
n. Denota-se este valor por det A ou det(A).
a11 · · · an1 .. . .
.
.. .
Outra notação: det(A) = .
.
an1 · · · ann E XERC ÍCIO
Calcule o determinante seguinte:
1 0 0
0 2 1
0 3 0
0 0 0
0
0
4
2
T EOREMA
Para cada n ∈ N existe uma e uma só função determinante det,
que é definida, para cada matriz A de dimensão n × n, pela
fórmula seguinte, onde Sn é o conjunto das permutações de
{1, . . . , n}:
det(A) = ∑ sgn(σ )aσ1 1 . . . aσn n .
σ ∈Sn
Demonstração.
A unicidade demonstra-se como nos exemplos. Para a
existência demonstramos que det satisfaz os axiomas:
Multilinearidade: Suponha-se que a coluna j de A é a
combinação αx + β y. Todas as parcelas do somatório det(A)
contêm exactamente um factor aσj j da coluna j, que é da forma
αxσj + β yσj , pelo que se obtém det(A) = α det(A1 ) + β det(A2 )
onde A1 e A2 são as matrizes que se obtém de A substituindo a
coluna j por x e por y, respectivamente.
Demonstração.
(Continuação)
Anulação: Se a coluna j e a coluna k de A forem o mesmo
vector (mas j 6= k) então cada parcela aσ1 1 . . . aσj j . . . aσk k . . . aσn n
aparece duas vezes no somatório, com sinal trocado: mais
precisamente, tem-se
aσ1 1 . . . aσj j . . . aσk k . . . aσn n = aτ1 1 . . . aτj j . . . aτk k . . . aτn n
onde τ é igual a σ excepto que τj = σk e τk = σj e, como σ e τ
diferem exactamente numa troca, tem-se sgn(τ) = − sgn(σ ).
Portanto det(A) = 0.
Normalização: Tem-se det(I) = 1 porque a única parcela não
nula é o produto dos elementos da diagonal principal, que
corresponde à permutação identidade, que é par.
L EMA
Qualquer matriz triangular tem determinante igual ao produto
das entradas da diagonal principal.
Em particular, uma matriz triangular tem determinante nulo se
e só se for uma matriz singular.
T EOREMA
Para qualquer matriz quadrada A tem-se
det(AT ) = det(A) .
Demonstração.
Cada parcela aσ1 1 . . . aσn n pode ser escrita com os factores
permutados na forma
aσ1 1 . . . aσn n = a1τ1 . . . anτn
onde τ = σ −1 é a permutação inversa de σ . Mas cada factor
ajτj é igual a (AT )τj j e portanto tem-se
det(A) =
∑
sgn(σ )aσ1 1 . . . aσn n
∑
sgn(σ )(AT )τ1 1 . . . (AT )τn n
∑
sgn(σ )(AT )σ1 1 . . . (AT )σn n = det(AT ) ,
σ ∈Sn
=
σ ∈Sn
=
σ ∈Sn
onde no fim a substituição de τ por σ é justificada pelo facto de
o conjunto {σ −1 | σ ∈ Sn } ser igual a Sn e para qualquer
permutação σ se ter sgn(σ ) = sgn(σ −1 ).
C ÁLCULO DE DETERMINANTES POR ELIMINAÇ ÃO DE
G AUSS
Como det(AT ) = det(A) podemos trabalhar com as linhas de A
em vez das colunas.
Regra da eliminação para determinantes:
a11 · · · an1
a
·
·
·
a
11
n1
. .
.
.
.
..
..
..
. . ...
..
.
..
ai1 . . . ain
a
a
in
i1
.. . .
..
.
..
.
..
..
= .
.
.
.
ak1 + rai1 . . . akn + rain ak1 . . . akn
..
..
.
.. . .
..
.
.
. ..
.
.
an1 · · · ann
an1
···
ann
{z
|
+r
} |
Regra da multiplicação para determinantes:
a11 · · · an1
a11 · · · an1 .. . .
..
..
.
.
..
.. .
.
.
.
rai1 . . . rain = r ai1 . . . ain
.. . .
..
.
.
.
..
.. .
.
. ..
an1 · · · ann
an1 · · · ann = r det(A)
det(A)
Regra da permutação para determinantes:
a11 · · · an1 a11 · · · an1
. .
. .
.
. . .. . . ...
..
..
.
ak1 . . akn ai1 . . . ain
.. . .
.. = − .. . .
..
.
.
.
.
.
.
ai1 . . . ain ak1 . . . akn
.. .
.. . .
.. . .
.
.
. . . ..
an1 · · · ann an1 · · · ann
a11 · · · an1
.. . .
.
. ..
.
.
ai1 . . ain
.. . .
.
. ..
.
.
ai1 . . ain
.
.. . .
. ..
.
an1 · · · ann
{z
0
}
E XERC ÍCIO
Calcule pelo método de eliminação de Gauss o determinante
seguinte:
1
1 1 1 1
2 1 2 0
1 2 3 −1 −1 2 3 T EOREMA
det(A) = 0 ⇐⇒ A é singular.
Demonstração.
Usando a regra da eliminação e a regra da permutação
podemos obter a partir de A uma matriz triangular superior A0 .
Tem-se det(A0 ) = det(A) ou det(A0 ) = − det(A).
Portanto det(A) = 0 se e só se det(A0 ) = 0.
Como A0 é triangular a condição det(A0 ) = 0 é equivalente a A0
ser singular e portanto é equivalente a A ser singular.
T EOREMA
Sejam A e B matrizes quadradas n × n. Então
det(AB) = det(A) det(B).
Demonstração.
Primeiro consideremos o caso em que B é não-singular.
Podemos então definir a função f (A) =
det(AB)
det(B) .
Como as linhas da matriz produto AB são determinadas pelo
produto das linhas de A pela matriz B é fácil concluir que a
função f é uma função determinante das linhas de A, ou seja,
f (A) = det(AT ) = det(A).
Portanto tem-se det(AB) = det(A) det(B).
Por outro lado, no caso em que B é singular então AB também
é singular e por isso tem-se det(AB) = 0 = det(A) det(B).
E XERC ÍCIO
Justifique detalhadamente as seguintes afirmações da
demonstração anterior:
det(AB)
det(B)
é uma função
I
Se B é não-singular então f (A) =
determinante das linhas de A.
I
Se B é singular então AB é singular. (Sugestão: mostre
que existe x 6= 0 tal que (AB)x = 0.)
C OROL ÁRIO
Se A tiver inversa então det(A−1 ) =
1
det(A) .
Demonstração.
Se A tiver inversa tem-se
1 = det(I) = det(AA−1 ) = det(A) det(A−1 ).
Capı́tulo 8
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Capı́tulo 5.
R EVIS ÃO
T EOREMA
det(A) =
∑
sgn(σ )aσ1 1 . . . aσn n .
σ ∈Sn
I
Algoritmo baseado em permutações das colunas (ou das
linhas).
I
Pouco útil para cálculo excepto em casos especiais (muito
pouco eficiente), mas útil ao demonstrar propriedades da
função determinante.
I
No caso de matrizes 3 × 3 este método é conhecido como
Regra de Sarrus e é computacionalmente razoável
porque envolve um somatório com apenas seis parcelas.
I
Algoritmo baseado em eliminação de Gauss:
computacionalmente eficiente.
R EGRA DE S ARRUS
det A = a11 a22 a33 − a11 a32 a23 + a31 a12 a23
− a31 a22 a13 + a21 a32 a13 − a21 a12 a33 .
Permutações pares:


•


•
•

Permutações ı́mpares:


•


•
•

•
 •




•
•

• 
•
•
 •
•





•
• 
•
det A = a11 a22 a33 − a11 a32 a23 + a31 a12 a23
− a31 a22 a13 + a21 a32 a13 − a21 a12 a33 .
Pondo as entradas da primeira linha em evidência obtemos
a21 a22 a21 a23 a22 a23 − a12 det A = a11 a31 a33 + a13 a31 a32 .
a32 a33 Pondo as entradas da segunda linha em evidência obtemos
a12 a13 a11 a13 a11 a12 + a22 − a23 .
det A = −a21 a32 a33
a31 a33
a31 a32 Etc.
O sinal de que é afectada cada uma das três parcelas é
determinado pelo sinal (−1)i+j de cada uma das entradas ij da
matriz:


+ − +
 − + − .
+ − +
Outro exemplo: pondo as entradas da terceira coluna em
evidência obtemos
a21 a22 a11 a12 −a23 +a33 a11 a12
det A = +a13 a31 a32 a21 a22
a31 a32 É fácil generalizar estes factos para matrizes n × n, como
veremos de seguida.
.
F ÓRMULA DE L APLACE
D EFINIÇ ÃO
Seja A uma matriz n × n, com n ≥ 2, e sejam i, j ∈ {1, . . . , n}.
O menor-ij de A é a matriz Aij
(não confundir com a entrada aij = (A)ij )
cuja dimensão é (n − 1) × (n − 1) e que resulta de A pela
eliminação das entradas da linha i e da coluna j.
T EOREMA (F ÓRMULA DE L APLACE )
Seja A uma matriz n × n. Para qualquer i ∈ {1, . . . , n} temos
n
det(A) = ∑ (−1)i+j aij det(Aij ) .
j=1
N OTA
Como det(A) = det(AT ) também temos a Fórmula de Laplace
“ao longo das colunas”: para qualquer j ∈ {1, . . . , n} temos
n
det(A) = ∑ (−1)i+j aij det(Aij ) .
i=1
E XERC ÍCIO
Calcule pela regra de Laplace os seguintes determinantes:
1 0 0 0 0 2 1 0 1. 0
3
0
4
0 0 0 2 1
1
1
1
1
2
1
2
2. 0
1
2
3
−1 −1 2 3 N OTA
O cálculo de um determinante exclusivamente por meio da
fórmula de Laplace é em geral pouco eficiente
computacionalmente, uma vez que apenas se resume à
reorganização, por meio de uma regra de recorrência, da
fórmula baseada em permutações.
Mas a fórmula de Laplace pode ser usada para decompor o
cálculo de um determinante em partes mais simples, por
exemplo em conjunto com a eliminação de Gauss, como no
seguinte exemplo em que se aplica a fórmula à segunda linha:
1 2 3 4 1 2 4 0 0 2 0 = −2 × 4 4 4 = . . . (elim. Gauss)
4 4 4 4 9 7 2 9 7 1 2 Outras aplicações da fórmula de Laplace são teóricas, como
veremos de seguida.
E XEMPLO COMPLETO
1
0
4
9
2
0
4
7
3
2
4
1
4
0
4
2
1 2 4
= −2 × 4 4 4
9 7 2
(F. Laplace, linha 2)
1
2
4
= −2 × 0 −4 −12 0 −11 −34 −4 −12
= −2 × 1 × −11 −34
(Elim. Gauss, pivot 1)
(F. Laplace, coluna 1)
= −2 × 1 × ((−4) × (−34)
−(−11) × (−12))
= −8
C O - FACTORES E MATRIZES INVERSAS
D EFINIÇ ÃO
Seja A uma matriz n × n e sejam i, j ∈ {1, . . . , n}. O cofactor-ij
de A é o número
A0ij = (−1)i+j det(Aij ) .
A matriz dos cofactores de A é a matriz cof(A) = [A0ij ] cuja
entrada (cof(A))ij é o cofactor-ij de A.
Definindo a matriz B cuja entrada bij é o cofactor-ji de A
(note-se a permutação dos ı́ndices), ou seja, B = cof(A)T ,
podemos rescrever a fórmula de Laplace da seguinte forma:
n
n
i+j
det(A) = ∑ aij (−1)
j=1
det(Aij ) = ∑ aij bji = (AB)ii .
j=1
(De igual modo, a fórmula de Laplace ao longo das colunas
permite concluir que (BA)jj = det(A).)
T EOREMA
Seja A uma matriz n × n não-singular. Então
A−1 =
1
(cof A)T .
det A
Demonstração.
Continuando a denotar (cof A)T por B, já vimos que para
quaisquer i e j temos (AB)ii = (BA)jj = det A. Falta apenas
mostrar que se i 6= j então (AB)ij = (BA)ji = 0 para concluir que
AB = BA = (det A)I, ou seja, que A−1 = det1 A B como pretendido.
Demonstração.
(Continuação)
Sejam então i 6= j. Temos
n
(AB)ij =
n
∑ aik bkj = ∑ aik (−1)j+k det(Ajk ) .
k=1
k=1
Note-se que o menor-jk de A, que aparece neste somatório,
não depende da linha j de A e por isso é igual ao menor-jk da
e que resulta de A se substituirmos a linha j de A pela
matriz A
linha i.
Então o somatório pode rescrever-se assim:
n
e jk (−1)j+k det(A
ejk ) .
∑ (A)
k=1
Demonstração.
(Continuação)
e jk (−1)j+k det(A
ejk ) é precisamente o valor de
Mas a soma ∑nk=1 (A)
e dado pela fórmula de Laplace aplicada à linha j.
det(A)
e tem duas linhas (i e j) iguais resulta que
Uma vez que A
e = 0 e por isso (AB)ij = 0.
det(A)
De igual forma, usando a fórmula de Laplace aplicada a
colunas, se conclui que (BA)ji = 0.
Portanto AB = BA = (det A)I, como pretendı́amos provar.
E XERC ÍCIO
Considere a matriz


1 1 1
A= 1 0 1  .
2 3 4
1. Calcule as entradas da primeira linha de cof A.
2. Calcule det A.
3. Se A for não-singular calcule as restantes entradas de
cof A e calcule a matriz A−1 .
Capı́tulo 9
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Capı́tulo 5 e Secção 4.6.
R EVIS ÃO
D EFINIÇ ÃO
Seja A uma matriz n × n. O cofactor-ij de A é o número
A0ij = (−1)i+j det(Aij ) ,
onde Aij é o menor-ij de A, ou seja, a matriz que resulta de A
se apagarmos a linha i e a coluna j.
A matriz dos cofactores de A é
cof(A) = [A0ij ] .
R EVIS ÃO
T EOREMA
A fórmula de Laplace ao longo da linha i é:
det(A) = (linha i de A) · (linha i de cof A)
n
=
∑ aij (−1)i+j det(Aij )
j=1
= (A (cof A)T )ii .
A fórmula de Laplace ao longo da coluna j é:
det(A) = (coluna j de cof A) · (coluna j de A)
n
=
∑ (−1)i+j det(Aij ) aij
i=1
= ((cof A)T A)jj .
R EVIS ÃO
T EOREMA
Seja A uma matriz n × n. Então tem-se
A(cof A)T = (det A)I = (cof A)T A .
C OROL ÁRIO
Seja A uma matriz n × n não-singular. Então
A−1 =
1
(cof A)T .
det A
R EGRA DE C RAMER
A fórmula anterior para matrizes inversas permite-nos resolver
sistemas determinados pela chamada regra de Cramer, como
veremos de seguida.
Se A for uma matriz não-singular então Ax = b é um sistema
determinado cuja solução é x = A−1 b.
Substituindo A−1 por
1
T
det A (cof A)
obtém-se
1 n
xj =
∑ (cof A)ij bi .
det A i=1
Uma vez que (cof A)ij não depende da coluna j de A temos
(cof A)ij = (cof B)ij para qualquer i e qualquer matriz B que
apenas difira de A na coluna j.
Em particular, seja A(j) a matriz que resulta de A se
substituirmos a coluna j de A pelo vector b.
Tem-se então, para cada j,
n
n
∑ (cof A)ij bi = ∑ (cof A(j) )ij (A(j) )ij = det A(j) .
i=1
i=1
Obtivemos assim a regra de Cramer, que é uma fórmula para
calcular directamente a j-ésima incógnita xj sem ter de calcular
todo o vector-solução:
det A(j)
xj =
.
det A
E XERC ÍCIO
Considere as matrizes


1 1 1
A= 1 0 1  ,
2 3 4


0
b= 1  ,
0


x
x= y  .
z
Calcule o valor de y determinado pelo sistema Ax = b.
(Já vimos noutro exercı́cio que A é uma matriz não-singular e
calculámos det A.)
R ESOLUÇ ÃO
Já calculámos det A = −2 noutra aula.
A matriz que resulta de substituir a segunda coluna de A pelo
vector b é


1 0 1
A(2) =  1 1 1  ,
2 0 4
pelo que, pela regra de Cramer, a incógnita y (que corresponde
à segunda coluna) tem o valor
1 0 1 1 1 1 1 1 2 0 4 +1 × 2 4 1 × 4 − 2 × 1
y=
=
=
= −1 .
−2
−2
−2
P RODUTO EXTERNO
D EFINIÇ ÃO
Sejam x, y ∈ R3 dois vectores. O produto externo de x e y é o
vector de R3 definido da seguinte forma:
x × y = (x2 y3 − y2 x3 , y1 x3 − x1 y3 , x1 y2 − y1 x2 ) .
N OTA
x2 x3 x1 x3 x1 x2 e −
e +
e
x × y = y2 y3 1 y1 y3 2 y1 y2 3
N OTA
Simbolicamente podemos escrever, pensando na fórmula de
Laplace aplicada à primeira linha, a seguinte fórmula para o
produto externo:
e1 e2 e3 x × y = x1 x2 x3 y1 y2 y3 (Note-se que não está definida uma noção de matriz cujas
entradas são vectores e por isso a notação acima é apenas
uma mnemónica!)
E XERC ÍCIO
Verifique as seguintes propriedades:
N ORMALIZAÇ ÃO :
I
I
I
e1 × e2 = e3
e2 × e3 = e1
e3 × e1 = e2
A NULAÇ ÃO : x × x = 0
A LTERN ÂNCIA : x × y = −y × x
B ILINEARIDADE :
(αx) × y = α(x × y)
x × (αy) = α(x × y)
(x + x0 ) × y = x × y + x0 × y
x × (y + y0 ) = x × y + x × y0
E XERC ÍCIO
Recorde (do ensino secundário) que dois vectores x, y ∈ R3 são
ortogonais, ou perpendiculares (e escreve-se x ⊥ y), se e só
se o seu produto escalar for nulo:
x ⊥ y ⇐⇒ x · y = 0 .
1. Mostre que se tem, para quaisquer x, y, z ∈ R3 ,
x1 x2 x3 x · (y × z) = y1 y2 y3 .
z1 z2 z3 2. Mostre que x × y é ortogonal a x e a y.
N OTA
O produto externo tem ainda as propriedades seguintes (a
demonstração será feita oportunamente):
I
O comprimento de x × y é igual à área do paralelogramo
definido por x e y.
I
A orientação relativa do terno ordenado (x, y, x × y) é
semelhante à de (e1 , e2 , e3 ). Por outras palavras, esta
orientação é dada pela “regra da mão direita”: se os dedos
da mão direita acompanharem a rotação de x para y (no
sentido em que o ângulo é menor que π) então x × y
aponta no sentido do polegar.
E XERC ÍCIOS
Seja A uma matriz n × n (com n ≥ 2).
1. Mostre que para qualquer número real r se tem
det(rA) = rn det A.
2. Mostre que A é singular se e só se cof A for singular.
3. Mostre que (det A)(det(cof A)) = (det A)n .
4. Mostre que se A for não-singular então
det(cof A) = (det A)n−1 .
5. Mostre que det A = 1 se e só se det(cof A) = 1.
Definindo, para uma matriz de permutação P qualquer,
+1 se P é par,
sgn(P) =
−1 se P é ı́mpar
(ou seja, sgn(P) é o sinal da correspondente permutação das
colunas), resolva o exercı́cio seguinte:
E XERC ÍCIO
Seja P uma matriz de permutação n × n (com n ≥ 2) e sejam
i, j ∈ {1, . . . , n} tais que pij = 1.
1. Mostre que Pij também é uma matriz de permutação.
2. Esta conclusão manter-se-ia se pij = 0? Explique.
3. Verifique, escolhendo uma matriz de permutação 4 × 4
arbitrária, que sgn(P) = (−1)i+j sgn(Pij ). (Ou seja, P é par
se e só se os sinais da entrada ij e do menor Pij forem
iguais.)
(Na verdade tem-se sgn(P) = (−1)i+j sgn(Pij ) para uma
matriz de permutação P qualquer.)
Capı́tulo 10
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 2.1 e 2.2.
M OTIVAÇ ÕES
I
Até agora recordámos que um “vector” é um elemento de
um espaço Rn com n = 1, 2, 3, . . ., e também adoptámos a
convenção de identificar os vectores de Rn com as
matrizes coluna de Matn×1 .
I
Este conceito revelou-se útil por exemplo ao definir o que
se entende por solução de um sistema de equações
lineares e veremos que muito mais se pode dizer a este
respeito.
I
No entanto este conceito de vector é, em muitas
aplicações, insuficiente.
I
Por exemplo, os vectores x ∈ Rn podem descrever-se por
meio de um número finito de “coordenadas” x1 , . . . , xn . São
necessárias exactamente n coordenadas para descrever
um vector e esta situação corresponde, como veremos, a
dizer que Rn é um espaço de dimensão igual a n.
I
Mas encontraremos situações em que serão necessários
vectores mais gerais, descritos por um número infinito de
coordenadas. Como veremos, um espaço formado por tais
vectores diz-se de dimensão infinita.
I
Ou, por vezes, encontraremos espaços que, mesmo
sendo de dimensão igual a n, têm um aspecto
aparentemente muito diferente de Rn . Por exemplo,
conjuntos de soluções de certas equações diferenciais são
deste tipo: os “vectores” são funções (por exemplo
funções reais de variável real).
I
Para obter o conceito suficientemente geral de vector que
permita englobar ambos os aspectos mencionados vamos
recorrer a uma abordagem axiomática, estudando quais
devem ser as operações algébricas com vectores e quais
são as propriedades destas operações, descritas por
axiomas apropriados.
I
(Já vimos um exemplo do poder da abordagem axiomática
ao calcular a área orientada de um paralelogramo a partir
da descrição de um conjunto de axiomas que a função A
satisfaz.)
I
Começaremos por extrair as operações e axiomas
apropriados inspirando-nos no exemplo concreto de Rn .
D EFINIÇ ÃO
Um espaço vectorial real, ou espaço linear real, é um
conjunto V, cujos elementos são denominados vectores,
sobre o qual estão definidas as operações seguintes
(satisfazendo os axiomas que descreveremos de seguida):
A DIÇ ÃO : Dados x, y ∈ V existe um vector x + y ∈ V,
designado por soma de x e y. (Esta operação
diz-se binária.)
Z ERO : Existe um vector 0 ∈ V designado por zero. (Esta
operação diz-se constante ou 0-ária.)
S IM ÉTRICO : Dado x ∈ V existe um vector −x ∈ V designado por
simétrico de x. (Esta operação diz-se unária.)
Escrevemos x − y em vez de x + (−y).
M ULTIPLICAÇ ÃO : Dado r ∈ R e x ∈ V existe um vector rx ∈ V,
designado por produto de r por x. (Operação
binária heterogénea.)
D EFINIÇ ÃO
(Continuação) Os axiomas são os seguintes:
A SSOCIATIVIDADE DA SOMA : (x + y) + z = x + (y + z).
C OMUTATIVIDADE DA SOMA : x + y = y + x.
E LEMENTO NEUTRO : 0 + x = x.
E LEMENTO SIM ÉTRICO : x − x = 0.
A SSOCIATIVIDADE DA MULT.: r(sx) = (rs)x.
U NITARIDADE : 1x = x.
D ISTRIBUTIVIDADE DIREITA : r(x + y) = rx + ry.
D ISTRIBUTIVIDADE ESQUERDA : (r + s)x = rx + sx.
Nota 1: V é um grupo abeliano (primeiros quatro axiomas).
Nota 2: 0 é o único elemento neutro; para cada vector x o
único vector y tal que x + y = 0 é o vector y = −x; e se x + x = x
então x = 0.
Nota 3: 0x = 0 e (−1)x = −x.
E XEMPLO
1. Rn .
2. Matm×n .
3. RA = {funções f : A → R} .
(f + g)(a) = f (a) + g(a)
0(a) = 0
(−f )(a) = −(f (a))
(rf )(a) = r(f (a))
4. Mais uma convenção: R{1,...,n} = Rn .
Um vector x ∈ Rn corresponde à função f : {1, . . . , n} → R
definida por f (1) = x1 , . . . , f (n) = xn .
5. RN . Os vectores são as sucessões de números reais,
que podemos encarar como “vectores infinitos”
(x1 , x2 , x3 , . . .) (veremos que este é um exemplo de espaço
de dimensão infinita).
E XEMPLO
6. Se A e B forem dois conjuntos, escreve-se
A × B = {(a, b) | a ∈ A, b ∈ B} .
(Por exemplo, R × R = R2 .) Em particular,
{1, . . . , m} × {1, . . . , n} é o conjunto de pares ordenados (i, j)
de números naturais tais que i ∈ {1, . . . , m} e j ∈ {1, . . . , n} e
por isso podemos fazer a identificação
R{1,...,m}×{1,...,n} = Matm×n ,
segundo a qual a matriz A de dimensão m × n corresponde
à função f : {1, . . . , m} × {1, . . . , n} → R definida por
f (i, j) = aij .
E XEMPLO
7. Se V e W forem dois espaços vectoriais reais então
V ×W
é um espaço vectorial real com as operações
(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 )
zero = (0, 0)
−(v, w) = (−v, −w)
r(v, w) = (rv, rw) .
8. R × R é exactamente o mesmo que o espaço R2 .
9. Evidentemente, podemos identificar (R × R) × R com R3 ,
pois o vector ((x1 , x2 ), x3 ) de (R × R) × R pode identificar-se
com (x1 , x2 , x3 ) ∈ R3 .
AVISO
O conceito de “vector” agora definido é abstracto.
Na verdade não definimos o que se entende por vector mas
sim por “espaço de vectores”.
Ou seja, apenas faz sentido dizer que um objecto é um vector
no contexto duma colecção da qual o objecto faz parte e que
tem as propriedades apropriadas.
D EFINIÇ ÃO
Definimos também as seguintes noções:
I
Um espaço vectorial racional, ou espaço linear
racional tem uma definição em tudo análoga à de espaco
vectorial real, mas com R substituı́do pelo conjunto dos
números racionais Q.
I
Um espaço vectorial complexo, ou espaço linear
complexo tem uma definição em tudo análoga à de
espaco vectorial real, mas com R substituı́do pelo conjunto
dos números complexos C.
N OTA
Uma vez que se tem as inclusões Q ⊂ R ⊂ C, qualquer espaço
vectorial complexo é também um espaço vectorial real e
qualquer espaço vectorial real é também um espaço vectorial
racional.
E XEMPLO
Os exemplos são em tudo semelhantes aos de espaço
vectorial real:
I
Qn e Cn são respectivamente um espaço vectorial racional
e um espaço vectorial complexo.
I
Dado um conjunto A definem-se os espaços de funções
QA e CA , que são respectivamente um espaço vectorial
racional e um espaço vectorial complexo.
I
CN é o espaço vectorial complexo das sucessões de
números complexos.
I
Se V e W são espaços racionais (resp. complexos) então
define-se o produto cartesiano V × W, que é um espaço
racional (resp. complexo).
I
Os comentários relativos às identificações, por exemplo
C{1,...,n} = Cn , ou Q × (Q × (Q × Q)) = Q4 , são análogos.
M UDANÇA DE ESCALARES
Já referimos que qualquer espaço vectorial complexo é
também um espaço vectorial real.
Por exemplo, C, que é um espaço vectorial complexo, é
portanto também um espaço vectorial real, cujos vectores são
descritos exactamente por duas coordenadas independentes:
a parte real e a parte imaginária dum número complexo.
Como veremos, isto significa que C, enquanto espaço vectorial
real, tem dimensão igual a 2 e por isso é “análogo” (dir-se-á
“isomorfo”) a R2 : cada vector a + ib de C corresponde ao vector
(a, b) de R2 (o plano de Argand pode ser identificado com o
plano xy).
Um sistema de números com as propriedades apropriadas
para definir a noção de espaço vectorial, de que Q, R e C são
exemplos, diz-se um corpo algébrico.
Nesta disciplina os corpos mais importantes serão R e C.
P ROPOSIÇ ÃO
Tudo o que foi visto a propósito de sistemas de equações
lineares, matrizes e determinantes, é válido quando R é
substituı́do por Q ou C.
A partir daqui, nesta aula, faremos uma digressão sobre o
conceito de corpo. Começamos pela definição rigorosa, que
é a seguinte:
D EFINIÇ ÃO
Um corpo algébrico, ou simplesmente um corpo, é um
conjunto K equipado com:
I
uma estrutura de grupo abeliano (ou seja, operações “+”,
“0” e “−” com propriedades análogas às das
correspondentes operações dos espaços vectoriais);
I
uma operação binária associativa e comutativa de
multiplicação que a cada par de elementos x, y ∈ K faz
corresponder o produto xy;
I
um elemento neutro denotado por 1 e designado por
unidade do corpo (ou seja, um elemento necessariamente
único e tal que 1x = x);
I
para cada x 6= 0 em K, um inverso x−1 (ou seja, um
elemento, necessariamente único, tal que xx−1 = 1).
E XEMPLO
I
Para cada número primo p o conjunto Zp = {0, 1, . . . , p − 1}
dos números inteiros módulo p é um corpo. Estes corpos
são finitos, ao contrário de Q, R e C.
I
O corpo Z2 tem apenas dois elementos e pode
relacionar-se com a álgebra de Boole dos valores lógicos 0
e 1: a multiplicação corresponde à conjunção e a soma
corresponde ao “ou exclusivo”.
D EFINIÇ ÃO
Um espaço vectorial sobre um corpo K é definido da mesma
forma que um espaço vectorial real mas com R substituı́do por
K.
E XEMPLO
Os exemplos básicos de espaço vectorial sobre um corpo K
são novamente semelhantes aos de espaço vectorial real:
I
K n = {(k1 , . . . , kn ) | k1 , . . . , kn ∈ K}.
I
Dado um conjunto A temos o espaço de funções
K A = {funções f : A → K}.
I
Se V e W são espaços vectoriais sobre K então define-se
o produto cartesiano V × W, que é um espaço vectorial
sobre K.
I
Os comentários relativos às identificações, por exemplo
K {1,...,n} = K n , ou (K × K) × (K × K) = K 4 , são análogos.
M ATRIZES E DETERMINANTES SOBRE UM CORPO
ARBITR ÁRIO
Quase tudo o que foi dito acerca de matrizes e determinantes é
válido se substituirmos R por um corpo arbitrário.
A excepção: para certos corpos K pode acontecer que a
propriedade da anulação deixe de ser equivalente à
alternância (mas a anulação implica sempre a alternância). Por
exemplo, isto acontece com o corpo Z2 : se duas colunas duma
matriz A forem iguais então pela alternância concluı́mos
apenas det(A) = − det(A), ou seja, det(A) + det(A) = 0, e em Z2
isto pode acontecer com det(A) = 1.
Mais geralmente, a alternância é uma propriedade mais fraca
do que a anulação precisamente quando o corpo tem
caracterı́stica igual a 2:
D EFINIÇ ÃO
Diz-se que um corpo tem caracterı́stica n se n for o menor
número natural tal que a soma 1 + . . . + 1 com n parcelas é igual
a 0; e diz-se que tem caracterı́stica 0 se não existir nenhum
número natural n com essa propriedade.
E XEMPLO
Q, R e C têm caracterı́stica 0. O corpo finito Zp tem
caracterı́stica p.
P ROPOSIÇ ÃO
Tudo o que foi dito a propósito de sistemas de equações
lineares, matrizes e determinantes é válido para qualquer
corpo de caracterı́stica diferente de 2.
Capı́tulo 11
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 2.2.
R EVIS ÃO
I
Um espaço vectorial sobre um corpo K, ou espaço
linear sobre K, é um conjunto V, cujos elementos são
denominados vectores, sobre o qual estão definidas
operações que incluem
I
I
adição de vectores e
multiplicação de vectores por elementos de K (os quais
são denominados escalares).
I
(Nesta disciplina usaremos maioritariamente o caso K = R
ou K = C, mas outros casos poderão aparecer de vez em
quando, por exemplo K = Q ou K = Zp para algum p.)
I
Todas as operações podem ser derivadas destas duas.
Em particular, os axiomas de espaço vectorial são tais que
V não pode ser o conjunto vazio e para cada x ∈ V o
elemento 0 = 0x é o elemento neutro da adição e
−x = (−1)x é o elemento simétrico (significando que V tem
a estrutura de grupo abeliano).
I
Além disso a multiplicação por escalar também é
associativa, ou seja, tem-se r(sx) = (rs)x para quaisquer
r, s ∈ K e x ∈ V, unitária, ou seja, 1x = x para cada x ∈ V, e
distributiva sobre a soma em cada uma das variáveis.
I
O exemplo principal de espaço vectorial sobre K visto na
aula passada foi o do espaço das funções f : A → K, onde
A é um conjunto A fixo.
I
Como vimos, este exemplo inclui muitos outros, em
particular os espaços K n , que podem ser identificados com
K {1,...,n} .
I
No caso K = R vimos que também o espaço Matm×n é
deste tipo.
I
Em geral, para um corpo K qualquer, designaremos o
espaço vectorial sobre K das matrizes m × n com entradas
em K por Matm×n (K). Este espaço pode ser identificado
com K {1,...,m}×{1,...,n} .
I
Vimos também o produto cartesiano V × W de dois
espaços vectoriais V e W sobre o mesmo corpo K.
I
Por exemplo, podemos identificar K m × K n com K m+n , pois
cada vector
((x1 , . . . , xm ), (y1 , . . . , yn )) ∈ K m × K n
é o mesmo, a menos de mudança de parênteses, que o
vector
(x1 , . . . , xm , xm+1 , . . . , xm+n ) ∈ K m+n ,
em que xm+1 = y1 , . . . , xm+n = yn .
I
Vamos agora estudar mais exemplos e em simultâneo
introduzir a noção importante de subespaço de um
espaço vectorial.
E XEMPLO
Os seguintes conjuntos também são espaços lineares com as
operações habituais:
I
O conjunto de todos os vectores de R2 que são múltiplos
de (1, 2).
I
O conjunto de todas as matrizes A ∈ Mat2×3 (C) tais que
a12 = 0.
I
O conjunto de todas as funções contı́nuas f : R → R.
Em todos estes casos tomámos para espaço vectorial um
subconjunto de um espaço conhecido, respectivamente R2 ,
Mat2×3 (C) e RR .
D EFINIÇ ÃO
Seja V um espaço vectorial sobre um corpo K. Um
subconjunto S ⊂ V diz-se um subespaço vectorial de V se
satisfizer as seguintes condições relativamente às operações
de espaço vectorial definidas em V:
1. 0 ∈ S.
2. Se x, y ∈ S então x + y ∈ S.
3. Se r ∈ K e x ∈ S então rx ∈ S.
P ROPOSIÇ ÃO
Se S for um subespaço vectorial de V então S, com as mesmas
operações de V, também é um espaço vectorial sobre K.
E XEMPLO
I
O conjunto de todas as funções f : R → R tais que f (2) = 0
é um subespaço de RR .
I
O subconjunto de Mat2×3 (C) formado pelas matrizes A tais
que a12 = 1 NÃO é um subespaço porque a matriz nula
não lhe pertence.
I
Qualquer recta em R2 que passe pela origem define um
subespaço de R2 .
I
Qualquer plano em R3 que passe pela origem define um
subespaço de R3 .
I
Nenhuma recta em R2 que não passe pela origem pode
ser um subespaço.
I
A parábola de equação y = x2 contém a origem mas não é
um subespaço de R2 .
E XEMPLO
São espaços vectoriais:
I
O conjunto P(K) de todos os polinómios
a0 + a1 x + a2 x2 + . . . + an xn
com coeficientes ai ∈ K (subespaço de K K ).
I
O conjunto Pn (K) de todos os polinómios de P(K) com
grau menor ou igual a n.
I
O conjunto de todas as sucessões de números reais {xn }
que satisfazem a relação de recorrência xn+2 = xn+1 + xn
(subespaço de RN ).
I
O conjunto C(a, b) de todas as funções contı́nuas
f : ]a, b[ → R, ou o conjunto C[a, b] de todas as funções
contı́nuas f : [a, b] → R (subespaços de R]a,b[ e R[a,b] ,
respectivamente).
I
O subespaço Ck (a, b) ⊂ C(a, b) de todas as funções reais
com derivada contı́nua até à ordem k ≥ 1 em ]a, b[.
E XEMPLO
São espaços vectoriais:
I
O conjunto de todas as funções y : ]a, b[ → R com segunda
derivada contı́nua e que são soluções da equação
diferencial
y00 + ry0 + y = 0 .
(Subespaço de C2 (a, b).)
I
O conjunto-solução de um sistema homogéneo Ax = 0
(subespaço de K n se a matriz A tiver n colunas).
D EFINIÇ ÃO
O conjunto-solução do sistema homogéneo cuja matriz dos
coeficientes é A designa-se por núcleo, ou espaço nulo, de A,
e denota-se por nuc(A).
E XEMPLO
O plano em R3 definido pela equação
x+y−z = 0
é o núcleo da matriz [1 1 − 1] e por isso é um subespaço de
R3 .
Como a equação Ax = 0 significa que o produto interno
(1, 1, −1) · (x, y, z) é nulo, deduz-se que este espaço é,
geometricamente, o plano que passa pela origem e é
perpendicular ao vector (1, 1, −1).
E XEMPLO
I
Se V 0 e V 00 forem subespaços de um espaço vectorial V
sobre um corpo K então a intersecção V 0 ∩ V 00 também é
um subespaço de V (é o maior subespaço de V contido
em V 0 e em V 00 ).
I
O conjunto-solução do sistema
x+y−z = 0
x−y+z = 0
é a recta que passa pela origem de R3 e que é a
intersecção dos dois subespaços (planos passando pela
origem de R3 ) definidos pelas equações x + y − z = 0 e
x − y + z = 0. Note-se que a intersecção é mesmo uma
recta, ou seja, os dois planos não são coincidentes,
porque os vectores (1, 1, −1) e (1, −1, 1) não são
colineares.
Assunto a retomar na próxima aula:
E XEMPLO
I
Se V 0 e V 00 forem subespaços de um espaço vectorial V
sobre um corpo K então o conjunto
V 0 + V 00 = {x + y | x ∈ V 0 , y ∈ V 00 }
é designado por soma de V 0 e V 00 e também é um
subespaço de V (é o menor subespaço de V que contém
V 0 e V 00 ).
Capı́tulo 12
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 2.2.
R EVIS ÃO
I
Vimos o conceito de subespaço de um espaço vectorial V
sobre um corpo K: é um subconjunto S ⊂ V que satisfaz as
três condições seguintes para quaisquer x, y ∈ S e qualquer
k ∈ K:
I
I
I
I
0∈S
x+y ∈ S
kx ∈ S
Vimos vários exemplos, incluindo o de núcleo de uma
matriz A ∈ Matm×n (K), que é um subespaço nuc(A) ⊂ K n
definido como o conjunto-solução do sistema homogéneo
Ax = 0.
E XEMPLO
O núcleo da matriz
A=
1
1 −1
1 −1
1
é a recta que passa pela origem de R3 e é a intersecção dos
dois planos que passam pela origem e são perpendiculares
aos vectores (1, 1, −1) e (1, −1, 1).
N OTA
Se B resulta de A por eliminação de Gauss então
nuc(B) = nuc(A) .
D EFINIÇ ÃO
Equações que relacionam as coordenadas dos vectores de K n
de modo a definir um subconjunto S ⊂ K n dizem-se equações
cartesianas para S.
E XEMPLO
I
No exemplo anterior a recta pode ser definida pelas
equações cartesianas correspondentes ao produto Ax = 0:
x+y−z = 0
x−y+z = 0 .
I
Mas uma vez que a eliminação de Gauss não altera o
conjunto-solução, também as equações seguintes são
equações cartesianas da recta:
x+y−z = 0
x = 0.
I
A equação cartesiana (não linear) x2 + y2 = 1 define a
circunferência de raio 1 com centro na origem em R2 .
D EFINIÇ ÃO
Uma descrição paramétrica de um subconjunto de S ⊂ K n é
uma função
f : P → Kn
cujo contradomı́nio é S, onde P é um conjunto designado por
espaço dos parâmetros.
E XEMPLO
A circunferência de raio igual a 1 e centro na origem de R2 é
descrita parametricamente pela função
f : [0, 2π[ → R2
definida por f (θ ) = (cos θ , sen θ ). A variável θ é o parâmetro.
E XEMPLO
A superfı́cie esférica de raio igual a 1 e centro na origem de R3
é descrita parametricamente pela função
f : [0, 2π[ × [0, π] → R3
definida por f (θ , ϕ) = (sen ϕ cos θ , sen ϕ sen θ , cos ϕ). Neste caso
há dois parâmetros θ e ϕ (por outras palavras, f é função de
duas variáveis).
I
Ao resolver sistemas de equações lineares
indeterminados a descrição do conjunto-solução que
obtemos em função das incógnitas livres é uma descrição
paramétrica cujos parâmetros são as incógnitas livres.
I
Em particular, podemos assim obter a descrição
paramétrica do núcleo de qualquer matriz.
I
Por outras palavras, converter a descrição por equações
cartesianas de um subespaço de K n numa descrição
paramétrica é o mesmo que resolver um sistema linear
homogéneo.
E XEMPLO
I
I
1
1 −1
Seja novamente A =
.
1 −1
1
Por eliminação de Gauss podemos obter a partir de A a
matriz
1
1 −1
.
0 −1
1
I
Há portanto uma incógnita livre, z, pelo que os vectores
(x, y, z) ∈ nuc(A) são descritos parametricamente, em
função do único parâmetro z, pela função f : R → R3 que a
cada z ∈ R faz corresponder o vector (0, z, z) = z(0, 1, 1).
I
O núcleo de A, que já sabı́amos ser uma recta, é portanto
a recta dos múltiplos de (0, 1, 1).
E XEMPLO
1 1 −1 .
I
Seja agora A =
I
Agora há duas incógnitas livres, y e z, pelo que os vectores
(x, y, z) ∈ nuc(A) são descritos parametricamente, em
função de dois parâmetros, pela função f : R2 → R3 que a
cada (y, z) ∈ R2 faz corresponder o vector
(−y + z, y, z) = y(−1, 1, 0) + z(1, 0, 1).
I
O núcleo de A, que já sabı́amos ser o plano perpendicular
ao vector (1, 1, −1) passando pela origem, é portanto o
subespaço de R3 que resulta de somar todos os múltiplos
de (−1, 1, 0) e (1, 0, 1).
I
Por outras palavras, é o plano definido pelas duas rectas
que passam pela origem e cujos pontos são os múltiplos
de (−1, 1, 0) e (1, 0, 1), respectivamente.
I
Cada ponto do plano corresponde à soma de dois
vectores, um de cada uma das rectas.
Mais um exemplo de construção de subespaços:
E XEMPLO
I
Se V 0 e V 00 forem subespaços de um espaço vectorial V
sobre um corpo K então o conjunto
V 0 + V 00 = {x + y | x ∈ V 0 , y ∈ V 00 }
é designado por soma de V 0 e V 00 e também é um
subespaço de V.
I
Em particular, a soma de duas rectas distintas que
passam pela origem em R2 é todo o R2 .
I
E a soma de duas rectas distintas que passam pela
origem em R3 é o plano definido pelas duas rectas.
P ROPOSIÇ ÃO
Os subespaços de R2 são:
I
Os subespaços triviais {0} e R2 ;
I
As rectas que passam pela origem.
Demonstração.
Já vimos que todos os subconjuntos indicados são exemplos
de subespaços.
Para ver que são os únicos possı́veis raciocinamos da seguinte
forma, relativamente a um subespaço V arbitrário:
I
Se V contiver um vector x 6= 0 então tem de conter todos
os seus múltiplos, os quais formam um subespaço V 0 que
é uma recta que passa pela origem: V 0 ⊂ S.
I
Se V contiver algum vector y fora da recta V 0 então
também contém a recta V 00 dos múltiplos de y: V 00 ⊂ S.
I
Então temos também V 0 + V 00 ⊂ V porque V 0 + V 00 é o
menor subespaço que contém V 0 e V 00 .
I
Uma vez que V 0 6= V 00 o subespaço V 0 + V 00 é todo o plano
R2 e portanto V = R2 .
P ROPOSIÇ ÃO
Os subespaços de R3 são:
I
Os subespaços triviais {0} e R3 ;
I
As rectas que passam pela origem;
I
Os planos que passam pela origem.
Demonstração.
Exercı́cio...
Voltemos à ideia de definir espaços por meio da soma de
múltiplos de vectores fixados à partida:
E XEMPLO
I
O conjunto dos múltiplos de (1, 2) é um subespaço de R2
(o primeiro exemplo que vimos na aula passada).
I
É um subespaço de R3 o conjunto V dos vectores que são
somas de múltiplos dos vectores (1, 2, 3) e (1, 1, 1), ou seja,
dos vectores que são da forma
(x, y, z) = a(1, 2, 3) + b(1, 1, 1)
com a, b ∈ R.
I
Denotando o subespaço dos múltiplos de (1, 2, 3) por V 0 e
o subespaço dos múltiplos de (1, 1, 1) por V 00 , o subespaço
V é igual à soma V 0 + V 00 .
D EFINIÇ ÃO
Sejam x1 , . . . , xn (com n ≥ 1) vectores de um espaço vectorial
sobre um corpo K. Chama-se combinação linear destes
vectores a qualquer vector x obtido como soma de múltiplos
deles:
x = a1 x1 + . . . + an xn .
Diz-se também que x é combinação linear de um conjunto
não vazio de vectores S se existirem n ≥ 1 vectores x1 , . . . , xn ∈ S
e n escalares a1 , . . . , an ∈ K tais que
x = a1 x1 + . . . + an xn .
Convenciona-se também dizer que o vector nulo 0 é
combinação linear do conjunto vazio.
O conjunto de todos os vectores de V que são combinação
linear de um conjunto S ⊂ V denota-se por L(S) designa-se por
expansão linear do conjunto S.
P ROPOSIÇ ÃO
A expansão linear L(S) de um subconjunto S de um espaço
vectorial V é um subespaço de V.
É na verdade o menor subespaço de V que contém S, ou seja,
se V 0 ⊂ V for um subespaço tal que S ⊂ V 0 então L(S) ⊂ V 0 .
D EFINIÇ ÃO
Seja V um espaço vectorial sobre um corpo K, seja V 0 ⊂ V um
subespaço e S ⊂ V 0 um subconjunto qualquer. Diz-se que V 0 é
gerado por S, ou que S gera V 0 , ou ainda que S é um
conjunto de geradores de V 0 , se V 0 = L(S).
E XEMPLO
A expansão linear de (um conjunto de) dois vectores x e y de
R3 é:
I
O espaço trivial {0} se x = y = 0;
I
A recta dos múltiplos de x se x 6= 0 e y for um múltiplo de x;
I
O plano definido por x e y se nenhum dos vectores for
múltiplo do outro.
P ROPOSIÇ ÃO
Sejam V 0 e V 00 subespaços de um espaço V. Então V 0 + V 00 é o
menor subespaço de V que contém V 0 e V 00 :
V 0 + V 00 = L(V 0 ∪ V 00 )
Demonstração.
Exercı́cio...
E XERC ÍCIO
I
Verifique se o vector (1, 1, 1) ∈ R3 pode ser obtido como
combinação linear dos vectores (1, 0, 1), (1, 2, 3) e (0, 2, 2).
I
Resolução: escrevendo os vectores como colunas,
queremos encontrar escalares x, y e z tais que
 
 
   
1
1
0
1
x 0 +y 2 +z 2  =  1  .
1
3
2
1
I
Esta condição é equivalente a escrever

   
1 1 0
x
1
 0 2 2  y  =  1 
1 3 2
z
1
e portanto temos apenas de resolver um sistema de
equações lineares!
E XERC ÍCIO ( CONT.)
I
A matriz aumentada é


1 1 0 1
 0 2 2 1 .
1 3 2 1
I
Por eliminação de Gauss transformamos esta matriz:

 

1 1 0 1
1 1 0 1
→ 0 2 2 1 → 0 2 2 1 
0 2 2 0
0 0 0 −1
I
A caracterı́stica da matriz aumentada é superior à da
matriz dos coeficientes, pelo que o sistema é impossı́vel.
I
Logo, o vector (1, 1, 1) não é combinação linear dos outros
três vectores dados.
C ASO GERAL
A expansão linear de um conjunto finito de vectores
S = {a(1) , . . . , a(n) } de K m é igual ao conjunto de todos os
vectores (b1 , . . . , bm ) que (escritos como colunas) são da forma
seguinte para alguma lista de escalares x1 , . . . , xn ∈ K:
 (n) 
 (1) 

a1
a1
b1
 . 
 . 
 .. 
 .  = x1  ..  + · · · + xn  .. 
(n)
(1)
bm
am
am

(j)
Ou seja, definido a matriz A tal que aij = ai conclui-se que a
expansão linear de S é o conjunto dos vectores b que podem
ser escritos na forma
b = Ax
para algum vector x ∈ K n .
E XEMPLO
Por outras palavras, L(S) é o espaço dos vectores b para os
quais o sistema
Ax = b
é possı́vel.
D EFINIÇ ÃO
Seja A ∈ Matm×n (K). O espaço das colunas de A, denotado
por col(A), é a expansão linear do conjunto das colunas de A.
Por outras palavras, o espaço das colunas de A é o conjunto
dos vectores b ∈ K m para os quais é possı́vel o sistema linear
Ax = b .
E XERC ÍCIO ( APLICAÇ ÃO A ESPAÇOS DIFERENTES DE K n )
I
I
Verificar que em P2 (R) o polinómio p(x) = 1 + x + x2 é
combinação linear dos polinómios q(x) = 1 + 2x + 3x2 e
r(x) = x + 2x2 .
Resolução: a combinação linear
a(1 + 2x + 3x2 ) + b(x + 2x2 ) = 1 + x + x2
rescreve-se na forma
a + (2a + b)x + (3a + 2b)x2 = 1 + x + x2 .
I
Portanto o sistema

= 1
 a
2a + b = 1 ,

3a + 2b = 1
se for possı́vel, dar-nos-á valores de a e b.
E XERC ÍCIO ( CONT.)
I
Na forma matricial obtemos a matriz aumentada


1 0
1
 2 1
1 
3 2
1
(Note-se que as colunas da matriz são os vectores dos
coeficientes de p(x), q(x) e r(x), respectivamente —
generalize.)
I
Este sistema é determinado e a solução é o vector
(a, b) = (1, −1), pelo que se conclui p(x) = q(x) − r(x).
E XEMPLO
I
Já vimos que o núcleo da matriz A = 1 1 −1
consiste dos vectores da forma
(−y + z, y, z) = y(−1, 1, 0) + z(1, 0, 1) com y, z ∈ R.
I
Portanto nuc(A) coincide com o espaço das colunas da
matriz


−1 1
B= 1 0  .
0 1
S LOGAN
Obter uma descrição paramétrica dum subespaço vectorial
V ⊂ K n é o mesmo que encontrar uma matriz B com n linhas tal
que V = col(B).
Também podemos percorrer o sentido inverso:
S LOGAN
Encontrar um conjunto de equações cartesianas para um
subespaço V ⊂ K n é o mesmo que encontrar uma matriz A tal
que nuc(A) = V.
E XEMPLO ( EXERC ÍCIO )
I
Obter equações cartesianas para o espaço das colunas de


1 2 3
 1 0 1 

B=
 2 −1 1  .
1 1 1
I
Resolução: os vectores de col(B) são os vectores
(w, x, y, z) ∈ R4 para os quais é possı́vel o sistema linear
cuja matriz aumentada é a seguinte:


1 2 3
w
 1 0 1
x 

.
 2 −1 1
y 
1 1 1
z
I
Apliquemos eliminação de Gauss:
 

1 2 3
1 2
3
w
w
 1 0 1

x 
−w + x

 →  0 −2 −2
 2 −1 1
y   0 −5 −5
−2w + y
z
−w + z
1 1 1
 0 −1 −2
1 2
3
w
 0 −1 −2
−w + z
→
 0 −2 −2
−w + x
0 −5 −5
−2w + y

1 2
3
w
 0 −1 −2
−w + z
→
 0 0
2
w + x − 2z
0 0
5
3w + y − 5z

1 2
3
w
 0 −1 −2
−w + z
→
 0 0
2
w + x − 2z
1
5
0 0
0
2w− 2x+y








 .







I
Olhando para a matriz em escada de linhas obtida,


1 2
3
w
 0 −1 −2
−w + z 

,
 0 0
w + x − 2z 
2
1
5
0 0
0
2w− 2x+y
vemos que a caracterı́stica da matriz aumentada é igual à
caracterı́stica da matriz dos coeficientes se e só se
1
5
w− x+y = 0 ,
2
2
sendo esta portanto uma equação cartesiana para col(B).
I
A matriz A = [1/2 − 5/2 1 0] é tal que nuc(A) = col(B).
Capı́tulo 13
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 2.2.
R EVIS ÃO
I
Dada uma matriz A, nuc(A) é um espaço cuja descrição
mais imediata é por equações cartesianas.
I
Dada uma matriz B, col(B) é um espaço cuja descrição
mais imediata é paramétrica.
Na aula passada vimos como:
I
I
I
mudar de descrições por equações cartesianas para
descrições paramétricas (resolvendo um sistema
homogéneo)
e vice-versa (estudando um sistema quanto à possibilidade
ou impossibilidade).
D EFINIÇ ÃO
Seja A ∈ Matm×n (K). O espaço das linhas de A é col(AT ) e
denota-se por lin(A).
D EFINIÇ ÃO
Seja S ⊂ K n um conjunto qualquer. O complemento ortogonal
S⊥ é o conjunto de todos os vectores x ∈ K n tais que x · a = 0
para qualquer a ∈ S.
P ROPOSIÇ ÃO
Sejam S um subconjunto de K n e A ∈ Matm×n (K).
1. S⊥ é um subespaço de K n .
2. S⊥ = L(S)⊥ .
3. nuc(A) = (lin(A))⊥ .
E XEMPLO
I
Em qualquer espaço K n temos (K n )⊥ = {0} e {0}⊥ = K n .
I
Em R3 o complemento ortogonal de uma recta que passa
pela origem é o plano que passa pela origem e é
perpendicular à recta dada.
E XEMPLO
Seja A =
1 1 −1
.
1 −1 1
O espaço das linhas de A é o plano gerado em R3 pelos
vectores (1, 1, −1) e (1, −1, 1).
lin(A) é ortogonal ao núcleo de A, que é a recta que passa pela
origem e é perpendicular a este plano (como vimos na aula
anterior, é a recta dos múltiplos de (0, 1, 1)).
I SOMORFISMOS
Vamos finalmente definir o que significa rigorosamente que
dois espaços podem ser “identificados”.
A ideia é simples: dois espaços são identificáveis quando a
menos duma “mudança de nome” dos vectores eles são o
mesmo.
Suponha-se que temos dois espaços V e W (sobre um corpo
K) e uma função de mudança de nome f : V → W.
Para que isto faça sentido é necessário que:
1. f seja bijectiva (ou seja, define um emparelhamento
perfeito entre V e W);
2. f (x + y) coincida com a soma f (x) + f (y) em W;
3. f (0) seja o vector nulo de W;
4. f (−x) seja o simétrico de f (x) em W;
5. f (kx) coincida com kf (x) em W.
Na verdade basta exigir as condições 1,2 e 5 (porquê?).
E XEMPLO
As várias identificações que temos vindo a fazer são
claramente deste tipo. Por exemplo, a função
 que
 a cada
x
3
vector (x, y, z) de R atribui a matriz coluna  y  de Mat3×1
z
tem todas as propriedades exigidas.
N OTA
Existem outras identificações menos óbvias, como veremos.
D EFINIÇ ÃO
Sejam V e W espaços vectoriais sobre um corpo K.
Um isomorfismo de V para W é uma função bijectiva
f :V →W
que é linear, ou seja, satisfaz as duas propriedades seguintes
para quaisquer x, y ∈ V e k ∈ K:
1. f (x + y) = f (x) + f (y),
2. f (kx) = kf (x).
N OTA
A propriedade da linearidade é equivalente a preservar
combinações lineares de pares de vectores, ou seja, f é
linear se e só se para quaisquer x, y ∈ V e k, l ∈ K se tiver
f (kx + ly) = kf (x) + lf (y) .
(Esta equivalência aplica-se a qualquer função, não apenas a
funções bijectivas — vimos um exemplo a propósito dos
determinantes.)
E XEMPLO
I
A função que a cada polinómio
p(x) = a0 + . . . + an xn ∈ Pn (K)
faz corresponder o vector (a0 , . . . , an ) ∈ K n+1 é um
isomorfismo.
I
A função que a cada matriz A ∈ Matm×n (K) faz
corresponder o vector
(a11 , . . . , a1n , a21 , . . . , a2n , . . . , am1 , . . . , amn ) ∈ K mn
é um isomorfismo (o vector contém as entradas da matriz
linha a linha, mas também poderia ser coluna a coluna ou
qualquer outra ordem fixada à partida — cada escolha
conduz a um isomorfismo diferente).
P ROPOSIÇ ÃO
1. Uma função bijectiva f é um isomorfismo se e só se f −1 for
um isomorfismo.
2. Se f : V → W for um isomorfismo então para quaisquer
vectores y, x1 , . . . xn ∈ V e quaisquer escalares a1 , . . . an ∈ K
tem-se
y = a1 x1 + . . . + an xn ⇐⇒ f (y) = a1 f (x1 ) + . . . + an f (xn ) .
E XEMPLO
Pela proposição anterior, para ver se o polinómio
p(x) = 1 + x + x2
de P2 (R) é combinação linear dos polinómios
q(x) = 1 + 2x + 3x2
r(x) = x + 2x2
basta ver se o vector (1, 1, 1) de R3 é combinação linear de
(1, 2, 3) e (0, 1, 2), ou seja, ver se é possı́vel o sistema cuja
matriz aumentada é


1
1 0
 2 1
1 .
3 2
1
(Este é um exemplo da aula passada, onde já tı́nhamos
constatado que as colunas desta matriz são os vectores de
coeficientes dos polinómios.)
E XERC ÍCIO
Seja S ⊂ V um subconjunto de um espaço vectorial V sobre um
corpo K e seja f : V → W um isomorfismo. Mostre que V = L(S)
se e só se W = L(f (S)).
P ROPOSIÇ ÃO
1. A função identidade id : V → V (ou seja, a que é definida
por id(x) = x) é um isomorfismo do espaço V nele próprio.
f
g
2. Sejam V → V 0 → V 00 isomorfismos de espaços vectoriais
sobre um corpo K. Então a função composta g ◦ f : V → V 00
é um isomorfismo.
D EFINIÇ ÃO
Dois espaços vectoriais V e W sobre um corpo K dizem-me
isomorfos, e escrevemos V ∼
= W, se existir um isomorfismo
f : V → W.
P ROPOSIÇ ÃO
A relação de isomorfismo é de equivalência:
1. Reflexiva: V ∼
=V
2. Simétrica: V ∼
=W ⇒W ∼
=V
3. Transitiva: V ∼
= V0 ∼
= V 00 ⇒ V ∼
= V 00
E XEMPLO
I
I
Pn (K) ∼
= K n+1
Matm×n (K) ∼
= K mn
E XEMPLO
I
A função que a cada ponto (0, z, z) da recta dos múltiplos
de (0, 1, 1) ∈ R3 faz corresponder z ∈ R é um isomorfismo
dessa recta para R.
I
A função que a cada ponto y(1, 1, −1) + z(1, −1, 1) do plano
P = L((1, 1, −1), (1, −1, 1)) ⊂ R3 faz corresponder o ponto
(y, z) ∈ R2 é um isomorfismo de P para R2 .
E XEMPLO
I
A função que a cada vector (x, y, z) ∈ R3 atribui o vector
x(1, 1, 1) + y(1, 1, 0) + z(1, 0, 0) é um isomorfismo de R3 em
R3 .
I
Mas a função que a cada vector (x, y, z) ∈ R3 atribui o
vector x(1, 1, 1) + y(1, 0, 1) + z(2, 1, 2) não é um isomorfismo
de R3 em R3 porque os três vectores são complanares.
Capı́tulo 14
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
I
I
Secção 2.3.
Pergunta: será que R3 ∼
= R2 ? A resposta é, como veremos,
negativa!
Já vimos exemplos de espaços isomorfos. O que vamos
ver a seguir dar-nos-á formas de determinar que
determinados espaços não são isomorfos.
D EFINIÇ ÃO
Seja V um espaço vectorial sobre um corpo K e seja
x1 , . . . , xn
uma lista de vectores de V (n ≥ 1).
Diz-se que esta lista de vectores é linearmente independente
(ou simplesmente que os vectores são linearmente
independentes) se a única forma de obter o vector nulo como
combinação linear de x1 , . . . , xn é tendo todos os escalares da
combinação linear nulos:
a1 x1 + · · · + an xn = 0
=⇒
a1 = · · · = an = 0 .
No caso contrário diz-se que os vectores x1 , . . . , xn são
linearmente dependentes.
P ROPOSIÇ ÃO
Se uma lista de vectores contiver repetições então é
linearmente dependente.
Demonstração.
Seja x1 , . . . , xi , . . . , xj , . . . , xn uma lista com xi = xj . Então tem-se
a1 x1 + · · · + ai xi + · · · + aj xj + · · · + an xn = 0
com ai = 1, aj = −1 e ak = 0 para k 6= i e k 6= j.
D EFINIÇ ÃO
Um subconjunto S ⊂ V diz-se linearmente independente se
qualquer lista de vectores distintos x1 , . . . , xn ∈ S for linearmente
independente. No caso contrário diz-se que S é linearmente
dependente.
P ROPOSIÇ ÃO
Se 0 ∈ S então S é linearmente dependente.
Demonstração.
0 é combinação linear de 0 com coeficiente não nulo, pois
k0 = 0 para qualquer escalar k.
T EOREMA
Seja a1 , . . . , an uma lista de vectores de K m , para algum corpo K
(n ≥ 1).
Esta lista é linearmente independente se e só se a matriz A de
dimensão m × n cuja coluna j é, para cada j ∈ {1, . . . , n}, o
vector aj , tiver núcleo igual a {0}.
Demonstração.
Os vectores são os seguintes:


a11


a1 =  ... 
...


a1n


an =  ... 
amn
am1
A combinação linear k1 a1 + · · · + kn an é o mesmo que o vector
Ak e portanto a afirmação
k1 a1 + · · · + kn an = 0
⇒
k1 = . . . = kn = 0
é equivalente a
Ak = 0
⇒
k=0,
ou seja, é equivalente a ter-se nuc(A) = {0}.
E XERC ÍCIO
Verifique se o conjunto {x, y, z} formado pelos três vectores de
R3
x = (1, 1, 1)
y = (1, 1, −1)
z = (1, 2, −1)
é linearmente independente.
R ESOLUÇ ÃO
A matriz cujas colunas são os três vectores x, y e z, por esta
ordem, é


1 1
1
2 
A= 1 1
1 −1 −1
e por eliminação de Gauss (eliminando as entradas 21 e 31
pela regra da eliminação e depois permutando as linhas 2 e 3)
transforma-se na matriz


1 1
1
A0 =  0 −2 −2  .
0 0
1
A0 tem caracterı́stica igual ao número de colunas e portanto o
sistema homogéneo que tem A0 como matriz de coeficientes é
determinado, ou seja, o núcleo de A0 (= nuc(A)) é nulo e
conclui-se que os vectores x, y e z são linearmente
independentes.
P ROPOSIÇ ÃO
Seja f : V → W um isomorfismo e S ⊂ V um subconjunto
qualquer.
Então S é linearmente independente se e só se f (S) for
linearmente independente.
E XERC ÍCIO
Verifique se o conjunto {p, q, r} ⊂ P2 (R) formado pelos
polinómios
p(x) = 1 + x + x2
q(x) = 1 + x − x2
r(x) = 1 + 2x − x2
é linearmente independente.
R ESOLUÇ ÃO
Uma vez que a função que a cada polinómio a + bx + cx2 atribui
o vector de coeficientes (a, b, c) é um isomorfismo de P2 (R)
em R3 , aplicando o teorema anterior concluimos que apenas
temos de determinar se o subconjunto de R3 formado pelos
vectores de coeficientes dos polinómios dados, ou seja,
(1, 1, 1), (1, 1, −1) e (1, 2, −1), é linearmente independente em
R3 . Já vimos no exercı́cio anterior que assim é, pelo que
{p, q, r} é linearmente independente em P2 (R).
T EOREMA
Seja V um espaço vectorial sobre um corpo K e seja S ⊂ V um
subconjunto.
Então S é linearmente dependente se e só se existir x ∈ S tal
que x ∈ L(S \ {x}).
Demonstração.
Vamos primeiro demonstrar a seguinte implicação: se S for
linearmente dependente então existe x ∈ S tal que
x ∈ L(S \ {x}). Para tal usamos como hipótese o antecedente
da implicação (ou seja, assumimos que S é linearmente
dependente) e vamos, usando essa hipótese, concluir o
consequente da implicação (ou seja, que existe x ∈ S tal que
x ∈ L(S \ {x})). A hipótese de S ser linearmente dependente
permite-nos escolher n vectores distintos x1 , . . . , xn de S e
escalares a1 , . . . ,an tais quea1 x1+ · · · + an xn = 0 com a1 6= 0.
Logo, x1 = − aa12 x2 + . . . + − aan1 xn e, como todos os vectores
xi são distintos, concluimos x1 ∈ L(S \ {x1 }), ou seja, obtivemos
o consequente da implicação.
Demonstração.
(Continuação.) Vamos agora demonstrar a implicação no
sentido contrário: se existe x ∈ S tal que x ∈ L(S \ {x}) então S é
linearmente dependente. Usamos como hipótese o
antecedente da implicação (ou seja, assumimos que existe
x ∈ S tal que x ∈ L(S \ {x})) e vamos, usando essa hipótese,
concluir que S é linearmente dependente. A hipótese
permite-nos afirmar que existem um vector x ∈ S, n vectores
distintos y1 , . . . , yn de S \ {x} e escalares a1 , . . . , an tais que
x = a1 y1 + . . . + an yn . (Pudemos assumir que todos os vectores
yi são distintos porque se não fossem bastaria pôr em
evidência cada vector em todas as parcelas em que ocorre e
obter assim uma combinação linear de vectores distintos.)
Então tem-se x + (−a1 )y1 + . . . + (−an )yn = 0, ou seja, obtivemos
uma combinação linear nula de vectores distintos de S na qual
pelo menos um coeficiente (o de x) é não nulo, pelo que S é
linearmente dependente.
E XEMPLO
I
Em R3 quaisquer três vectores x, y e z são linearmente
dependentes se e só forem complanares.
I
Em R2 quaisquer dois vectores x e y são linearmente
dependentes se e só forem colineares.
Capı́tulo 15
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 2.3.
T EOREMA
Em K m qualquer lista de n vectores com m < n é linearmente
dependente.
Demonstração.
Dada uma tal lista a(1) , . . . , a(n) , a correspondente matriz A de
(j)
dimensão m × n cujas colunas são estes vectores (aij = ai )
tem núcleo necessariamente diferente de {0}.
C OROL ÁRIO
Se m 6= n então K m ∼
6 Kn.
=
T EOREMA
Em K m nenhum conjunto de vectores {a(1) , . . . , a(n) } com m > n
pode gerar o espaço todo.
Demonstração.
(j)
Uma vez que m > n, a matriz A definida por aij = ai tem
sempre caracterı́stica limitada pelo número de colunas e
existirão vectores b para os quais o sistema Ax = b tem matriz
aumentada com caracterı́stica maior do que n. Um tal sistema
é impossı́vel e portanto um tal vector b não é gerado pelos
vectores a(j) .
C OROL ÁRIO
Em K n os conjuntos de geradores linearmente independentes
têm exactamente n vectores.
D EFINIÇ ÃO
Seja V um espaço vectorial sobre um corpo K. Um conjunto
B ⊂ V diz-se uma base de V se for linearmente independente e
L(B) = V.
Se existir uma base finita diz-se que V tem dimensão finita.
Se não existir uma base finita diz-se que V tem dimensão
infinita.
N OTA
Veremos daqui a pouco que se existir uma base infinita então
não pode existir uma base finita e portanto qualquer espaço
que tenha uma base infinita é de dimensão infinita de acordo
com a definição dada acima.
E XEMPLO
K n tem dimensão finita, pois o conjunto finito formado pelos n
vectores
e1 = (1, 0, 0, . . . , 0, 0)
e2 = (0, 1, 0, . . . , 0, 0)
e3 = (0, 0, 1, . . . , 0, 0)
..
.
en−1 = (0, 0, 0, . . . , 1, 0)
en = (0, 0, 0, . . . , 0, 1)
é uma base. Chama-se a esta a base canónica de K n .
E XEMPLO
1. Pn (K) tem dimensão finita, pois o conjunto finito formado
pelos n + 1 polinómios
1, x, x2 , . . . , xn
é uma base. Chama-se a esta a base canónica de
Pn (K).
2. P(K) tem uma base infinita formada pelos polinómios
1, x, x2 , . . .
Chama-se-lhe a base canónica de P(K).
E XEMPLO
O conjunto formado pelos vectores
(1, 0, 0)
(1, 1, 0)
(1, 1, 1)
é uma base de K 3 .
P ROPOSIÇ ÃO
Um conjunto de n vectores distintos a(1) , . . h. , a(n)i de K n é uma
(j)
base se e só se for invertı́vel a matriz A = ai .
Demonstração.
A matriz A é quadrada e por isso tem-se col(A) = K n se e só se
a caracterı́stica de A for n se e só se nuc(A) = {0}.
C OROL ÁRIO
Um subconjunto S ⊂ K n é uma base de K n se e só se se
verificarem quaisquer duas das condições seguintes:
1. S tem n elementos;
2. S é linearmente independente;
3. S gera K n .
O teorema seguinte diz respeito a espaços de qualquer
dimensão:
T EOREMA
Seja f : V → W um isomorfismo e seja B ⊂ V um subconjunto
qualquer. Então B é uma base de V se e só se a sua imagem
f (B) for uma base de W.
Demonstração.
Já vimos que qualquer isomorfismo f tem as propriedades
seguintes:
I
L(B) = V se e só se L(f (B)) = W;
I
B é linearmente independente se e só se L(B) for
linearmente independente.
A conjunção destas propriedades é precisamente o resultado
pretendido.
T EOREMA
Seja V um espaço vectorial sobre um corpo K, seja B ⊂ V uma
base formada por n vectores
e1 , . . . , en
e seja x ∈ V um vector qualquer. Então existe uma e uma só
lista
k1 , . . . , kn
de escalares tais que
k1 e1 + · · · + kn en = x .
Demonstração.
Uma vez que B é uma base sabemos que x é combinação
linear dos vectores de B. Suponha-se então que temos
x = k1 e1 + · · · + kn en
x = k10 e1 + · · · + kn0 en .
Então
0 = x−x
= (k1 e1 + · · · + kn en ) − (k10 e1 + · · · + kn0 en )
= (k1 − k10 )e1 + · · · + (kn − kn0 )en ,
pelo que k1 − k10 = . . . = kn − kn0 = 0.
N OTA
Por vezes iremos precisar de especificar uma ordem para os
vectores de uma base
{e1 , . . . , en } .
Nesse caso dizemos que é uma base ordenada e escrevemos
a lista ordenada de vectores da base na forma
(e1 , . . . , en ) .
D EFINIÇ ÃO
Seja V um espaço vectorial sobre um corpo K e seja
(e1 , . . . , en )
uma base ordenada de V. Dado um vector x ∈ V diz-se que as
coordenadas de x nessa base são os escalares da única
combinação linear
x = k1 e1 + · · · + kn en .
O escalar ki diz-se a i-ésima coordenada nessa base
ordenada. O vector (k1 , . . . , kn ) ∈ K n diz-se o vector de
coordenadas de x nessa base.
T EOREMA
Seja V um espaço vectorial sobre um corpo K com uma base
ordenada (e1 , . . . , en ).
A função
C : V → Kn
que a cada vector x ∈ V faz corresponder o vector de
coordenadas de x na base dada é um isomorfismo.
O inverso é a função C−1 : K n → V que a cada vector
(k1 , . . . , kn ) ∈ K n
atribui a combinação linear k1 e1 + . . . + kn en .
N OTA
Simbolicamente podemos escrever a combinação linear
k1 e1 + . . . + kn en
na forma de um produto de uma matriz linha (simbólica porque
as entradas são vectores) por uma matriz coluna:


k1


e1 · · · en  ... 
kn
E XERC ÍCIO
Seja V um espaço vectorial V sobre um corpo K. Verifique que
existe uma álgebra de matrizes vectoriais (matrizes cujas
entradas são vectores de V) que as relaciona com as matrizes
escalares (as matrizes habituais, cujas entradas são escalares
de K):
1. Se S for uma matriz vectorial de dimensão m × n defina o
que se deve entender por multiplicação de AS ou SA
quando A for uma matriz escalar de dimensão p × m ou
n × p, respectivamente.
2. Verifique que se S for uma matriz vectorial e A e B forem
matrizes escalares com as dimensões apropriadas para
que os produtos indicados estejam definidos então temos
(SA)B = S(AB), (AS)B = A(SB) e (AB)S = A(BS).
3. Defina adição de matrizes vectoriais e mostre que o
produto de matrizes é distributivo sobre a soma para
qualquer das combinações possı́veis de matrizes
vectoriais e escalares.
E XERC ÍCIO
(Continuação.)
4. Denotando por Matm×n (V) o conjunto das matrizes m × n
com entradas em V, mostre que este conjunto é um
espaço vectorial sobre K.
Demonstração.
É evidente que as funções C e C−1 são de facto inversas uma
da outra e portanto são bijecções.
Para concluir o resultado que pretendemos demonstrar basta
por isso verificar que uma delas é linear.
Uma vez que a função C−1 é definida por um produto de
matrizes
C−1 (k) = [e1 . . . en ]k
concluı́mos imediatamente, pela distributividade do produto
sobre a soma, que
C−1 (k + k0 ) = [e1 . . . en ](k + k0 ) = [e1 . . . en ]k + [e1 . . . en ]k0
= C−1 (k) + C−1 (k0 ) .
E, claro, se r for um escalar teremos C−1 (rk) = rC−1 (k).
E XERC ÍCIO
1. Verifique directamente que a função C é linear (foi isto que
fizemos na aula).
2. Idém para a função C−1 , sem recorrer aos resultados do
exercı́cio sobre álgebra de matrizes vectoriais.
C OROL ÁRIO
Se um espaço vectorial tiver uma base com n vectores então
todas as bases têm n vectores.
Se um espaço tiver uma base infinita então tem dimensão
infinita.
E XEMPLO
O espaço P(K) tem uma base infinita e portanto tem
dimensão infinita.
D EFINIÇ ÃO
Um espaço vectorial com uma base de n vectores diz-se que
tem dimensão igual a n.
Podemos assim concluir resultados análogos aos do inı́cio
desta aula, para espaços de dimensão m quaisquer em vez
apenas de K m :
C OROL ÁRIO
Seja V um espaço de dimensão m.
1. Qualquer conjunto de n vectores de V com m < n é
linearmente dependente.
2. Nenhum conjunto de n vectores de V com m > n pode
gerar o espaço V.
C OROL ÁRIO
Dois espaços de dimensão finita V e W são isomorfos se e só
se tiverem a mesma dimensão.
C OROL ÁRIO
Se V for um espaço de dimensão n então um subconjunto
S ⊂ V é uma base se e só se se verificarem quaisquer duas
das condições seguintes:
1. S tem n elementos;
2. S é linearmente independente;
3. S gera V.
E XERC ÍCIO
1. Mostre que ((1, 2, 1), (2, 3, −1), (3, 4, 0)) é uma base
(ordenada) de R3 .
2. Calcule as coordenadas do vector (1, 1, 1) nessa base.
3. Mostre que (1 + 2x + x2 , 2 + 3x − x2 , 3 + 4x) é uma base de
P2 (R).
4. Calcule as coordenadas do polinómio 1 + x + x2 nessa
base.
Capı́tulo 16
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 2.3 e 2.4.
R EVIS ÃO
I
Conceito de base de um espaço vectorial sobre K.
I
I
Dimensão de um espaço vectorial: n ∈ N ou infinita.
Escrevemos dim(V) = n ou dim(V) = ∞.
dim(V) = n ⇐⇒ V ∼
= Kn.
I
Se V e W tiverem dimensão finita então
V∼
= W ⇐⇒ dim(V) = dim(W) .
I
Se W for um subespaço de V e dim(V) = n então
dim(W) ≤ n.
I
Se V contiver um subconjunto S ⊂ V infinito e linearmente
independente então dim(V) = ∞.
E XEMPLO
1. O espaço das sucessões de escalares x : N → K tem
dimensão infinita porque o conjunto das sucessões
seguintes é linearmente independente:
100000000 . . .
010000000 . . .
001000000 . . .
..
.
2. Para qualquer conjunto infinito A, o espaço K A tem
dimensão infinita: é linearmente independente o conjunto
das funções fa : A → K definidas por
1 se b = a
fa (b) =
0 se b 6= a
3. Por exemplo, o espaço real RR das funções reais de
variável real tem dimensão infinita.
E XEMPLO
4. O espaço real das funções contı́nuas f : R → R tem
dimensão infinita: por exemplo, o conjunto das funções da
forma sen nt (n ∈ N) é linearmente independente.
Veremos isto no capı́tulo 4 da matéria, mas para já
indicamos uma forma simples de testar a independência
linear de qualquer conjunto finito destas funções.
Um exemplo: o conjunto {sen t, sen 2t, sen 3t} é linearmente
independente, pois é possı́vel escolher três valores de t,
digamos t1 , t2 e t3 , para os quais a matriz


sen t0 sen 2t0 sen 3t0
 sen t1 sen 2t1 sen 3t1 
sen t2 sen 2t2 sen 3t2
é não-singular. (Exercı́cio: encontre valores apropriados
de t1 , t2 e t3 .)
E XEMPLO
5. Podemos usar o método anterior para demonstrar a
independência linear de qualquer conjunto finito de
funções {f1 , . . . , fn } ⊂ K A , onde A é um conjunto infinito.
O conjunto é linearmente independente se e só se
existirem n elementos a1 , . . . , an ∈ A tais que é não-singular
a matriz


f1 (a1 ) . . . fn (a1 )


..
..
..


.
.
.
f1 (an ) . . . fn (an )
Cuidado! Se o conjunto for linearmente dependente será
impossı́vel encontrar tais elementos de A e temos de
demonstrar a dependência linear de outra forma.
6. Exemplo: o conjunto de funções reais de variável real
formado pela função constante igual a 1 e pelas funções
sen2 x e cos2 x é linearmente dependente devido à
igualdade fundamental da trigonometria sen2 x + cos2 x = 1.
BASES DE ESPAÇOS ASSOCIADOS A MATRIZES
T EOREMA
Seja B uma matriz m × n com entradas num corpo K. Uma
base de col(B) é constituı́da pelo subconjunto do conjunto das
colunas de B que no processo de eliminação de Gauss se
transformam em colunas com pivot.
Demonstração.
Feita no quadro. (Exercı́cio: recorde a demonstração.)
E XEMPLO
Seja

1 1 2
B= 1 0 1  .
−1 1 0

Usando três vezes a regra da eliminação obtemos a matriz


1 1
2
B0 =  0 −1 −1  ,
0 0
0
cujas colunas com pivot estão assinaladas a vermelho. São as
colunas 1 e 2 de B0 e portanto uma base de col(B) é o conjunto
formado pelas colunas 1 e 2 de B:
{(1, 1, −1), (1, 0, 1)} .
Para obter uma base de lin(B) podemos calcular uma base de
col(BT ), mas há outro método:
T EOREMA
Seja B uma matriz m × n com entradas num corpo K. Uma
base de lin(B) é constituı́da pelo subconjunto do conjunto das
linhas não nulas de B0 , onde B0 é uma qualquer matriz em
escada de linhas obtida de B por eliminação de Gauss.
Demonstração.
Feita no quadro. (Exercı́cio: recorde a demonstração.)
E XEMPLO
Seja


1 1 2
B= 1 0 1  .
−1 1 0
Usando três vezes a regra da eliminação obtemos a matriz em
escada de linhas


1 1
2
B0 =  0 −1 −1  .
0 0
0
Portanto uma base de lin(B) é o conjunto formado pelas linhas
não nulas de B0 : {(1, 1, 2), (0, −1, −1)}.
N OTA
A base obtida não está contida no conjunto de linhas de B, ao
contrário do que se passará se calcularmos uma base do
espaço das colunas de BT pelo método anterior.
E XERC ÍCIO
Obtenha um subconjunto de S = {1 + x − x2 , 1 + x2 , 2 + x} que
seja uma base de L(S) ⊂ P(R).
Resolução: escolhemos o primeiro dos métodos (o do espaço
das colunas aplicado aos vectores de coeficientes dos
polinómios) porque é esse que nos dá uma base contida num
conjunto de vectores dado.
Os vectores de coeficientes são (1, 1, −1), (1, 0, 1) e (2, 1, 0) e
são, por esta ordem, as colunas da matriz B dos dois exemplos
anteriores. Uma vez que já calculámos uma base do espaço
das colunas de B,
{(1, 1, −1), (1, 0, 1)} ,
concluimos que o conjunto {1 + x − x2 , 1 + x2 } é uma base de
L(S) contida em S, conforme pretendido.
T EOREMA
Seja A uma matriz m × n com entradas num corpo K. O
conjunto de geradores de nuc(A) associados às incógnitas
livres do sistema homogéneo Ax = b é uma base de nuc(A).
Demonstração.
Feita no quadro. (Exercı́cio: recorde a demonstração.)
E XERC ÍCIO
Seja


1
1
1
1
2
1
2 .
A= 1
−1 −3 −1 −3
Calcule uma base e a dimensão de nuc(A).
T EOREMA
Seja A uma matriz m × n com entradas num corpo K. Então
dim(nuc(A)) + dim(col(A)) = n .
N OTA
Se obtivermos uma matriz em escada de linhas B a partir de A,
a caracterı́stica de B é igual ao número de incógnitas livres,
que é igual a dim(nuc(B)). Uma vez que nuc(B) = nuc(A),
qualquer matriz em escada de linhas B obtida de A tem a
mesma caracterı́stica e portanto faz sentido definir a
caracterı́stica de uma matriz A qualquer (recordar a discussão
acerca da caracterı́stica nas primeiras aulas).
D EFINIÇ ÃO
Seja A uma matriz m × n com entradas num corpo K.
Chama-se a dim(nuc(A)) a nulidade de A.
C OROL ÁRIO
Seja A uma matriz m × n com entradas num corpo K.
1. Caracterı́stica de A = dim(col(A)) = dim(lin(A)).
2. Caracterı́stica de A + nulidade de A = número de colunas
de A = n.
Capı́tulo 17
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 2.3 e 2.4.
C OMPLEMENTOS SOBRE BASES
O método que usámos para determinar uma base para o
espaço das colunas de de um espaço permite-nos concluir o
seguinte:
P ROPOSIÇ ÃO
Seja V um espaço vectorial de dimensão finita (sobre um corpo
K) e seja S ⊂ V um conjunto finito de geradores. Então existe
uma base de V contida em S.
Demonstração.
Sendo dim(V) = n, escolha-se um isomorfismo f : V → K n . Seja
A uma matriz cujas colunas são os vectores de f (S). Vimos na
aula passada como obter uma base B de col(A) contida em f (S)
e portanto o conjunto f −1 (B) é uma base de V contida em S.
Um resultado “dual” do anterior é o seguinte (o livro tem uma
demonstração directa, não baseada em matrizes — Teorema
2.25):
P ROPOSIÇ ÃO
Seja V um espaço vectorial de dimensão finita (sobre um corpo
K) e seja S ⊂ V um conjunto linearmente independente. Então
existe uma base de V que contém S.
Demonstração.
Sendo dim(V) = n, escolha-se um isomorfismo f : V → K n . Seja
A uma matriz cujas colunas são os vectores de f (S) e seja A0
uma matriz em escada de linhas obtida de A por eliminação de
Gauss. A matriz A0 tem de ser da forma seguinte, onde se
convenciona que as entradas assinaladas com “•” contêm
valores quaisquer não nulos:


•
 0 •



 0 0 •



 ..

.
..
 .



 0 0 ... 0 • 


 0 0 ... 0 0 


 .

.
..
.. 
 ..
.
0 0 ... 0 0
(Não existirão linhas nulas se e só se S for uma base.)
Demonstração.
(Continuação.) Acrescentando colunas (a azul) a A0 obtemos
uma matriz triangular inferior não singular A00 :


•
0 ··· 0
 0 •




.. . . .. 
 0 0 •
. . 
.


 ..

.
..

 .
00
A =

 0 0 ··· 0 • 0 ··· 0 


 0 0 ··· 0 0 1 ··· 0 


 .. .. . .
.. .. .. . . .. 
 . .
. . . .
. . 
0 0 ··· 0 0 0 ··· 1
Demonstração.
(Conclusão.)
Invertendo os passos da eliminação de Gauss que conduziram
de A a A0 , mas partindo da matriz A00 , obtemos uma matriz não
singular
[A | B]
onde a matriz B resulta das colunas acrescentadas (a azul) à
matriz A0 no slide anterior.
Aplicando o isomorfismo f −1 às colunas da matriz [A | B]
obtemos uma base de V que contém S.
M ATRIZES DE MUDANÇA DE BASE
E XERC ÍCIO
Calcule as coordenadas do polinómio 1 + 2x + 3x2 na base
ordenada (p, q, r) formada pelos polinómios
p(x) = 1
q(x) = 1 + x
r(x) = 1 + x + x2 .
Resolução.
Traduzindo os polinómios para vectores de R3 através do
isomorfismo a + bx + cx2 7→ (a, b, c) temos de resolver o sistema
Sx = b cuja matriz aumentada é


1
1 1 1
 0 1 1
2 
3
0 0 1
e cuja solução é o vector (−1, −1, 3), que é portanto o vector de
coordenadas pretendido.
N OTA
A matriz S tem como colunas os vectores de coordenadas dos
polinómios p, q e r na base canónica e chama-se matriz de
mudança de base (da base canónica para a base (p, q, r)).
D EFINIÇ ÃO
Seja V um espaço vectorial sobre um corpo K, de dimensão
finita e sejam (v1 , . . . , vn ) e (w1 , . . . , wn ) duas bases ordenadas
de V. A matriz de mudança de base (da primeira base para a
segunda) é a matriz S cuja coluna j é, para cada j ∈ {1, . . . , n}, o
vector de coordenadas de wj na base (v1 , . . . , vn ).
N OTA
Como mnemónica podemos pensar que S resulta da “matriz
vectorial” [w1 . . . wn ] quando substituı́mos cada wj pelo seu
vector de coordenadas relativamente à base “antiga”.
P ROPOSIÇ ÃO
Dado um vector de V cujo vector de coordenadas na base
“antiga” é b, o vector de coordenadas na base “nova” é a
solução do sistema Sx = b. (Equivalentemente, x = S−1 b.)
S ISTEMAS LINEARES , RECTAS E PLANOS
Seja x uma solução do sistema de equações lineares
Au = b .
Seja x0 uma solução do correspondente sistema homogéneo:
Au = 0 .
Então
A(x + x0 ) = Ax + Ax0 = b + 0 = b ,
ou seja, o vector u = x + x0 é também uma solução do sistema
não homogéneo
Au = b .
P ROPOSIÇ ÃO
Somando a uma qualquer solução x do sistema
Au = b
uma solução x0 do sistema homogéneo
Au = 0
obtém-se novamente uma solução do primeiro sistema: por
outras palavras, para qualquer solução x do primeiro sistema, o
conjunto
x + nuc(A) = {x + x0 | x0 ∈ nuc(A)}
está contido no conjunto-solução desse sistema.
S ISTEMAS LINEARES , RECTAS E PLANOS
Sejam x e y duas soluções do sistema de equações lineares
Au = b .
Então
A(y − x) = Ay − Ax = b − b = 0 ,
ou seja, o vector y − x é uma solução do sistema homogéneo
Au = 0 .
Logo, a solução y do sistema não homogéneo obtém-se
somando à outra solução, x, uma solução x0 = y − x do sistema
homogéneo.
Conclui-se portanto que x + nuc(A) é o conjunto-solução do
sistema não homogéneo.
Resumindo:
T EOREMA
Considere o sistema linear
Au = b .
O conjunto-solução S deste sistema pode ser:
I
S = 0/ (o que significa que o sistema é impossı́vel);
I
ou S = x + nuc(A), onde x é uma qualquer das soluções do
sistema.
E XEMPLO
Considere o sistema cuja matriz aumentada é [A | b]:




1 2 3
6
1 2 3
6
el. Gauss
3  −→  0 1 2
3 .
[A | b] =  1 1 1
3
0
0 1 2
0 0 0
Existe uma incógnita livre (a que corresponde à terceira
coluna), pelo que o conjunto-solução é
{(t, 3 − 2t, t) ∈ R3 | t ∈ R} = (0, 3, 0) + L({(1, −2, 1)})
= (0, 3, 0) + nuc(A)
= recta paralela ao vector (1, −2, 1)
que passa pelo ponto (0, 3, 0) .
Seja A ∈ Matm×n (K) e suponha-se que o sistema Au = b é
possı́vel.
I
Se dim(nuc(A)) = 0 o sistema é determinado: a solução é
um ponto de K n .
I
Se dim(nuc(A)) = 1 o conjunto-solução diz-se uma recta
de K n .
I
Se dim(nuc(A)) = 2 o conjunto-solução diz-se um plano de
Kn.
I
Se dim(nuc(A)) = k o conjunto-solução diz-se um plano-k
de K n (portanto planos-0 são pontos, planos-1 são rectas
e planos-2 são planos).
I
Se dim(nuc(A)) = n − 1 o conjunto-solução diz-se um
hiperplano de K n (por exemplo os hiperplanos de K 3 são
os planos e os hiperplanos de K 2 são as rectas).
E QUAÇ ÕES DIFERENCIAIS
Oscilador harmónico: objecto de massa m > 0 que sofre
pequenas oscilações sem atrito acoplado a uma mola perfeita
com constante elástica α > 0.
Em cada instante t ∈ R o valor y(t) é o deslocamento do
objecto em relação à posição de equilı́brio. Assume-se que o
deslocamento ocorre estritamente ao longo de uma recta
(diz-se que o oscilador é unidimensional).
A força exercida pela mola sobre o objecto é proporcional ao
deslocamento, com sinal contrário (a força aponta na direcção
contrária à do deslocamento em relação à posição de
equilı́brio): F(t) = −αy(t).
Por outro lado, a lei de Newton diz que F(t) = my00 (t).
Obtemos então a equação diferencial que descreve o
comportamento do oscilador harmónico unidimensional:
my00 (t) = −αy(t).
Escrevendo ω 2 =
equação
α
m
(isto é possı́vel porque
α
m
> 0) temos a
y00 + ω 2 y = 0 .
O subconjunto de RR formado pelas funções com segunda
derivada contı́nua que são soluções desta equação é um
subespaço linear de RR . (Exercı́cio: verifique.)
Podemos verificar directamente que as duas funções seguintes
são soluções:
y1 (t) = cos(ωt)
y2 (t) = sen(ωt)
Estas funções são linearmente independentes, pelo que o
espaço das soluções da equação tem dimensão maior ou igual
a 2.
(O valor ω é a velocidade angular do sistema, relacionado com
a frequência ν de oscilação pela relação ω = 2πν.)
Poderá haver outras soluções linearmente independentes das
anteriores?
I
Se y(t) = c1 y1 (t) + c2 y2 (t) (é uma solução)
I
então y(0) = c1 cos 0 + c2 sen 0 = c1
I
e y0 (t) = −c1 ω sen(ωt) + c2 ω cos(ωt),
I
pelo que y0 (0) = c2 ω
I
e temos y(t) = y(0) cos(ωt) + y ω(0) sen(ωt).
0
Seja agora y(t) uma solução qualquer.
h
i
y0 (0)
Então z(t) = y(t) − y(0) cos(ωt) + ω sen(ωt) é uma solução
(porque é combinação linear de soluções).
Verifica-se directamente que z(0) = z0 (0) = 0.
Vamos mostrar que na verdade z(t) = 0 para qualquer t ∈ R, e
que portanto y é combinação linear de y1 e y2 .
Multiplicando ambos os lados da equação z00 + ω 2 z = 0 por z0
obtemos
z0 z00 + ω 2 zz0 = 0 .
Mas zz0 = 21 (z2 )0 e z0 z00 = 12 ((z0 )2 )0 , pelo que obtemos
0 2
2 2 0
(z ) + ω z = 0 .
Isto significa que a quantidade
(z0 (t))2 + ω 2 z(t)2
é constante, ou seja, não depende de t.
Logo, como já vimos que z(0) = z0 (0) = 0, temos
(z0 (t))2 + ω 2 z(t)2 = (z0 (0))2 + ω 2 z(0)2 = 0 ,
pelo que z(t) = 0 para qualquer t ∈ R.
Conclusão: O espaço das soluções tem dimensão 2 e uma
base é formada pelas funções y1 e y2 .
Nota: Para qualquer solução y(t) a quantidade
(y0 (t))2 + ω 2 y(t)2
é constante.
Relembrando que ω 2 = α/m conclui-se que a quantidade
1 0 2 1
my (t) + αy(t)2
2
2
é constante.
Tendo em conta que y0 é a velocidade, a quantidade 12 m(y0 )2 é a
energia cinética T.
Por outro lado, 12 αy2 é a energia potencial V, e a constante
E = T +V
é assim a energia total do sistema.
Capı́tulo 18
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 2.3 e 2.4.
C OMPLEMENTOS SOBRE BASES
O método que usámos para determinar uma base para o
espaço das colunas de de um espaço permite-nos concluir o
seguinte:
P ROPOSIÇ ÃO
Seja V um espaço vectorial de dimensão finita (sobre um corpo
K) e seja S ⊂ V um conjunto finito de geradores. Então existe
uma base de V contida em S.
Demonstração.
Sendo dim(V) = n, escolha-se um isomorfismo f : V → K n . Seja
A uma matriz cujas colunas são os vectores de f (S). Vimos na
aula passada como obter uma base B de col(A) contida em f (S)
e portanto o conjunto f −1 (B) é uma base de V contida em S.
Um resultado “dual” do anterior é o seguinte (o livro tem uma
demonstração directa, não baseada em matrizes — Teorema
2.25):
P ROPOSIÇ ÃO
Seja V um espaço vectorial de dimensão finita (sobre um corpo
K) e seja S ⊂ V um conjunto linearmente independente. Então
existe uma base de V que contém S.
Demonstração.
Sendo dim(V) = n, escolha-se um isomorfismo f : V → K n . Seja
A uma matriz cujas colunas são os vectores de f (S) e seja A0
uma matriz em escada de linhas obtida de A por eliminação de
Gauss. A matriz A0 tem de ser da forma seguinte, onde se
convenciona que as entradas assinaladas com “•” contêm
valores quaisquer não nulos:


•
 0 •



 0 0 •



 ..

.
..
 .



 0 0 ... 0 • 


 0 0 ... 0 0 


 .

.
..
.. 
 ..
.
0 0 ... 0 0
(Não existirão linhas nulas se e só se S for uma base.)
Demonstração.
(Continuação.) Acrescentando colunas (a azul) a A0 obtemos
uma matriz triangular inferior não singular A00 :


•
0 ··· 0
 0 •




.. . . .. 
 0 0 •
. . 
.


 ..

.
..

 .
00
A =

 0 0 ··· 0 • 0 ··· 0 


 0 0 ··· 0 0 1 ··· 0 


 .. .. . .
.. .. .. . . .. 
 . .
. . . .
. . 
0 0 ··· 0 0 0 ··· 1
Demonstração.
(Conclusão.)
Invertendo os passos da eliminação de Gauss que conduziram
de A a A0 , mas partindo da matriz A00 , obtemos uma matriz não
singular
[A | B]
onde a matriz B resulta das colunas acrescentadas (a azul) à
matriz A0 no slide anterior.
Aplicando o isomorfismo f −1 às colunas da matriz [A | B]
obtemos uma base de V que contém S.
I NTERSECÇ ÕES E SOMAS DE ESPAÇOS
E XERC ÍCIO
Considere os seguintes vectores de R3 :
x1 = (1, 2, 3)
x2 = (1, 1, 1)
x3 = (1, 0, 1)
x4 = (2, 1, 1) .
Sendo V1 = L({x1 , x2 }) e V2 = L({x3 , x4 )}, determine uma base
e a dimensão de V1 ∩ V2 .
T EOREMA
Sejam V1 e V2 dois subespaços, ambos com dimensão finita,
de V. Então
dim(V1 + V2 ) = dim(V1 ) + dim(V2 ) − dim(V1 ∩ V2 ) .
E XEMPLO
Usando este teorema, no exercı́cio anterior poderı́amos
facilmente concluir dim(V1 ∩ V2 ) = 1 sem calcular uma base,
pois
dim(V1 ) = 2
dim(V2 ) = 2
dim(V1 + V2 ) = 3 .
A última equação resulta de observar que, por exemplo,
x1 , x2 , x3 são linearmente independentes (exercı́cio fácil!) e
portanto geram todo o R3 .
Demonstração.
Seja B = {x1 , . . . , xn } uma base de V1 ∩ V2 , com n ≥ 0
(considera-se o caso em que a base é vazia e portanto
V1 ∩ V2 = {0}).
Usando a segunda proposição desta aula existe uma base de
V1 que contém B e uma base de V2 que contém B.
Sejam estas bases respectivamente
B1 = {x1 , . . . , xn , y1 , . . . , ym }
B2 = {x1 , . . . , xn , z1 , . . . , zp } .
(Convenciona-se que m, p ≥ 0 e que se m = 0 então B1 = B e,
analogamente, B2 = B se p = 0.)
Portanto dim(V1 ) = n + m e dim(V2 ) = n + p.
Demonstração.
(Continuação.)
Tem de ter-se yi ∈ V1 \ V2 e zj ∈ V2 \ V1 , para cada i ∈ {1, . . . , m}
e cada j ∈ {1, . . . , p},
pois se, por exemplo, y1 pertencesse a V2 então ter-se-ia
y1 ∈ V1 ∩ V2 e por isso y1 seria combinação linear dos vectores
de B; mas isto é impossı́vel, uma vez que B1 é uma base e,
portanto, linearmente independente.
Logo, B1 ∪ B2 contém exactamente n + m + p elementos.
É claro que B1 ∪ B2 gera V1 + V2 e é simples verificar que é um
conjunto linearmente independente (exercı́cio: demonstre),
pelo que a dimensão de V1 + V2 é, como querı́amos
demonstrar,
n + m + p = (n + m) + (n + p) − n
= dim(V1 ) + dim(V2 ) − dim(V1 ∩ V2 ) .
D EFINIÇ ÃO
Seja V um espaço vectorial e sejam V1 e V2 dois subespaços
tais que V1 + V2 = V e V1 ∩ V2 = {0}. Diz-se então que V é a
soma directa de V1 e V2 e escreve-se V = V1 ⊕ V2 .
P ROPOSIÇ ÃO
Se V = V1 ⊕ V2 então qualquer vector x ∈ V se decompõe de
forma única numa soma x = x1 + x2 com x1 ∈ V1 e x2 ∈ V2 .
Demonstração.
Uma vez que V = V1 + V2 sabemos, por definição de soma de
subespaços, que existem x1 ∈ V1 e x2 ∈ V2 tais que x = x1 + x2 .
Para vermos que os vectores x1 e x2 são únicos vamos supor
que existem dois outros vectores quaisquer, y1 ∈ V1 e y2 ∈ V2 ,
tais que x = y1 + y2 .
Então 0 = x − x = (x1 + x2 ) − (y1 + y2 ) = (x1 − y1 ) + (x2 − y2 ), pelo
que
x1 − y1 = −(x2 − y2 ) ∈ V1 ∩ V2 .
| {z } | {z }
∈V1
∈V2
Como V1 ∩ V2 = {0} conclui-se que x1 − y1 = x2 − y2 = 0.
C OROL ÁRIO
Seja V = V1 ⊕ V2 . Então V ∼
= V1 × V2 .
Demonstração.
Cada vector x ∈ V1 ⊕ V2 decompõe-se de forma única numa
soma x = x1 + x2 e
o isomorfismo V → V1 × V2 atribui a cada vector x o seu par de
componentes únicas (x1 , x2 ) ∈ V1 × V2 .
(Verifique que esta função é mesmo um isomorfismo.)
C OROL ÁRIO
dim(V1 × V2 ) = dim(V1 ) + dim(V2 ) .
N OTA
Podemos obter directamente o corolário anterior a partir da
seguinte observação: se B1 for uma base de V1 e B2 for uma
base de V2 então
(B1 × {0}) ∪ ({0} × B2 )
é uma base de V1 × V2 .
E XEMPLO
Aplicando a construção acima à base canónica de R2 obtém-se
a seguinte base de R2 × R2 que coincide, a menos de
parênteses, com a base canónica de R4 :
{((1, 0), (0, 0)), ((0, 1), (0, 0)), ((0, 0), (1, 0)), ((0, 0), (0, 1))} .
C OMPLEMENTOS SOBRE ESPAÇOS SOBRE Q, R E C
N OTA
Quando um espaço vectorial pode ser visto como espaço
sobre mais do que um corpo escreveremos dimK (V) em vez de
apenas dim(V) para nos referirmos à dimensão de V enquanto
espaço sobre o corpo K.
E XEMPLO
I
C é um espaço vectorial real com dimensão 2, portanto
isomorfo a R2 : um isomorfismo óbvio é o que atribui a
cada número complexo a + ib ∈ C o vector (a, b) de R2 .
I
C3 é um espaço vectorial real com dimensão 6, portanto
isomorfo a R6 : um isomorfismo óbvio atribui a cada vector
(a1 + ib1 , a2 + ib2 , a3 + ib3 ) ∈ C3 o vector (a1 , b1 , a2 , b2 , a3 , b3 ).
P ROPOSIÇ ÃO
Se V for um espaço vectorial sobre C com base B então
também é um espaço vectorial sobre R com base
B ∪ iB .
Em particular, se dimC (V) = n então dimR (V) = 2n.
P ROPOSIÇ ÃO
Qualquer espaço vectorial real não trivial é um espaço vectorial
sobre Q de dimensão infinita.
Demonstração.
Basta provar que dimQ (R) = ∞. Se assim não fosse existiria
n ∈ N tal que R ∼
= Qn . Mas o conjunto Qn é numerável e R não
é, pelo que não pode existir uma bijecção entre R e Qn .
C OMPLEMENTOS SOBRE RECTAS E PLANOS
E XERC ÍCIO
Descreva parametricamente o plano-k em R4 descrito pelas
seguintes equações cartesianas e diga qual é o valor de k:
2w + x + y − z = 1
w − x + 2y + 3z = 0
w + 2x − y − 2z = 1
E XERC ÍCIO
Obtenha um conjunto de equações cartesianas para o
seguinte plano-k em R4 e diga qual é o valor de k:
P = (1, 2, 0, 3) + L({(1, 1, 0, 1), (1, 2, 0, 1), (2, 3, 0, 2)}) .
E XERC ÍCIO
Descreva por equações cartesianas o plano em R3 que passa
pelos três pontos (1, 0, 1), (2, 0, 1) e (1, 3, 2).
Capı́tulo 19
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Capı́tulo 3.
D EFINIÇ ÃO
Sejam V e W espaços vectoriais sobre um corpo K. Uma
função
f :V →W
diz-se linear se quaisquer vectores x, y ∈ V e qualquer escalar
k ∈ K satisfizerem as duas condições seguintes:
f (kx) = k(f (x)) ,
f (x + y) = f (x) + f (y) .
É usual chamar às funções lineares transformações lineares
(ou aplicações lineares) e denotá-las por letras maiúsculas,
por exemplo
T :V →W .
E XEMPLO
1. Seja det : R3 × R3 × R3 → R a função determinante de
ordem 3 (sobre o corpo R). Sendo a, b ∈ R3 , é linear a
função T1 : R3 → R definida por
T1 (x) = det(x, a, b) .
Da mesma forma, são lineares as funções T2 , T3 : R3 → R
definidas por
T2 (x) = det(a, x, b)
T3 (x) = det(a, b, x) .
A linearidade destas três funções para todos os pares de
vectores a, b ∈ R é precisamente a propriedade de det que
designamos por multilinearidade.
2. Um isomorfismo T : V → W é uma transformação linear
bijectiva.
P ROPOSIÇ ÃO
1. T : V → W é uma transformação linear se e só se para
quaisquer vectores x, y ∈ V e qualquer escalar a ∈ K
T(ax + y) = aT(x) + T(y) .
2. T : V → W é uma transformação linear se e só se para
quaisquer vectores x, y ∈ V e quaisquer escalares a, b ∈ K
T(ax + by) = aT(x) + bT(y) .
3. T : V → W é uma transformação linear se e só se preservar
combinações lineares quaisquer; isto é, se e só se para
quaisquer vectores x1 , . . . , xn ∈ V e quaisquer escalares
a1 , . . . , an ∈ K
!
T
∑ ai xi
i
= ∑ ai T(xi ) .
i
(Convenção: se n = 0 as combinações lineares são 0.)
Eis uma lista mais sistemática de exemplos:
E XEMPLO
I
I
Transformação nula: T(x) = 0.
Multiplicação por escalar fixo a: T(x) = ax.
1. Se a = 0 obtemos a transformação nula.
2. Se a = 1 obtemos a transformação identidade T(x) = x, que
é um isomorfismo.
I
Multiplicação por matriz fixa: qualquer matriz
A ∈ Matm×n (K) define uma transformação linear
T : Kn → Km
T(x) = Ax .
E XEMPLO
(Continuação.)
I
Operador derivação: É linear a função
D : C1 (a, b) → C(a, b)
D(f ) = f 0 .
I
Operador derivação: É linear a função
D : P3 (R) → P2 (R)
D(p) = p0 .
T RANSFORMAÇ ÕES LINEARES K n → K m
T EOREMA
Seja T : K n → K m uma transformação linear. Então existe uma
e uma só matriz A ∈ Matm×n (K) tal que para qualquer x ∈ K n se
tem T(x) = Ax.
D EFINIÇ ÃO
A matriz A do exemplo anterior é a matriz que representa T,
ou a representação matricial de T.
Demonstração.
Seja x ∈ K n . Então
T(x) = T(x1 e1 + · · · + xn en ) = x1 T(e1 ) + · · · + xn T(en )
= Ax
onde A é a matriz cuja coluna j é, para cada j ∈ {1, . . . , n}, o
vector T(ej ).
Por outro lado esta é a única matriz possı́vel, pois a condição
Ax = Bx para qualquer x ∈ K n implica que se tem Aej = Bej para
cada j, ou seja, a coluna j de A é igual à coluna j de B para
qualquer j ∈ {1, . . . , n}, sendo portanto A = B.
C OROL ÁRIO
Uma função T : K n → K m é linear se e só se, para cada vector
x ∈ K n , cada uma das componentes de T(x) for uma
combinação linear das componentes de x.
(Ou seja, cada componente de T(x) tem de ser uma expressão
linear nas variáveis x1 , . . . , xn — recordem as primeiras aulas
sobre sistemas lineares.)
E XEMPLO
É linear a função T : R3 → R2 definida por
T(x, y, z) = (2x + 3y − z, x − z) .
2 3 −1
A representação matricial é
.
1 0 −1
I Uma forma de descobrir a representação matricial, linha a
linha: cada componente do vector T(x, y, z) é o produto
interno duma linha da matriz pelo vector (x, y, z) (estamos
habituados a raciocinar assim ao determinar a matriz dos
coeficientes de um sistema linear);
I
Outra forma de a descobrir, coluna a coluna:
a primeira coluna da matriz é o vector
T(e1 ) = T(1, 0, 0) = (2, 1);
a segunda coluna é T(e2 ) = T(0, 1, 0) = (3, 0);
a terceira coluna é T(e3 ) = T(0, 0, 1) = (−1, −1);
E XEMPLO
I
Não é linear a função T : R3 → R2 definida por
T(x, y, z) = (x2 + y, z) .
I
Não é linear a função T : R3 → R2 definida por
T(x, y, z) = (2 + x, x + y + z) .
E XEMPLO
I
A transformação nula 0 : K n → K m é representada pela
matriz nula de dimensão m × n.
I
A transformação identidade id : K n → K n é representada
pela matriz identidade de dimensão n × n.
I
A multiplicação por escalar fixo a ∈ K é representada pela
matriz


a ··· 0


aI =  ... . . . ...  .
0 ···
a
Alguns exemplos, com significado geométrico, de
transformações lineares T : R2 → R2 , em termos das
respectivas representações matriciais:
E XEMPLO
0 −1
1 0
cos θ
sen θ
3 0
0 3
2 0
0 12
0 1
1 0
1 12
0 1
deslizamento, paralelo ao eixo xx, de comprimento igual a metade da ordenada de cada
ponto.
I
I
I
I
I
I
rotação de π/2 no sentido directo em torno da
origem.
− sen θ
rotação de um ângulo θ no sentido
cos θ
directo em torno da origem.
homotetia com factor de ampliação 3.
“homotetia” com factores de ampliação
vertical ( 21 ) e horizontal (2) diferentes.
reflexão através do eixo y = x.
T RANSFORMAÇ ÕES LINEARES ENTRE QUAISQUER
ESPAÇOS DE DIMENS ÃO FINITA
D EFINIÇ ÃO
Sejam V e W espaços vectoriais sobre um corpo K, com bases
(v1 , . . . , vn ) e (w1 , . . . , wm ), respectivamente.
Seja ainda T : V → W uma transformação linear.
A matriz que representa T relativamente às bases dadas é a
matriz A ∈ Matm×n (K) cuja coluna j é, para cada j ∈ {1, . . . , n}, o
vector de coordenadas de T(vj ) na base (w1 , . . . , wn ).
E XEMPLO
A função de derivação
D : P3 (R) → P2 (R) ,
que a cada polinómio p de grau menor ou igual a 3 faz
corresponder a sua derivada
D(p) = p0 ,
é uma transformação linear entre espaços de dimensão finita e
por isso pode ser representada por matrizes.
E XEMPLO
(Continuação.) Escolhendo como bases ordenadas em P3 (R)
e P2 (R) as bases canónicas respectivas, temos:
I
D(1) = 0 é o polinómio
cujo vector de
coordenadas é (0, 0, 0);
I
D(x) = 1 é o polinómio
cujo vector de
coordenadas é (1, 0, 0);
I
D(x2 ) = 2x é o polinómio
cujo vector de
coordenadas é (0, 2, 0);
I
D(x3 ) = 3x2 é o polinónio
cujo vector de
coordenadas é (0, 0, 3).
Representação matricial:


0 1 0 0
 0 0 2 0 
0 0 0 3
E XEMPLO
Seja V o espaço vectorial real das funções y : R → R com
segunda derivada contı́nua que são soluções da equação
diferencial
y00 + ω 2 y = 0 .
Vimos numa aula anterior que V tem uma base constituı́da
pelas funções y1 (t) = cos(ωt) e y2 (t) = sen(ωt), sendo portanto
um subespaço de RR com dimensão 2.
O operador de derivação está bem definido em V, uma vez que
y01 = −ωy2 e y02 = ωy1 e portanto qualquer combinação linear
a1 y1 + a2 y2 tem derivada em V.
Em relação à base ordenada (y1 , y2 ) (tanto no domı́nio como no
espaço de chegada), a matriz que representa o operador de
derivação é
0 ω
.
−ω 0
Capı́tulo 20
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Capı́tulo 3.
R EVIS ÃO
Vimos:
I Noção de transformação linear T : V → W:
T(αx + β y) = αT(x) + β T(y) .
I
As transformações lineares T : K n → K m são exactamente
as funções definidas por T(x) = Ax para cada matriz fixa
A ∈ Matm×n (K):


..
..
···
. 
 .


..
A =  T(e1 )
.
.
T(e
)
n 


..
..
.
···
.
I
Transformações lineares entre quaisquer espaços de
dimensão finita V e W são também representadas por
matrizes, mas as matrizes dependem das bases que
escolhermos para V e W.
Relação entre operações com transformações lineares e
operações com matrizes:
P ROPOSIÇ ÃO
Sejam T : V → V 0 e T 0 : V 0 → V 00 transformações lineares. Então
T 0 ◦ T : V → V 00 é uma transformação linear.
P ROPOSIÇ ÃO
Sejam T : K p → K n e T 0 : K n → K m transformações lineares
representadas pelas matrizes A e B, respectivamente. Então
T 0 ◦ T é representada pela matriz BA.
Demonstração.
(T 0 ◦ T)(x) = T 0 (T(x)) = T 0 (Ax) = B(Ax) = (BA)x.
E XERC ÍCIO
Diga qual é a matriz que representa em R2 a operação que
resulta de executar uma rotação em torno da origem de um
ângulo igual a π/2 no sentido dos ponteiros do relógio seguida
de uma reflexão através do eixo y = x.
Resolução.
A matriz é o produto seguinte, com θ = −π/2:
0 1
cos θ − sen θ
0 1
0 1
−1 0
=
=
.
1 0
sen θ cos θ
1 0
−1 0
0 1
E XEMPLO
Do que vimos a respeito de rotações em R2 conclui-se o
seguinte, pois fazer duas rotações sucessivas de ângulos α e
β é o mesmo que fazer uma rotação de α + β :
cos α − sen α
cos β − sen β
sen α cos α
sen β cos β
=
cos(α + β ) − sen(α + β )
sen(α + β ) cos(α + β )
.
Calculando o produto das matrizes obtemos duas fórmulas
conhecidas da trigonometria:
cos(α + β ) = cos α cos β − sen α sen β
sen(α + β ) = sen α cos β + cos α sen β
C OROL ÁRIO
T : K n → K m é um isomorfismo se e só se m = n e a matriz A que
representa T for não-singular. Nesse caso A−1 representa T −1 .
Demonstração.
A condição m = n resulta de as dimensões do domı́nio e do
espaço de chegada de um isomorfismo terem de ser iguais.
Se T for um isomorfismo então existe a transformação inversa
T −1 .
Sejam A e B as matrizes que representam T e T −1 ,
respectivamente.
Então BA e AB representam a transformação identidade
T −1 ◦ T = T ◦ T −1 : K n → K n , que é representada pela matriz
identidade I.
Portanto tem-se BA = AB = I, pelo que B = A−1 .
Demonstração.
(Continuação.)
Vimos portanto que se T for um isomorfismo a matriz A que
representa T é não-singular.
Para provar a implicação recı́proca, suponha-se que a matriz A
que representa T é não-singular.
A matriz A−1 define uma transformação linear T 0 .
T 0 ◦ T e T ◦ T 0 são representadas por A−1 A e AA−1 ,
respectivamente, ou seja, pela matriz identidade.
Portanto T 0 ◦ T = T ◦ T 0 = id e conclui-se que T é um
isomorfismo.
N OTA
Para o que se segue usaremos o facto de que se A for um
conjunto qualquer e W for um espaço vectorial sobre um corpo
K então W A é um espaço vectorial sobre K cujas operações
são as “habituais”: a soma de vectores é a soma de funções,
(f + g)(a) = f (a) + g(a) ,
e o produto por escalar é definido por
(kf )(a) = k(f (a))
para cada f ∈ W A e a ∈ A (isto generaliza o facto de conjuntos
da forma K A serem espaços vectoriais sobre K).
Mais operações com transformações lineares:
P ROPOSIÇ ÃO
Sejam V e W espaços vectoriais sobre um corpo K. O conjunto
L(V, W) das transformações lineares T : V → W é um
subespaço vectorial de W V .
Demonstração.
É simples verificar as seguintes asserções (exercı́cio):
I
A função nula é uma transformação linear (já foi
mencionado).
I
Se T, T 0 : V → W forem transformações lineares então
T + T 0 é linear.
I
Se T : V → W for uma transformação linear e k ∈ K então
kT é linear.
Estas operações correspondem precisamente às operações
habituais com matrizes:
P ROPOSIÇ ÃO
1. Se A representa T : K n → K m e B representa T 0 : K n → K m
então A + B representa T + T 0 .
2. Se A representa T então kA representa kT (k ∈ K).
C OROL ÁRIO
L(K n , K m ) ∼
= Matm×n (K) .
R EVIS ÃO
D EFINIÇ ÃO
Sejam V e W espaços vectoriais sobre um corpo K, com bases
(v1 , . . . , vn ) e (w1 , . . . , wm ), respectivamente.
Seja ainda T : V → W uma transformação linear.
A matriz que representa T relativamente às bases dadas é a
matriz A ∈ Matm×n (K) cuja coluna j é, para cada j ∈ {1, . . . , n}, o
vector de coordenadas de T(vj ) na base (w1 , . . . , wn ).
N OTA
A matriz A é a da transformação linear obtida por composição
com os isomorfismos determinados pelas bases de cada um
dos espaços:
∼
∼
T
=
=
K n −→ V −→ W −→ K m .
N OTA
A matriz A que representa uma transformação linear
T : K n → K m , conforme definimos anteriormente, é
precisamente a matriz que representa T em relação às bases
canónicas de K n e K m .
Escolhendo outras bases de K n e K m obtém-se outras
representações matriciais.
A relação entre diferentes representações matriciais duma
mesma transformação linear pode formular-se de uma forma
simples em termos de matrizes de mudança de base e será
estudada oportunamente.
R EVIS ÃO DE EXEMPLOS
E XEMPLO
A função de derivação
D : P3 (R) → P2 (R) ,
que a cada polinómio p de grau menor ou igual a 3 faz
corresponder a sua derivada
D(p) = p0 ,
é uma transformação linear entre espaços de dimensão finita e
por isso pode ser representada por matrizes.
E XEMPLO
(Continuação.) Escolhendo como bases ordenadas em P3 (R)
e P2 (R) as bases canónicas respectivas, temos:
I
D(1) = 0 é o polinómio
cujo vector de
coordenadas é (0, 0, 0);
I
D(x) = 1 é o polinómio
cujo vector de
coordenadas é (1, 0, 0);
I
D(x2 ) = 2x é o polinómio
cujo vector de
coordenadas é (0, 2, 0);
I
D(x3 ) = 3x2 é o polinónio
cujo vector de
coordenadas é (0, 0, 3).
Representação matricial:


0 1 0 0
 0 0 2 0 
0 0 0 3
E XEMPLO
Seja V o espaço vectorial real das funções y : R → R com
segunda derivada contı́nua que são soluções da equação
diferencial
y00 + ω 2 y = 0 .
Vimos numa aula anterior que V tem uma base constituı́da
pelas funções y1 (t) = cos(ωt) e y2 (t) = sen(ωt), sendo portanto
um subespaço de RR com dimensão 2.
O operador de derivação está bem definido em V, uma vez que
y01 = −ωy2 e y02 = ωy1 e portanto qualquer combinação linear
a1 y1 + a2 y2 tem derivada em V.
Em relação à base ordenada (y1 , y2 ) (tanto no domı́nio como no
espaço de chegada), a matriz que representa o operador de
derivação é
0 ω
.
−ω 0
Os resultados anteriores sobre representações matriciais e
composição de transformações lineares, isomorfismos, adição
de transformações lineares, etc., generalizam-se para
transformações entre quaisquer espaços de dimensão finita,
da seguinte forma:
T EOREMA
Seja K um corpo. Suponha-se escolhida, para cada espaço V
sobre K, uma base ordenada BV e seja, para cada
transformação linear T : V → W, AT a matriz que representa T
relativamente a BV e BW . Então tem-se, sendo n = dim(V) e
m = dim(W):
1. L(V, W) ∼
= Matm×n (K) (T 7→ AT é um isomorfismo).
T
T0
2. Se V → V 0 → V 00 então AT 0 ◦T = AT 0 AT .
E QUAÇ ÕES LINEARES
I
Se T : V → W for uma transformação linear então
designa-se uma igualdade do tipo
T(x) = b
por equação linear.
I
O vector independente é b e o vector incógnita é x.
I
Qualquer sistema linear Ax = b é uma equação linear.
I
Uma equação linear T(x) = 0 diz-se homogénea.
E XEMPLO
A equação diferencial do oscilador harmónico
y00 + ω 2 y = 0
é uma equação linear homogénea com
T(y) = y00 + ω 2 y .
T é uma transformação linear, pois é a soma de duas
transformações lineares,
T = D2 ◦ D1 + Mω 2 ,
onde D1 : C2 (R) → C1 (R) e D2 : C1 (R) → C(R) são as
transformações lineares definidas pela operação de derivação
e Mω 2 é a multiplicação pelo escalar fixo ω 2 .
Seja T : V → W uma transformação linear:
I
O conjunto nuc(T) = {x ∈ V | T(x) = 0} é um subespaço de
V e designa-se por núcleo de T.
I
O conjunto T(V) = {b ∈ W | ∃x∈V T(x) = b} (o
contradomı́nio de T) é um subespaço de W.
I
Se V = K n e W = K m e T for representada pela matriz A
então
nuc(T) = nuc(A) ,
T(V) = col(A) .
I
Tal como para sistemas lineares, uma equação linear pode
ser impossı́vel, possı́vel e determinada, ou possı́vel e
indeterminada.
I
Tal como para sistemas lineares, a solução geral de uma
equação linear que tem uma solução particular x é igual a
x + nuc(T).
E XEMPLO
A equação diferencial do oscilador harmónico forçado
y00 + ω 2 y = sen(ω 0 t)
é uma equação linear não homogénea. Para obter a solução
geral basta encontrar uma solução particular, uma vez que já
conhecemos nuc(T). (Tem de se considerar separadamente os
casos ω 2 = (ω 0 )2 e ω 2 6= (ω 0 )2 ).
Capı́tulo 21
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Capı́tulo 3.
R EVIS ÃO
Vimos:
Seja T : V → W uma transformação linear:
I
O conjunto nuc(T) = {x ∈ V | T(x) = 0} é um subespaço de
V e designa-se por núcleo de T.
I
O conjunto T(V) = {b ∈ W | ∃x∈V T(x) = b} (o
contradomı́nio de T) é um subespaço de W.
I
Se V = K n e W = K m e T for representada pela matriz A
então
nuc(T) = nuc(A) ,
T(V) = col(A) .
I
Tal como para sistemas lineares, uma equação linear pode
ser impossı́vel, possı́vel e determinada, ou possı́vel e
indeterminada.
S OLUÇ ÃO GERAL DE UMA EQUAÇ ÃO LINEAR
Seja T : V → W uma transformação linear e seja x uma solução
da equação linear
T(u) = b .
Seja x0 uma solução da correspondente equação homogénea
T(u) = 0 .
Então
T(x + x0 ) = T(x) + T(x0 ) = b + 0 = b ,
ou seja, o vector u = x + x0 é também uma solução da equação
não homogénea
T(u) = b .
P ROPOSIÇ ÃO
Somando a uma qualquer solução x da equação
T(u) = b
uma solução x0 da equação homogénea
T(u) = 0
obtém-se novamente uma solução da primeira equação.
Sejam x e y duas soluções da equação linear
T(u) = b .
Então
T(y − x) = T(y) − T(x) = b − b = 0 ,
ou seja, o vector y − x é uma solução da equação homogénea
T(u) = 0 .
Logo, a solução y da equação não homogénea obtém-se
somando à outra solução, x, uma solução x0 = y − x da
equação homogénea.
Conclui-se portanto que x + nuc(T) é o conjunto das soluções
(designado por conjunto-solução como no caso dos sistemas
lineares) da equação não homogénea.
Resumindo:
T EOREMA
Seja T : V → W uma transformação linear e considere a
equação linear
T(u) = b .
O conjunto-solução S desta equação pode ser:
I
S = 0/ (a equação é impossı́vel);
I
ou S = x + nuc(T), onde x é uma qualquer das soluções da
equação.
C OROL ÁRIO
Seja T uma transformação linear. Então tem-se nuc(T) = {0}
se e só se T for uma função injectiva.
C OROL ÁRIO
Seja T uma transformação linear. Então T é um isomorfismo se
e só se T for sobrejectiva e nuc(T) = {0}.
N OTA
Seja T uma transformação linear:
I
A equação linear T(u) = b é possı́vel para qualquer b ∈ W
se e só se T for uma função sobrejectiva.
I
A equação linear T(u) = b é determinada para qualquer b
que a torna possı́vel se e só se T for injectiva, ou seja, se
e só se nuc(T) = 0.
I
A equação linear T(u) = b é possı́vel e determinada para
qualquer valor de b se e só se T for um isomorfismo.
E XEMPLO : OSCILADOR HARM ÓNICO
Vamos continuar o estudo do oscilador harmónico iniciado na
aula teórica 17.
Se o objecto que oscila for submetido a uma força exterior ao
longo da direcção de oscilação (ou a um oscilador electrónico
for aplicado um sinal exterior),
a qual varia em função do tempo de acordo com uma função
contı́nua F : R → R,
aplicando a lei de Newton obtemos (onde α é a constante de
elasticidade da mola)
my00 = −αy + F ,
pelo que, fazendo f (t) = F(t)/m e novamente ω 2 = α/m,
obtemos a equação não homogénea do oscilador harmónico
forçado:
y00 + ω 2 y = f .
A equação diferencial do oscilador harmónico forçado
y00 + ω 2 y = f
é uma equação linear não homogénea
T(y) = f
onde T : C2 (R) → C(R) é a transformação linear definida por
T(y) = y00 + ω 2 y.
Para obter a solução geral basta encontrar uma solução
particular, uma vez que sabemos (da aula teórica 17) que
nuc(T) é o conjunto de todas as funções obtidas como
combinação linear
y = c1 y1 + c2 y2 ,
(c1 , c2 ∈ R) onde y1 (t) = cos ωt e y2 (t) = sen ωt.
Como exemplo vamos estudar o caso em que f tem variação
sinusoidal no tempo, com frequência ωext não necessariamente
igual a ω:
f (t) = sen ωext t .
Como solução particular vamos tentar
y(t) = c sen ωext t .
(Isto faz sentido fisicamente — e também matematicamente
porque y00 será também proporcional a sen ωext t.)
Substituindo na equação diferencial obtemos
2
−cωext
sen ωext t + ω 2 c sen ωext t = sen ωext t
2 ) = 1.
e portanto tem de ter-se c(ω 2 − ωext
2 ) = 1 conclui-se que a função
Da condição c(ω 2 − ωext
y(t) = c sen ωext t
2 , caso em que a amplitude da
é solução se e só se ω 2 6= ωext
oscilação será
1
c= 2
.
2
ω − ωext
(Quanto mais próximas forem as frequências ω e ωext tanto
maior é a amplitude.)
2 ?
E se ω 2 = ωext
2 tende para ω 2
O facto de c tender para infinito quando ωext
faz-nos suspeitar de que quando as frequências coincidem o
sistema terá oscilações de amplitude ilimitada.
Tentemos por exemplo como solução particular a função
seguinte:
y(t) = t(a1 cos ωt + a2 sen ωt) .
Substituindo na equação y00 + ω 2 y = f concluimos, após alguns
1
cálculos, que tem de ter-se a1 = − 2ω
e a2 = 0, pelo que
y(t) = −
t cos ωt
.
2ω
A amplitude da oscilação tende para infinito quanto t → +∞.
A este fenómeno chama-se ressonância: a frequência ω é a
frequência de ressonância ou frequência natural do oscilador.
2 todas as soluções da equação têm
Note-se que com ω 2 = ωext
amplitude ilimitada, uma vez que a solução geral se obtém
somando à solução particular que obtivemos uma solução
c1 cos ωt + c2 sen ωt
da equação homogénea cuja amplitude é majorada por
|c1 | + |c2 | .
Nos Estados Unidos, em 1940, uma ponte (Tacoma Narrows
Bridge) ruiu devido a este efeito:
http://en.wikipedia.org/wiki/Galloping Gertie
F IGURA : Oscilações que antecederam o colapso da primeira ponte
de Tacoma, em 1940.
Capı́tulo 22
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Capı́tulo 3.
R EVIS ÃO
Vimos, no capı́tulo sobre espaços lineares:
I
Se V for um espaço vectorial sobre um corpo K com bases
ordenadas B = (v1 , . . . , vn ) e B0 = (v01 , . . . , v0n ) a matriz de
mudança de base da base B para a base B0 é a matriz
n × n cujas colunas são os vectores de coordenadas de
v01 , . . . , v0n (por esta ordem) calculadas na base B.
I
Por outras palavras, se c : V → K n for o isomorfismo que a
cada vector x = c1 v1 + · · · + cn vn faz corresponder o seu
vector de coordenadas cx = (c1 , . . . , cn ) na base ordenada B
a matriz de mudança de base é


..
..
···
. 
 .


..
.
S =  cv0
.
0
c
vn 

 1
..
..
.
···
.
I
Sendo c0 : V → K n o isomorfismo que a cada vector
x = c01 v01 + · · · + c0n v0n faz corresponder o vector de
coordenadas c0x = (c01 , . . . , c0n ) de x na base ordenada B0 , a
relação entre cx e c0x é dada por
Sc0x = cx .
I
Considere-se agora outro espaço vectorial W sobre K.
I
Sejam ainda (w1 , . . . , wm ) e (w01 , . . . , w0m ) bases ordenadas
de W e seja R a matriz de mudança de base da primeira
para a segunda base.
I
Abusando da notação, denotaremos também por
c, c0 : W → K m os isomorfismos determinados por estas
duas bases, respectivamente.
I
Então tem-se, para cada y ∈ W,
Rc0y = cy .
I
Seja agora T : V → W uma transformação linear.
I
Seja A a representação matricial de T em relação ao par
de bases (v1 , . . . , vn ) e (w1 , . . . , wm ):
cT(x) = Acx .
I
Seja A0 a representação matricial de T em relação ao par
de bases (v01 , . . . , v0n ) e (w01 , . . . , w0m ):
c0T(x) = A0 c0x .
I
Então tem-se, para qualquer x ∈ V,
ASc0x = Acx = cT(x) = Rc0T(x) = RA0 c0x ,
pelo que
AS = RA0 .
Portanto demonstrámos o seguinte teorema:
T EOREMA
As representações matriciais de T (A e A0 ) estão relacionadas
pelas fórmulas de mudança de base seguintes (que são
todas equivalentes):
RA0 = AS
A0 = R−1 AS
A = RA0 S−1
A seguinte versão mais restrita da fórmula de mudança de
base será aplicada diversas vezes:
C OROL ÁRIO
Se A for a representação matricial de uma transformação linear
T em relação a uma base (v1 , . . . , vn ) (considerada como base
tanto do domı́nio como do espaço de chegada), e se (v01 , . . . , v0n )
for outra base cuja matriz de mudança de base em relação à
primeira base é S, então a representação matricial de T em
relação à nova base é a matriz
A0 = S−1 AS .
I
Na prática a fórmula A0 = R−1 AS não é aplicada
directamente, ou seja, para calcular A0 a partir de A, R e S
não invertemos primeiro a matriz R:
Uma vez que A0 é a matriz-solução do sistema RA0 = AS,
cuja matriz dos coeficientes é R, o mais natural e eficiente
é aplicar eliminação de Gauss–Jordan à matriz aumentada
[R | AS]:
[R | AS] → [I | R−1 AS] = [I | A0 ] .
I
Para calcular A a partir de A0 , R e S também não é
necessário inverter a matriz S para aplicar directamente a
fórmula A = RA0 S−1 :
Notando que se tem ST AT = (RA0 )T aplicamos novamente
eliminação de Gauss–Jordan:
[ST | (RA0 )T ] → [I | (ST )−1 (RA0 )T ] = [I | AT ] .
E XERC ÍCIO
Seja D : P3 (R) → P2 (R) a derivação de polinómios. Calcule a
matriz que representa D em relação à base ordenada
B = (1 + x2 , 1 − 2x, 1 + x + x2 )
de P2 (R) (verifique que é de facto uma base) e à base
canónica de P3 (R).
Resolução.
A representação matricial de D em relação às bases canónicas
de P3 (R) e P2 (R) é, conforme vimos na aula teórica 19, a
seguinte:


0 1 0 0
A= 0 0 2 0 
0 0 0 3
A matriz de mudança de base de P2 (R) é


1 1 1
R =  0 −2 1  .
1 0 1
(A de P3 (R) é a identidade, uma vez que não mudámos de
base neste espaço, ou seja, na fórmula da mudança de base
ter-se-á S = I.)
Resolução.
(Continuação.) A representação matricial pedida será, neste
caso, a matriz
A0 = R−1 AS = R−1 A .
Por eliminação de Gauss–Jordan:

1 1 1
[R | A] =  0 −2 1
1 0 1

1 1 1
→  0 −2 1
0 −1 0

1 1 1
→  0 −1 0
0 −2 1

0 1 0 0
0 0 2 0 
0 0 0 3

0 1 0 0
0 0 2 0 
0 −1 0 3

0 1 0 0
0 −1 0 3 
0 0 2 0
Resolução.
(Continuação.)

1 1 1
→  0 1 0
0 −2 1

1 1 1
→  0 1 0
0 0 1

1 1 0
→  0 1 0
0 0 1

1 0 0
→  0 1 0
0 0 1
=

0 1 0 0
0 1 0 −3 
0 0 2 0

0 1 0 0
0 1 0 −3 
0 2 2 −6

0 −1 −2 6
0 1
0 −3 
0 2
2 −6

0 −2 −2 9
0 1
0 −3 
0 2
2 −6
[I | A0 ] .
Resolução.
(Continuação.) Logo,


0 −2 −2 9
0 −3 
A0 =  0 1
0 2
2 −6
e B é de facto uma base porque, como se viu, a matriz R é
não-singular.
Capı́tulo 23
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 6.1 e 6.2.
VALORES E VECTORES PR ÓPRIOS
No resto do capı́tulo sobre transformações lineares vamos
estudar transformações lineares
T :S→V
em que S ⊂ V é um subespaço do espaço vectorial V. O corpo
K será sempre R ou C.
O facto de, dado x ∈ S, tanto x como T(x) pertencerem a V
permite-nos comparar x com T(x), por exemplo investigando se
são vectores colineares.
Podemos assim descobrir direcções especiais em S segundo
as quais T é particularmente simples de descrever.
M OTIVAÇ ÃO : EXEMPLO
K=R
T(x, y) = A
x
y
2
S=V
=R
4/5 3/5
A=
3/5 −4/5
Significado geométrico de T?
Sejam v1 = (3, 1) e v2 = (−1, 3).
A reflexão através da recta de
equação y = x/3 tem
1 0
representação matricial A0 =
em relação à base
0 −1
(v1 , v2 ).
A matriz
de mudança
de base (em relação à base canónica) é
3 −1
S=
.
1 3
Um cálculo simples revela que se tem SA0 = AS, pelo que T é
precisamente a reflexão através da recta de equação y = x/3.
Este exemplo foi na realidade “fabricado” a partir de A0 como
no exercı́cio do fim da aula teórica passada (não está no
slideshow — vejam os vossos apontamentos), mas ilustra bem
o facto de que a representação matricial em relação à base
“errada” pode obscurecer o significado geométrico de uma
transformação linear, que neste caso era bastante simples.
A questão agora é: que forma sistemática há de simplificar a
representação matricial de uma transformação linear como no
exemplo anterior?
O que torna a base (v1 , v2 ) “certa”?
T(v1 ) = v1 e T(v2 ) = −v2 : ambos os vectores são transformados
em múltiplos deles próprios!
(O mesmo não se passa com os vectores da base canónica,
que são respectivamente transformados em 15 (4, 3) e 15 (3, −4).)
D EFINIÇ ÃO
Sejam:
I
V um espaço vectorial sobre o corpo K,
I
S ⊂ V um subespaço,
I
T : S → V uma transformação linear.
Sejam ainda x ∈ S e λ ∈ K tais que
x 6= 0 ,
T(x) = λ x .
Diz-se então que x é um vector próprio de T associado ao
escalar λ , ou que λ é um valor próprio de T associado ao
vector x.
E XEMPLO
No exemplo do inı́cio desta aula encontrámos os seguintes
vectores próprios:
I
v1 , associado ao valor próprio 1, uma vez que T(v1 ) = v1 ;
I
v2 , associado ao valor próprio −1, uma vez que
T(v2 ) = −v2 .
Além destes vectores próprios há também:
I
Qualquer múltiplo não nulo de v1 , associado ao valor
próprio 1;
I
Qualquer múltiplo não nulo de v2 , associado ao valor
próprio −1.
Há apenas dois valores próprios, mas infinitos vectores
próprios.
D EFINIÇ ÃO
Sejam:
I
V um espaço vectorial sobre o corpo K,
I
S ⊂ V um subespaço,
I
T : S → V uma transformação linear,
I
λ ∈ K um valor próprio de T.
Designa-se o conjunto
Eλ = {x ∈ S | T(x) = λ x}
por espaço próprio de T associado a λ .
(Eλ contém, além dos vectores próprios de T associados a λ , o
vector nulo 0.)
E XEMPLO
No exemplo do inı́cio da aula, E1 é o conjunto de todos os
vectores que permanecem inalterados quando se executa a
reflexão através da recta y = x/3.
Estes vectores correspondem precisamente precisamente aos
pontos da recta, pelo que E1 é a recta de equação y = x/3. Em
particular, é um subespaço de R2 .
E−1 é a recta que passa pela origem e é perpendicular à
anterior, ou seja, a recta de equação y = −3x. Também é um
subespaço de R2 .
P ROPOSIÇ ÃO
Sejam:
I
V um espaço vectorial sobre o corpo K,
I
S ⊂ V um subespaço,
I
T : S → V uma transformação linear,
I
λ ∈ K um valor próprio de T.
O espaço próprio Eλ é um subespaço de S.
Demonstração.
Denotando por id : S → V a transformação linear inclusão (de S
em V), que é definida por id(x) = x,
a condição T(x) = λ x é equivalente a T(x) = λ id(x) e portanto é
equivalente a
(T − λ id)(x) = 0 .
Conclui-se assim que Eλ coincide com o núcleo
Eλ = nuc(T − λ id)
da transformação linear T − λ id.
N OTA
Se λ = 0 for um valor próprio então Eλ = nuc(T).
Portanto, uma vez que da definição de valor próprio resulta que
Eλ contém sempre pelo menos um vector não nulo, conclui-se
que
T tem um valor próprio nulo se e só se nuc(T) 6= {0}.
D EFINIÇ ÃO
Sejam:
I
V um espaço vectorial sobre o corpo K,
I
S ⊂ V um subespaço,
I
T : S → V uma transformação linear,
I
λ ∈ K um valor próprio de T.
Designa-se o valor dim Eλ por multiplicidade geométrica de λ
(é portanto a nulidade de T − λ id) e denota-se por
mg(λ )
ou
mgλ .
E XEMPLO
Vamos ver exemplos com K = R e S = V = R2 :
0 1
I
reflexão através do eixo y = x.
1 0
λ =1
Eλ = L({(1, 1)})
mgλ = 1
λ = −1
Eλ = L({(−1, 1)})
mgλ = 1
3 0
I
homotetia com factor de ampliação 3.
0 3
λ =3
Eλ = R2
mgλ = 2
“homotetia” com factores de ampliação
2 0
I
vertical ( 21 ) e horizontal (2) diferentes.
0 12
λ =2
Eλ = L({(1, 0)})
mgλ = 1
λ = 1/2
Eλ = L({(0, 1)})
mgλ = 1
E XEMPLO
(Continuação.)
1 0
I
projecção sobre o eixo xx.
0 0
λ =1
Eλ = L({(1, 0)})
mgλ = 1
λ =0
Eλ = L({(0, 1)})
mgλ = 1
deslizamento, paralelo ao eixo xx, de compri1
1
2
I
mento igual a metade da ordenada de cada
0 1
ponto.
λ =1
Eλ = L({(1, 0)})
mgλ = 1
E XEMPLO
(Continuação.)
0 −1
rotação de π/2 no sentido directo em torno da
I
1 0
origem.
Não tem valores próprios.
cos θ − sen θ
rotação de um ângulo θ no sentido
I
sen θ cos θ
directo em torno da origem.
Só tem valores próprios se θ for múltiplo de π:
Se θ = 2kπ (k ∈ Z):
λ =1
mgλ = 2
Se θ = 2(k + 1)π (k ∈ Z):
λ = −1
mgλ = 2
N OTA
Em todos os exemplos anteriores a soma das multiplicidades
geométricas dos valores próprios não excede 2.
Como veremos, isso acontece para qualquer transformação
linear cujo domı́nio tem dimensão 2.
Em particular, o número de valores próprios não excede 2 (pois
a multiplicidade geométrica de um valor próprio é sempre pelo
menos 1).
E XEMPLO
Se no exemplo da rotação em R2 que vimos há pouco
identificarmos R2 com o espaço vectorial complexo C
identificando cada (a, b) ∈ R2 com o número complexo a + ib,
então a rotação de um ângulo θ coincide com o produto pelo
escalar eiθ , pois para qualquer número complexo ρeiα temos
eiθ ρeiα = ρei(α+θ ) .
Neste caso existe um e um só valor próprio
λ = eiθ .
Tem-se Eλ = R2 e mgλ = 1 (porque dimC (R2 ) = 1).
Os casos em que no exemplo anterior a rotação tinha valores
próprios são exactamente aqueles em que λ = eiθ é um
número real.
N OTA
Embora pensemos habitualmente no conjunto de múltiplos de
um vector não nulo x como a “direcção” definida por x, vemos
que para espaços complexos essa noção não coincide com a
intuição geométrica associada à ideia de direcção em R2 :
O produto de um vector do plano complexo por um escalar
complexo é, em geral, um vector com outra direcção no plano.
E XEMPLO
Seja D : C1 (R) → C(R) o operador de derivação de funções
reais de variável real.
Para cada λ ∈ R a função f (x) = eλ x é um vector próprio de D
associado ao valor próprio λ .
Portanto D tem infinitos valores próprios.
Como veremos, isto por si só indica que C1 (R) tem dimensão
infinita.
Capı́tulo 24
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 6.1 e 6.2.
R EVIS ÃO
Seja V um espaço vectorial sobre o corpo K e seja T : S → V
uma transformação linear em que S ⊂ V é um subespaço, seja
x ∈ S e λ ∈ K.
I x é um vector próprio associado a λ se:
I
I
x 6= 0,
T(x) = λ x.
I
λ é o valor próprio associado a x.
I
O subespaço Eλ = {x ∈ S | T(x) = λ x} ⊂ S é o espaço
próprio associado a λ .
I
A multiplicidade geométrica de λ é mgλ = dim Eλ .
T EOREMA
Sejam:
I
V um espaço vectorial sobre o corpo K,
I
S ⊂ V um subespaço,
I
T : S → V uma transformação linear.
Então, para qualquer n ∈ N0 e quaisquer n valores próprios
(distintos) de T
λ1 , . . . , λn ,
é linearmente independente qualquer lista de vectores próprios
de T
v1 , . . . , vn
associados a λ1 , . . . , λn , respectivamente.
Em particular, todos estes vectores próprios são
necessariamente distintos uns dos outros.
Demonstração.
A demonstração faz-se por indução matemática. Comecemos
por escolher um número n ∈ N0 arbitrário mas fixo. Como
hipótese de indução vamos supor que o teorema é verdadeiro
para este n em particular.
Sejam agora λ1 , . . . , λn+1 valores próprios distintos quaisquer e
seja v1 , . . . , vn+1 uma lista de vectores próprios associados a
λ1 , . . . , λn+1 , respectivamente. Vamos verificar que esta lista
tem de ser linearmente independente:
Sejam c1 , . . . , cn+1 ∈ K escalares tais que
c1 v1 + · · · + cn+1 vn+1 = 0 .
(1)
Aplicando T a ambos os lados da equação (1) obtemos
c1 λ1 v1 + · · · + cn+1 λn+1 vn+1 = 0 .
(2)
Demonstração.
(Continuação.)
Multiplicando ambos os lados da equação (1) por λn+1 obtemos
c1 λn+1 v1 + · · · + cn+1 λn+1 vn+1 = 0 .
(3)
Subtraindo a equação (2) à equação (3) a parcela cn+1 λn+1 vn+1
é cancelada e obtemos
c1 (λn+1 − λ1 )v1 + · · · + cn (λn+1 − λn )vn = 0 .
(4)
Usando a hipótese do slide anterior (de que os n vectores
v1 , . . . , vn são linearmente independentes), concluimos que
c1 (λn+1 − λ1 ) = . . . = cn (λn+1 − λn ) = 0 .
Como por hipótese os valores próprios λ1 , . . . , λn+1 são todos
distintos conclui-se que c1 = . . . = cn = 0.
Demonstração.
(Continuação.)
Mas então da equação (1) resulta cn+1 vn+1 = 0.
Como por definição de vector próprio tem de ter-se vn+1 6= 0
conclui-se cn+1 = 0 e portanto c1 = . . . = cn+1 = 0.
O que demonstrámos até aqui foi que se for verdade que forem
necessariamente linearmente independentes quaisquer n
vectores próprios correspondentes a n valores próprios
distintos então também é verdade que são linearmente
independentes quaisquer n + 1 vectores próprios
correspondentes a n + 1 valores próprios distintos, ou seja,
provámos o passo da indução.
A base da indução é o caso n = 0 e é imediato porque a lista
vazia é (trivialmente) linearmente independente.
C OROL ÁRIO
Se dim(S) = n então existem no máximo n valores próprios
distintos.
N OTA
Já tinhamos observado que todas as transformações lineares
T : R2 → R2 vistas até agora tinham no máximo dois valores
próprios.
Como vemos agora, isso era inevitável.
Também observámos que o operador de derivação
D : C1 (R) → C(R) tem infinitos valores próprios e podemos usar
esse facto para concluir que a dimensão de C1 (R) é infinita.
De caminho demonstrámos assim com facilidade que o
conjunto de funções {eλ t | λ ∈ R} é linearmente independente.
E XERC ÍCIO
Mostre que o conjunto {sen ωt | ω ∈ R+ } é linearmente
independente em RR .
(Sugestão: considere a transformação linear D2 : C2 (R) → C(R)
definida por D2 (f ) = f 00 .)
N OTA
Em particular verificamos assim que as funções sen nt para
n ∈ N são linearmente independentes, um facto que apenas
havı́amos verificado, nas aulas sobre espaços lineares, para
alguns valores de n.
Além do corolário anterior, do teorema conclui-se também
obviamente o seguinte:
C OROL ÁRIO
Se λ1 e λ2 forem valores próprios distintos então
Eλ1 ∩ Eλ2 = {0} .
N OTA
Portanto, dados valores próprios λ1 6= λ2 :
Eλ1 + Eλ2 = Eλ1 ⊕ Eλ2 ∼
= Eλ1 × Eλ2 .
C OROL ÁRIO
Se dim(S) = n então a soma das multiplicidades geométricas
dos valores próprios de T é menor ou igual a n.
Demonstração.
Sejam λ1 , . . . , λm (m ≤ n) os valores próprios de T (sem
repetições). Do corolário anterior conclui-se
n ≥ dim(Eλ1 + · · · + Eλm )
= dim(Eλ1 ⊕ · · · ⊕ Eλm )
= dim(Eλ1 ) + · · · + dim(Eλm )
= mg(λ1 ) + · · · + mg(λm ) .
R EPRESENTAÇ ÃO DIAGONAL DE TRANSFORMAÇ ÕES
LINEARES
Por vezes é possı́vel formar uma base de S constituı́da por
vectores próprios de T : S → V.
Se dim(S) = n isto sucede precisamente quando a soma das
multiplicidades geométricas dos valores próprios é igual a n.
Vimos já alguns exemplos destes.
(Isto será o caso, em particular, se houver n valores próprios
distintos.)
A representação matricial de uma tal transformação linear é
extremamente simples.
Para simplificar, agora consideraremos o caso em que o
domı́nio e o espaço de chegada são o mesmo.
T EOREMA
Seja T : V → V uma transformação linear com dim(V) = n e seja
(v1 , . . . , vn ) uma base ordenada de V.
A representação matricial de T em relação a esta base é uma
matriz diagonal


λ1 · · · 0
 .. . .
. 
 .
. .. 
0
···
λn
se e só se v1 , . . . , vn são vectores próprios de T associados aos
escalares λ1 , . . . , λn , respectivamente.
Demonstração.
Ver Teorema 6.5 do livro.
E XERC ÍCIO
Interprete geometricamente as transformações lineares
T : R2 → R2 cujas representações matriciais, em relação uma
base (v1 , v2 ) fixa mas arbitrária, são as seguintes:
2 0
1.
0 1
2 0
2.
0 −1
−2 0
3.
0 1
−2 0
4.
0 −1
2 0
5.
0 0
0 0
6.
0 1
E XERC ÍCIO
Dê exemplos de transformações lineares T : R2 → R2 que não
tenham nenhuma representação diagonal.
Capı́tulo 25
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 6.2 e 6.3.
VALORES PR ÓPRIOS DE MATRIZES
Adoptaremos a seguinte terminologia para matrizes:
D EFINIÇ ÃO
Seja A ∈ Matn×n (K).
Os valores próprios, vectores próprios e espaços próprios
de A são os valores próprios, vectores próprios e espaços
próprios, respectivamente, da transformação linear T : K n → K n
definida por T(x) = Ax.
N OTA
Portanto x ∈ K n é um vector próprio (da matriz A ∈ Matn×n (K))
associado ao valor próprio λ se e só se ambas as condições
seguintes se verificarem:
I
x 6= 0,
I
Ax = λ x.
D IAGONALIZAÇ ÃO DE MATRIZES
D EFINIÇ ÃO
Seja A ∈ Matn×n (K). Diz-se que A é diagonalizável se existir
uma matriz não-singular S ∈ Matn×n (K) tal que S−1 AS é uma
matriz diagonal.
Nesse caso diz-se que a matriz S é uma matriz
diagonalizante para A.
P ROPOSIÇ ÃO
Uma matriz A ∈ Matn×n (K) é diagonalizável se e só se a
transformação linear T : K n → K n definida por T(x) = Ax tiver
uma representação matricial diagonal.
Uma matriz S é diagonalizante para A se e só se o conjunto
das suas colunas for uma base de K n formada por vectores
próprios de T.
Se S = v1 · · · vn e os valores próprios associados a
v1 , . . . , vn forem λ1 , . . . , λn , respectivamente, ter-se-á


λ1 · · · 0


S−1 AS =  ... . . . ...  .
0
···
λn
Já vimos o seguinte exemplo:
D EFINIÇ ÃO
Seja A =
4/5 3/5
3/5 −4/5
∈ Mat2×2 (R).
A tem vectores próprios (3, 1) e (−1, 3) associados aos valores
próprios 1 e −1, respectivamente.
A é diagonalizável.
Uma matriz diagonalizante é S =
S−1 AS =
1 0
.
0 −1
3 −1
.
1 3
P OLIN ÓMIOS CARACTER ÍSTICOS
Como fazer para procurar os valores próprios e os vectores
próprios de uma matriz quadrada arbitrária?
P ROPOSIÇ ÃO
Seja A ∈ Matn×n (K) e seja λ ∈ K um escalar qualquer.
I
O conjunto Eλ = {x ∈ K n | Ax = λ x} é um subespaço de K n
que coincide com nuc(A − λ I).
I
λ é um valor próprio de A se e só se A − λ I for singular.
I
Os valores próprios de A são os escalares λ tais que
det(A − λ I) = 0.
D EFINIÇ ÃO
p(λ ) = det(A − λ I) é uma função polinomial de λ e designa-se
por polinómio caracterı́stico de A.
P ROPOSIÇ ÃO
Os valores próprios de A são as raı́zes do polinómio
caracterı́stico de A.
E XEMPLO
Seja A =
4/5 3/5
3/5 −4/5
∈ Mat2×2 (R).
A matriz A − λ I é
4/5 − λ
3/5
3/5
−4/5 − λ
O polinómio caracterı́stico p(λ ) = det(A − λ I) é, portanto,
(4/5 − λ )(−4/5 − λ ) − (3/5)2 = λ 2 − 1 .
A matriz A − λ I é singular se e só se λ 2 = 1.
Há portanto dois valores próprios λ1 = 1 e λ2 = −1 (como já
sabı́amos das aulas anteriores: a transformação linear
representada por A é a reflexão através de uma recta).
A determinação dos valores próprios de uma matriz é um
problema de álgebra não linear, uma vez que se reduz à
determinação de raı́zes de polinómios.
Mas uma vez conhecido um valor próprio λ da matriz A, o
problema de encontrar vectores próprios associados a λ é um
problema de álgebra linear:
I
É o problema de encontrar vectores não nulos de Eλ .
I
Basta calcular uma base de Eλ .
I
Somos conduzidos assim ao método, que já bem
conhecemos, para determinar uma base para o núcleo de
uma matriz, uma vez que Eλ = nuc(A − λ I).
E XEMPLO
Seja novamente A =
4/5 3/5
.
3/5 −4/5
Já sabemos que há dois valores próprios λ1 = 1 e λ2 = −1.
Uma base de Eλ1 obtém-se calculando uma base do núcleo da
matriz
4/5 − λ1
3/5
−1/5 3/5
A − λ1 I =
=
.
3/5
−4/5 − λ1
3/5 −9/5
Por eliminação de Gauss pode obter-se a matriz
1 −3
.
0 0
(A matriz A − λ1 I é singular, como não podia deixar de ser!)
Os vectores do núcleo de A − λ1 I são descritos
parametricamente na forma (x, y) = (3y, y) = y(3, 1), pelo que
uma base de Eλ1 é formada pelo vector (3, 1).
E XEMPLO
(Continuação.)
Concluı́mos assim que (3, 1) é um vector próprio associado ao
valor próprio λ1 = 1.
Este procedimento repete-se para cada um dos valores
próprios.
Vectores próprios associados a λ2 = −1 obtém-se calculando
uma base do núcleo de
4/5 − λ2
3/5
9/5 3/5
A − λ2 I =
=
.
3/5
−4/5 − λ2
3/5 1/5
Por eliminação de Gauss pode obter-se a matriz
3 1
.
0 0
Os vectores do núcleo de A − λ2 I são descritos
parametricamente na forma (x, y) = (−y/3, y) = y(−1/3, 1), pelo
que uma base de Eλ2 é formada pelo vector (−1, 3).
O próximo exercı́cio é um exemplo do livro (parágrafo 6.8, p.
261).
Matriz com três valores próprios reais distintos:
E XERC ÍCIO
1. Calcule os valores próprios da matriz


1
5 −1
1 
A =  0 −2
−4
0
3
2. Para cada valor próprio λ diga qual é a multiplicidade
geométrica mgλ e obtenha uma base de Eλ .
3. Diga, justificando, se a matriz A é diagonalizável. Em caso
afirmativo indique uma matriz diagonalizante para A.
Capı́tulo 26
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 6.3.
Vamos rever o Teorema Fundamental da Álgebra:
T EOREMA
Qualquer polinómio com coeficientes complexos e grau
maior ou igual a um tem pelo menos uma raiz complexa.
C OROL ÁRIO
Para qualquer polinómio p(z) = a0 + a1 z + · · · an zn de coeficientes
complexos com n ≥ 1 existem z1 , . . . , zn ∈ C tais que
p(z) = an (z − z1 ) · · · (z − zn ) .
N OTA
z1 , . . . , zn são as raı́zes do polinómio.
Para cada i, o número de factores em que ocorre a raiz zi é a
multiplicidade dessa raiz.
D EFINIÇ ÃO
Seja A ∈ Matn×n (C) e seja λ um valor próprio complexo de A.
Designa-se a multiplicidade de λ enquanto raiz do polinómio
caracterı́stico de A por multiplicidade algébrica do valor
próprio λ e denota-se por ma(λ ) ou maλ .
(É distinta da multiplicidade geométrica.)
P ROPOSIÇ ÃO
Seja A ∈ Matn×n (C) e sejam λ1 , . . . , λm ∈ C os valores próprios
de A.
Então tem-se maλ1 + · · · + maλm = n.
(Vimos que a mesma afirmação, para mg, é verdadeira se
substituirmos “=” por “≤”.)
T EOREMA
Seja A ∈ Matn×n (K) e seja λ0 um valor próprio de A. Então
1 ≤ mgλ0 ≤ maλ0 .
Demonstração.
Já sabemos que 1 ≤ mgλ0 , pois por definição de valor próprio
tem de existir um vector não nulo em Eλ0 , e portanto
dim Eλ0 ≥ 1.
Suponha-se agora mgλ0 = k e seja (u1 , . . . , uk ) uma base
ordenada de Eλ0 .
Uma vez que estes vectores são linearmente independentes
em K n existe uma base de K n que os contém. Seja
(u1 , . . . , uk , v1 , . . . , vn−k ) uma tal base (ordenada).
Demonstração.
(Continuação.)
Uma vez que u1 , . . . , uk são vectores próprios associados a λ0 ,
nesta base a representação matricial da transformação linear
T : K n → K n definida por T(x) = Ax tem a seguinte forma, em
que Ik é a matriz identidade de dimensão k × k:


λ0 0 · · · 0 • · · · •
 0 λ0 · · · 0 • · · · • 


 ..
.. . .
..
.. . . .. 
 .
. .
. . 
.
.


B
λ
I
0 k

0
·
·
·
·
·
·
λ
•
·
·
·
•
=
A0 =
0


0
C
 0 ··· ··· 0 • ··· • 


 ..

..
.. . .
.. . .
 .

.
.
.
.
.
0
···
···
0
•
···
•
Demonstração.
(Continuação.)
Uma vez que A0 representa a mesma transformação linear, tem
os mesmos valores próprios de A.
Aplicando k vezes a fórmula de Laplace à primeira coluna a
partir de A0 − λ I concluimos que o polinómio caracterı́stico de
A0 (e portanto o de A) é divisı́vel por (λ − λ0 )k :
(λ − λ )I
B
= (λ0 − λ )k det(C − λ I) .
det(A0 − λ I) = 0
0
C −λI Portanto temos maλ0 ≥ k.
Os próximos três exercı́cios são exemplos do livro (parágrafo
6.8, pp. 261–266). O primeiro deles foi resolvido quase
totalmente na aula. Recomenda-se aos alunos que resolvam
os outros dois, mesmo que o façam consultando as resoluções
do livro.
Matriz diagonalizável cujos valores próprios são todos reais
mas com menos do que três valores próprios:
E XERC ÍCIO
1. Calcule os valores próprios da matriz


2 1 1
A= 2 3 2 
3 3 4
2. Para cada valor próprio λ diga qual é a multiplicidade
geométrica mgλ e obtenha uma base de Eλ .
3. Diga, justificando, se a matriz A é diagonalizável. Em caso
afirmativo indique uma matriz diagonalizante para A.
Matriz não diagonalizável cujos valores próprios são todos
reais:
E XERC ÍCIO
1. Calcule os valores próprios da matriz


7
5 −1
1 
A =  0 −2
20
0
3
2. Para cada valor próprio λ diga qual é a multiplicidade
geométrica mgλ e obtenha uma base de Eλ .
3. Diga, justificando, se a matriz A é diagonalizável. Em caso
afirmativo indique uma matriz diagonalizante para A.
Matriz real diagonalizável em M3×3 (C) mas não em Mat3×3 (R):
E XERC ÍCIO
1. Calcule os valores próprios da matriz


1 0
0
A =  0 0 −1 
0 1
0
2. Para cada valor próprio λ diga qual é a multiplicidade
geométrica mgλ e obtenha uma base de Eλ .
3. Diga, justificando, se a matriz A é diagonalizável: (i) em
Mat3×3 (R); (ii) em Mat3×3 (C). Em caso afirmativo indique
uma matriz diagonalizante para A.
Capı́tulo 27
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 6.3.
Vamos agora estudar mais em pormenor os polinómios
caracterı́sticos.
T EOREMA
O polinómio caracterı́stico p(λ ) = det(A − λ I) da matriz
A ∈ Matn×n (C) tem:
1. grau igual a n;
2. coeficiente do termo de grau n igual a (−1)n ;
3. coeficiente do termo de grau n − 1 igual a
(−1)n−1 (a11 + · · · + ann );
4. termo de grau 0 igual a det A.
Demonstração.
Comecemos por escrever o polinómio na seguinte forma:
p(λ ) = p0 + p1 λ + p2 λ 2 + · · ·
É imediato que o termo de grau zero p0 é det A porque
p0 = p(0) = det(A − 0I) = det A .
A fórmula para o cálculo do determinante baseada em
permutações dá-nos
det(A − λ I) =
∑
sgn(σ )(A − λ I)σ1 1 . . . (A − λ I)σn n .
σ ∈Sn
Cada parcela contém um produto de exactamente n entradas
da matriz A − λ I.
Demonstração.
(Continuação.)
Qualquer parcela que corresponda a uma permutação
diferente da identidade pode conter no máximo n − 2 factores
da forma aii − λ (porquê?) e portanto apenas pode contribuir
para os coeficientes p0 , . . . , pn−2 .
A parcela correspondente à permutação identidade é assim a
que dá origem aos coeficientes pn−1 e pn :
(a11 −λ ) · · · (ann −λ ) = · · ·+(−1)n−1 (a11 + · · · + ann ) λ n−1 +(−1)n λ n
|
{z
}
| {z }
pn−1
pn
Evidentemente não existem monómios de grau superior a n,
pelo que o grau de p(λ ) é n.
D EFINIÇ ÃO
Seja A ∈ Matn×n (K). Designa-se por traço de A, e denota-se
por tr(A) ou tr A, a soma das entradas da diagonal principal de
A:
tr(A) = a11 + · · · + ann .
N OTA
O polinómio caracterı́stico de uma matriz A ∈ Matn×n (K) é
p(λ ) = det A + · · · + (−1)n−1 tr(A)λ n−1 + (−1)n λ n .
Se n é ı́mpar obtemos p(λ ) = det A + · · · + tr(A)λ n−1 −λ n .
Se n é par obtemos p(λ ) = det A + · · · − tr(A)λ n−1 +λ n .
Em particular, se n = 2 obtemos p(λ ) = det A− tr(A)λ +λ 2 .
T EOREMA
Seja A ∈ Matn×n (C) e sejam λ1 , . . . , λm ∈ C os valores próprios
de A (sem repetições).
maλ1
1. det A = λ1
maλm
· · · λm
;
(det A é igual ao produto dos valores próprios com as
respectivas repetições.)
2. tr A = maλ1 λ1 + · · · + maλm λm .
(tr A é igual à soma dos valores próprios com as
respectivas repetições.)
Demonstração.
Do teorema fundamental da álgebra obtemos, uma vez que já
sabemos que o coeficiente do termo de grau n é (−1)n ,
p(λ ) = (−1)n (λ − λ1 ) · · · (λ − λn )
onde λ1 , . . . , λn é a lista dos n valores próprios complexos, onde
cada um ocorre na lista tantas vezes quantas a sua
multiplicidade algébrica.
Portanto escrevendo p(λ ) = p0 + p1 λ + · · · + pn λ n obtemos
p0 = (−1)n (−1)n (λ1 · · · λn ) = λ1 · · · λn ,
pn−1 = (−1)n (−λ1 − · · · − λn ) = (−1)n−1 (λ1 + · · · + λn ) ,
e do teorema anterior resulta det A = λ1 · · · λn e
tr A = λ1 + · · · + λn .
As relações anteriores dão-nos um método alternativo de
cálculo dos valores próprios de uma matriz A de dimensão
2 × 2: em vez de escrever o polinómio caracterı́stico
det A − (tr A)λ + λ 2
e calcular as raı́zes podemos resolver o sistema de equações
não lineares
λ1 + λ2 = tr A
λ1 λ2 = det A .
O resultado, evidentemente, é o mesmo e não há grande
vantagem em utilizar este método em vez de calcular
directamente as raı́zes do polinómio caracterı́stico:
p
tr(A) + (tr A)2 − 4(det A)
λ1 =
p 2
tr(A) − (tr A)2 − 4(det A)
λ2 =
2
As relações anteriores são no entanto úteis ao calcular valores
próprios de matrizes de maior dimensão.
Por exemplo, seja


1 2
3
A =  8 1 −3  .
−1 0
7
A soma das entradas de cada linha é igual a 6. Isto significa
que o produto de A pelo vector (1, 1, 1) é igual a
(6, 6, 6) = 6(1, 1, 1) e portanto (1, 1, 1) é um vector próprio
associado ao valor próprio 6.
As relações
λ1 + λ2 + λ3 = tr A
λ1 λ2 λ3 = det A .
permitem-nos agora calcular todos os valores próprios
directamente a partir de um sistema de equações não lineares
de grau igual a 2.
Uma vez que já sabemos que 6 é um valor próprio, podemos
por exemplo escolher λ3 = 6 e obter
λ1 + λ2 = tr A − 6 = 3
λ1 λ2 = det A/6 = −96/6 = −16 .
A primeira equação dá-nos λ2 = 3 − λ1 e substituindo na
segunda equação obtemos
λ1 (3 − λ1 ) = −16 .
Escrevendo λ em vez de λ1 obtemos a equação do segundo
grau
λ 2 − 3λ − 16 = 0 ,
cujas raı́zes são os valores de λ1 e λ2 procurados:
√
√
3 + 32 + 4 × 16 3 + 73
λ1 =
=
2
2√
√
3 − 32 + 4 × 16 3 − 73
λ2 =
=
.
2
2
Método alternativo (mas bastante mais trabalhoso —
exercı́cio!):
Começar por escrever o polinómio caracterı́stico p(λ ) de A.
Uma vez que já conhecemos uma raiz, λ3 = 6, sabemos que o
polinómio p(λ ) é divisı́vel por λ − 6.
Podemos portanto calcular o quociente q(λ ) = p(λ )/(λ − 6),
que é um polinómio de grau 2.
As raı́zes de q(λ ) são os restantes valores próprios λ1 e λ2 .
Desvantagens deste método: primeiro temos de calcular o
determinante det(A − λ I) em vez de apenas o determinante
numérico det A; uma vez assim obtido p(λ ) ainda temos de
fazer a divisão.
Por comparação, usando directamente as relações do teorema,
apenas temos de calcular det A e obtemos rapidamente um
polinómio de grau 2 após uma substituição muito simples.
Vamos ver mais exercı́cios em que é possı́vel “adivinhar” à
partida um dos valores próprios:
E XERC ÍCIO
Calcule os valores próprios da matriz


2 1 1
A= 2 3 2 
0 1 2
Resolução.
As primeiras duas linhas da matriz são [2 1 1] e [2 3 2].
Subtraindo-lhes [1 0 0] e [0 1 0], respectivamente, obtemos
as linhas [1 1 1] e [2 2 2], que são múltiplos uma da outra e
portanto concluimos que a matriz A − I é singular.
Isto significa que λ1 = 1 é um valor próprio.
Uma vez que det A = 6 (confirme) e tr A = 7 obtemos, para os
restantes valores próprios λ2 e λ3 , as relações seguintes:
λ2 λ3 = 6
λ2 + λ3 + 1 = 7 .
Logo, λ3 = 6 − λ2 e, substituindo na primeira equação, tem-se√
λ22 − 6λ
√2 + 6 = 0, ou seja, os valores próprios λ2 e λ3 são 3 + 3
e 3 − 3.
E XERC ÍCIO
Calcule os valores próprios da matriz


1 0 1
A= 1 1 2 
1 0 3
Resolução.
Neste caso a matriz A − I tem segunda coluna nula e portanto
é singular.
Isto significa que λ1 = 1 é um valor próprio de A.
O resto do exercı́cio é análogo ao anterior.
E XERC ÍCIO
Calcule os valores próprios da matriz


3 1 1
A= 1 3 2 
1 1 3
Resolução.
Neste caso a matriz A − 2I tem as duas primeiras colunas
iguais e portanto é singular.
Isto significa que λ1 = 2 é um valor próprio de A.
O resto do exercı́cio é análogo aos anteriores.
E XERC ÍCIO
Calcule os valores próprios da matriz


3 1
1
A =  1 3 −5  .
1 1 −1
Resolução.
Tal como no exercı́cio anterior, um dos valores próprios é
λ1 = 2 porque a matriz A − 2I tem duas colunas iguais.
Desta vez temos det A = 0 e portanto outro dos valores próprios
é λ2 = 0.
A relação λ1 + λ2 + λ3 = tr A = 5 determina o terceiro valor
próprio λ3 = 3.
E XERC ÍCIO
Calcule os valores próprios da matriz


3 1
1
A =  1 3 −5  .
2 1
0
Sugestão: comece por calcular det A.
Resolução.
Seguindo a sugestão concluimos que det A = 0 e portanto um
valor próprio é λ1 = 0.
Então os restantes valores próprios obedecem à relação
λ2 + λ3 = tr A = 6 mas isto não chega para os determinar
porque a outra relação, λ1 λ2 λ3 = det A, se resume à igualdade
trivial 0 = 0.
Calculando o polinómio caracterı́stico obtemos, na forma
canónica,
p(λ ) = −11λ + 6λ 2 − λ 3 .
(Note-se que o termo de grau 0 é nulo, como teria de ser
porque det A = 0, ou seja, p(λ ) é divisı́vel por λ .)
Os restantes valores
próprios√são as raı́zes de λ 2 − 6λ + 11, ou
√
seja, λ2 = 3 + 2i e λ3 = 3 − 2i.
Alguns comentários:
O Teorema Fundamental da Álgebra assegura que existem n
raı́zes complexas de qualquer polinómio de grau n com
coeficientes complexos.
Mas não oferece nenhum algoritmo para as determinar!
Na verdade demonstra-se, no contexto de uma área da álgebra
conhecida por Teoria de Galois em honra do matemático
francês Évariste Galois (25 de Outubro de 1811 – 31 de Maio
de 1832) que não existe nenhuma fórmula resolvente para
obter as raı́zes de polinómios de grau maior ou igual a 5.
Em engenharia a determinação de valores próprios de
matrizes de grande dimensão é frequentemente feita por
métodos numéricos.
G ALOIS
F IGURA : O matemático francês Évariste Galois (25/10/1811 –
31/05/1832), desenhado aos 15 anos de idade por um colega de
escola.
Capı́tulo 28
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 6.6 e primeiras duas páginas da secção 6.7.
F ORMA NORMAL DE J ORDAN
Vamos ver que as matrizes não diagonalizáveis têm apesar de
tudo uma forma “quase-diagonal”, a que se chama a forma
normal de Jordan, ou forma canónica de Jordan.
F IGURA : O matemático francês Camile Jordan
(5/01/1838 – 22/01/1922).
D EFINIÇ ÃO
Seja A ∈ Matn×n (K), seja λ um valor próprio de A e seja ainda
u ∈ K n um vector qualquer.
Diz-se que u é um vector próprio generalizado de A
associado a λ se as duas condições seguintes se verificarem,
para algum k ∈ N:
u 6= 0 ,
(A − λ I)k u = 0 .
N OTA
Qualquer vector próprio u é também um vector próprio
generalizado, pois (A − λ I)k u = 0 com k = 1.
Se u for um vector próprio generalizado e k for o menor número
natural tal que (A − λ I)k u = 0 então (A − λ I)k−1 u é um vector
próprio associado a λ .
D EFINIÇ ÃO
Uma cadeia de Jordan de comprimento k associada a λ é
uma lista
u1 , . . . , uk
de vectores não nulos tal que
(A − λ I)ui = ui−1
(A − λ I)u1 = 0 .
A cadeia é maximal se não existir nenhum vector v tal que
(A − λ I)v = uk .
N OTA
u1 , . . . , uk é uma cadeia de Jordan se e só se todos os ui são
vectores próprios generalizados e ui = (A − λ I)k−i uk para cada
i ∈ {1, . . . , k}.
D EFINIÇ ÃO
Seja u um vector próprio generalizado associado a λ e seja k o
menor número natural tal que (A − λ I)k u = 0.
A cadeia de Jordan definida por
u1 = (A − λ I)k−1 u,
u2 = (A − λ I)k−2 u,
..
.
uk−1 = (A − λ I)u,
uk = u
é a cadeia de Jordan gerada por u.
P ROPOSIÇ ÃO
Todos os vectores de uma cadeia de Jordan u1 , . . . , uk são
linearmente independentes.
Demonstração.
Por indução matemática.
Se k = 1 temos a base da indução: {u1 } é um conjunto
linearmente independente porque u1 6= 0.
Usando como hipótese de indução que a afirmação é válida
para k ∈ N vamos provar que também o é para k + 1.
Se u1 , . . . , uk+1 for uma cadeia de Jordan então u1 , . . . , uk é uma
cadeia de jordan de comprimento k, pelo que, pela hipótese de
indução, os seus vectores são linearmente independentes.
Qualquer vector v ∈ L({u1 , . . . , uk }) tem de satisfazer
(A − λ I)k v = 0 e portanto uk+1 ∈
/ L ({u1 , . . . , uk }).
Portanto {u1 , . . . , uk+1 } é linearmente independente.
C OROL ÁRIO
Qualquer cadeia de Jordan
u1 , . . . , uk
associada a λ está contida numa cadeia maximal
u1 , . . . , uk , v1 , . . . , vl
associada a λ com l ∈ N0 .
(Como de costume, usa-se a convenção de que l = 0 se e só
se a lista v1 , . . . , vl for vazia.)
L EMA
Sejam λ1 , . . . , λm os valores próprios de A (sem repetições) e
sejam u1 , . . . , um vectores próprios generalizados associados a
λ1 , . . . , λm , respectivamente. Então o conjunto {u1 , . . . , um } é
linearmente independente.
Este lema é uma generalização do que já vimos para vectores
próprios associados a valores próprios distintos e não o
demonstraremos aqui.
O teorema fundamental deste capı́tulo é o seguinte:
T EOREMA
Seja A ∈ Matn×n (K). Então existe uma base de K n formada por
vectores próprios generalizados de A.
Não demonstraremos este resultado, mas vamos ilustrá-lo por
meio de exemplos.
Primeiro vamos ver o efeito de escolher uma base de vectores
próprios generalizados para a representação matricial da
transformação linear T : K n → K n definida por
T(x) = Ax .
Seja (v1 , . . . , vn ) uma base de K n , formada por vectores próprios
generalizados, obtida por concatenação de cadeias maximais
de Jordan associadas a valores próprios λ1 , . . . , λm :


 (1)
(1) (2)
(2)
(m)
(m) 
(v1 , . . . , vn ) = u1 , . . . , uk1 , u1 , . . . , uk2 , . . . , u1 , . . . , ukm  .
|
{z
}
|
{z
}|
{z
}
λ1
λ2
λm
Temos, para cada i ∈ {1, . . . , m},
(i)
(i)
(i)
T u1
= Au1 = λi u1
(i)
(i)
(i)
(i)
(i)
(i)
T u2
= Au2 = (A − λi I)u2 + λi u2 = u1 + λi u2
(i)
(i)
(i)
(i)
(i)
(i)
T u3
= Au3 = (A − λi I)u3 + λi u3 = u2 + λi u3
··· ··· ···
Portanto T tem a seguinte representação matricial em relação
à base (v1 , . . . , vn ):


λ1 1 0 · · · 0


 0 λ1 1 . . . ...





.
.. 0
 0 0 λ1

0
·
·
·


 ..

..
.. . .
 .

. 1
.
.


 0 0 · · · 0 λ1





λ2 1 0 · · · 0




.
.
. . ..


0
λ
1
2




.
.. 0


0
0
0
λ
·
·
·
2




..
..
.. . .


. 1
.
.
.




0 0 · · · 0 λ2


..
..
..
.
.
.
D EFINIÇ ÃO
Uma matriz da forma da anterior diz-se estar na forma normal
de Jordan, ou na forma canónica de Jordan, ou
simplesmente que é uma forma normal de Jordan.
Cada bloco da forma









λ
1
0
0 λ
1
0
..
.
0
..
.
λ
..
.
0
0 ···
··· 0
.
..
. ..
..
. 0
..
. 1
0 λ









chama-se um bloco de Jordan (associado a λ ).
C OROL ÁRIO
Qualquer matriz A ∈ Matn×n (K) tem uma forma normal de
Jordan J.
A multiplicidade geométrica de um valor próprio λ de A é igual
ao número de blocos de Jordan associados a λ em J.
A PLICAÇ ÕES
Resolução de sistemas de equações diferenciais (a ver em
ACED).
E XERC ÍCIOS
A matriz seguinte não é diagonalizável e já figurou num
exercı́cio:
E XERC ÍCIO
1. Calcule os valores próprios da matriz


7
5 −1
1 
A =  0 −2
20
0
3
2. Calcule uma forma normal de Jordan J e uma matriz
não-singular S tais que J = S−1 AS.
E XERC ÍCIO
1. Calcule os valores próprios da matriz


1 −1 0
3 1 
A= 1
0
0 2
2. Calcule uma forma normal de Jordan J e uma matriz
não-singular S tais que J = S−1 AS.
E XERC ÍCIO
1. Calcule os valores próprios da matriz


1 −1 −1
3
1 
A= 1
0
0
2
2. Calcule uma forma normal de Jordan J e uma matriz
não-singular S tais que J = S−1 AS.
Capı́tulo 29
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 4.1 e 4.2.
E SPAÇOS E UCLIDIANOS
F IGURA : Impressão artı́stica do matemático grego Euclides de
Alexandria, que viveu por volta do ano 300 AC e é frequentemente
referido como o Pai da Geometria.
Recordar o produto escalar em Rn :
x · y = xT y = x1 y1 + · · · + xn yn .
É uma função em duas variáveis Rn × Rn → R.
É uma função linear na primeira variável:
(αx + β y) · z = αx · z + β y · z .
É uma função simétrica das variáveis:
x·y = y·x .
(E portanto também é linear na segunda variável.)
É uma função positiva, ou definida positiva:
x·x ≥ 0
e
x·x = 0
sse
x=0.
Este facto é fundamental para poder definir a norma de um
vector:
√
||x|| = x · x .
D EFINIÇ ÃO
Seja V um espaço vectorial real. Um produto interno em V é
uma função
ϕ : V ×V → R
que é:
L INEAR NA PRIMEIRA VARI ÁVEL :
ϕ(αx + β y, z) = αϕ(x, z) + β ϕ(y, z).
S IM ÉTRICA : ϕ(x, y) = ϕ(y, x).
D EFINIDA POSITIVA : Se x 6= 0 então ϕ(x, x) > 0.
O espaço V equipado com um produto interno especı́fico
designa-se por espaço Euclidiano (real).
A norma de um vector x ∈p
V num espaço Euclidiano V com
produto interno ϕ é ||x|| = ϕ(x, x).
Dois vectores x, y ∈ V são ortogonais se ϕ(x, y) = 0.
N OTA
É habitual usar a notação hx, yi para o produto interno dos
vectores x e y num espaço Euclidiano real V.
A linearidade implica h0, xi = 0 para qualquer x ∈ V e portanto
pela positividade temos hx, xi = 0 se e só se x = 0.
Qualquer produto interno num espaço real é uma função
bilinear.
E XEMPLO
São produtos internos em espaços vectoriais reais:
I
O produto escalar hx, yi = x · y em Rn .
I
Em P2 (R):
hp, qi = p(0)q(0) + p(1)q(1) + p(2)q(2) .
I
Em Pn (R), dada lista de elementos distintos x1 , . . . , xm ∈ R
com m > n:
m
hp, qi = ∑ p(xi )q(xi ) .
i=1
I
Em C[a, b] (com a < b):
hf , gi =
Z b
f (t)g(t)dt .
a
Antes de estudar mais exemplos vamos ver como se pode
adaptar a noção de produto interno aos espaços vectoriais
complexos.
Comecemos pelo exemplo mais simples de todos: em C é
natural querer que a norma ||z|| de um vector z ∈ C seja o seu
módulo |z| = (zz)1/2 .
Sendo assim é natural definir o produto interno de z e w pela
fórmula
hz, wi = zw .
Mais geralmente, definimos o produto escalar dos vectores
z, w ∈ Cn pela fórmula
z · w = z1 w1 + · · · + zn wn .
D EFINIÇ ÃO
Seja V um espaço vectorial complexo. Um produto interno
em V é uma função
h−, −i : V × V → C
que é:
L INEAR NA PRIMEIRA VARI ÁVEL : hαx + β y, zi = αhx, zi + β hy, zi.
H ERMITEANA : hx, yi = hy, xi.
D EFINIDA POSITIVA : Se x 6= 0 então hx, xi ∈ R+ .
O espaço V equipado com um produto interno especı́fico
designa-se por espaço Euclidiano (complexo).
A norma de um vector x ∈ V num
p espaço Euclidiano V com
produto interno h−, −i é ||x|| = hx, xi.
Dois vectores x, y ∈ V são ortogonais se hx, yi = 0.
A palavra “Hermitiana” é usada em honra do matemático
francês Charles Hermite:
F IGURA : Charles Hermite (24/12/1822 – 14/01/1901), por volta de
1887.
N OTA
A linearidade implica h0, xi = 0 para qualquer x ∈ V e portanto
pela positividade temos hx, xi = 0 se e só se x = 0.
Chama-se também à propriedade hx, yi = hy, xi simetria
Hermitiana.
Qualquer produto interno num espaço complexo é uma função
sesquilinear, ou seja, uma função linear na primeira variável e
anti-linear na segunda:
hx, αy + β zi = αhx, yi + β hx, zi .
E XEMPLO
São produtos internos em espaços vectoriais complexos:
I
O produto escalar hx, yi = x · y em Cn .
Matricialmente temos
x · y = xT y ,
onde a operação de conjugação
para matrizes
A ∈ Matm×n (C) é definida por A ij = aij .
I
Em P2 (C):
hp, qi = p(0)q(0) + p(1)q(1) + p(i)q(i) .
I
No espaço das funções contı́nuas f : [a, b] → C (com a < b
em R):
hf , gi =
Z b
f (t)g(t)dt .
a
R EPRESENTAÇ ÕES MATRICIAIS
P ROPOSIÇ ÃO
Seja ϕ : Cn × Cn → C.
A função ϕ é sesquilinear se e só se existir uma matriz
A ∈ Matn×n (C) tal que
ϕ(x, y) = xT Ay
para quaisquer x, y ∈ Cn .
Se existir uma tal matriz A ela é única e as suas entradas são
definidas por
aij = ϕ(ei , ej ) .
A função ϕ é Hermitiana se e só se a matriz A satisfizer a
condição
aij = aji .
D EFINIÇ ÃO
Diz-se que a matriz A da proposição anterior representa ϕ.
Chama-se matriz Hermitiana a uma matriz A tal que aij = aji .
(E anti-Hermitiana se aij = −aji .)
E XERC ÍCIO
Dê exemplos de matrizes Hermitianas e de matrizes
anti-Hermitianas.
A adaptação para os espaços reais Rn é evidente:
P ROPOSIÇ ÃO
Seja ϕ : Rn × Rn → R.
A função ϕ é bilinear se e só se existir uma matriz
A ∈ Matn×n (R) tal que
ϕ(x, y) = xT Ay
para quaisquer x, y ∈ Rn .
Se existir uma tal matriz A ela é única e as suas entradas são
definidas por
aij = ϕ(ei , ej ) .
A função ϕ é simétrica se e só se a matriz A for simétrica.
E XEMPLO
A função ϕ : R2 × R2 → R definida por
ϕ(x, y) = 3x1 y1 + x1 y2 − x2 y1 + 10x2 y2
é bilinear e é representada pela matriz
3 1
−1 10
Portanto ϕ não é simétrica.
D EFINIÇ ÃO
À matriz que representa um produto interno em Cn chama-se a
métrica do produto interno.
L EMA
A métrica dum produto interno em Cn é necessariamente uma
matriz Hermitiana com todas as entradas da diagonal principal
reais e positivas.
A métrica dum produto interno em Rn é necessariamente uma
matriz simétrica com todas as entradas da diagonal principal
positivas.
Estas condições são apenas necessárias: não são suficientes
para garantir que uma dada matriz é uma métrica.
E XEMPLO
Os produtos escalares de Rn e Cn são representados por
matrizes identidade.
E XERC ÍCIO
Diga, justificando, quais das seguintes matrizes são métricas
de produtos internos em R2 :
1 2
1.
2 0
1 2
2.
1 3
1 1
3.
1 3
1 2
4.
2 3
Capı́tulo 30
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 4.2 e 4.3.
A LGUMAS PROPRIEDADES DA NORMA
Sendo x e y vectores de um espaço Euclidiano (real ou
complexo) e a um escalar, têm-se as duas propriedades
seguintes, cuja demonstração é imediata:
P OSITIVIDADE : ||x|| > 0 se x 6= 0
H OMOGENEIDADE : ||ax|| = |a| ||x||
Ver-se-ão outras propriedades mais adiante.
BASES ORTONORMAIS
D EFINIÇ ÃO
Seja V um espaço Euclidiano (real ou complexo).
Uma base de V diz-se ortogonal se quaisquer vectores
distintos da base forem ortogonais.
Uma base de V diz-se ortonormal se for ortogonal e qualquer
vector da base for um vector unitário, ou seja, com norma
igual a 1.
E XEMPLO
I
As bases canónicas de Rn e Cn são ortonormais.
I
De qualquer vector não nulo x obtém-se um vector unitário
1
||x|| x. Portanto podemos obter uma base ortonormal a
partir de qualquer base ortogonal.
E XERC ÍCIO
Dizendo que um conjunto X de vectores qualquer é ortogonal
quando quaisquer vectores distintos de X forem ortogonais,
mostre que é linearmente independente qualquer conjunto
ortogonal X tal que 0 ∈
/ X.
E XERC ÍCIO
Mostre que as funções sen nt (n ∈ N) definidas no intervalo
[0, 2π] formam um conjunto ortogonal em relação ao produto
interno
Z
2π
hf , gi =
f (t)g(t)dt .
0
P ROPOSIÇ ÃO
Seja V um espaço Euclidiano complexo com uma base
ortonormal (e1 , . . . , en ). Então o vector de cordenadas, nessa
base, de qualquer vector x ∈ V é
(hx, e1 i, . . . , hx, en i) .
Por outras palavras, qualquer vector x ∈ V exprime-se como a
seguinte combinação linear:
n
x = ∑ hx, ei iei .
i=1
C OROL ÁRIO
Seja V um espaço Euclidiano complexo com uma base
ortonormal (e1 , . . . , en ) e sejam x, y ∈ V. Então tem-se a seguinte
igualdade, conhecida como fórmula de Parseval:
n
hx, yi = ∑ hx, ei ihy, ei i .
i=1
N OTA
Esta fórmula mostra que o produto interno de dois vectores
num espaço complexo de dimensão n é, dada uma base
ortonormal, igual ao produto escalar dos seus vectores de
coordenadas nessa base.
N OTA
Neste momento estamos equipados para compreender textos
básicos sobre mecânica quântica e, em particular, computação
quântica.
P ROJECÇ ÕES ORTOGONAIS E ÂNGULOS
D EFINIÇ ÃO
Seja V um espaço Euclidiano (real ou complexo) e seja e um
vector unitário (ou seja, com norma 1). Dado um vector
qualquer x ∈ V, a projecção ortogonal de x sobre e é o vector
p = hx, eie .
Mais geralmente, dado um vector qualquer v ∈ V \ {0}, a
projecção ortogonal de x sobre v é a projecção ortogonal de
1
x sobre o vector unitário e = ||v||
v:
p = hx, eie =
hx, vi
v
=
v.
hv, vi
||v||2
hx, vi
Em R2 , sendo θ o ângulo entre dois vectores não nulos x e y,
||p||
tem-se cos θ = ||x||
onde p é a projecção ortogonal de x sobre y.
Logo, tem-se
hx, yi
cos θ =
||x|| ||y||
o que motiva a definição seguinte (apenas para espaços
Euclidianos reais):
D EFINIÇ ÃO
Seja V um espaço Euclidiano real e sejam x, y ∈ V \ {0}. O
ângulo entre os dois vectores x e y é definido por
θ = arccos
hx, yi
.
||x|| ||y||
Para esta definição fazer sentido é preciso demonstrar que da
nossa definição de produto interno real resulta que
hx, yi ||x|| ||y|| ≤ 1 .
Na verdade esta condição verifica-se até para espaços
Euclidianos complexos e tem o nome de desigualdade de
Cauchy–Schwarz:
T EOREMA
Em qualquer espaço Euclidiano (real ou complexo) tem-se,
para quaisquer dois vectores x e y, a desigualdade de
Cauchy–Schwarz:
|hx, yi| ≤ ||x|| ||y|| .
Verifica-se a igualdade se e só se os dois vectores forem
linearmente dependentes.
Demonstração.
Suponha-se que x 6= 0 e seja p a projecção ortogonal de y
sobre x:
hy, xi
p=
x.
||x||2
Então
||y − p||2 = hy − p, y − pi = hy, yi − hy, pi − hp, yi + hp, pi
||y||2 ||x||2 − |hy, xi|2
.
=
||x||2
(Os passos intermédios foram feitos no quadro — ver o livro,
Teorema 4.3.) Uma vez que ||y − p||2 ≥ 0, obtemos a
desigualdade pretendida.
Demonstração.
(Continuação.) O caso da igualdade corresponde a ter-se
||y − p||2 = 0, ou seja,
y=p=
hy, xi
x,
||x||2
e portanto y e x são linearmente dependentes. O caso com
x = 0 é evidente.
P ROPOSIÇ ÃO
A norma de um espaço Euclidiano satisfaz a desigualdade
triangular:
||x + y|| ≤ ||x|| + ||y|| .
Se x e y forem ortogonais então tem-se o Teorema de
Pitágoras:
||x + y||2 = ||x||2 + ||y||2 .
Demonstração.
Resolver como exercı́cio, ou consultar o livro, secção 4.2.
O RTOGONALIZAÇ ÃO DE G RAM –S CHMIDT
Vamos ver que em qualquer espaço Euclidiano (real ou
complexo) de dimensão finita existe uma base ortogonal (e
portanto uma base ortonormal).
Vamos estudar um algoritmo para obter uma base ortogonal a
partir de uma base qualquer, conhecido por método de
ortogonalização de Gram–Schmidt.
O algoritmo resulta do teorema seguinte:
T EOREMA
Seja V um espaço Euclidiano (real ou complexo) e seja
v1 , . . . , vn uma lista de vectores linearmente independente.
Então a lista u1 , . . . , un definida adiante é também linearmente
independente, gera o mesmo subespaço L({v1 , . . . , vn }), e
consiste de vectores ortogonais entre si:
u1 = v1
hv2 , u1 i
u1
||u1 ||2
hv3 , u1 i
hv3 , u2 i
= v3 −
u
−
u2
1
||u1 ||2
||u2 ||2
..
.
hvn , u1 i
hvn , u2 i
hvn , un−1 i
u
−
u
−
·
·
·
−
un−1
= vn −
1
2
||u1 ||2
||u2 ||2
||un−1 ||2
u2 = v2 −
u3
un
Demonstração.
A demonstração foi explicada na aula. Quem não esteve na
aula deve consultar o livro, secção 4.3.
O seguinte exercı́cio foi resolvido na aula.
E XERC ÍCIO
Dados os seguintes vectores de R3 (que formam uma base),
v1 = (1, 1, 1)
v2 = (1, 1, 0)
v3 = (1, 0, 0) ,
calcule os vectores u1 , u2 e u3 do teorema anterior e verifique
que formam de facto uma base ortogonal de R3 .
O seguinte exercı́cio difere do anterior apenas na ordem dos
vectores e serve para mostrar que o resultado de aplicar o
algoritmo de Gram–Schmidt depende da ordem pela qual são
apresentados os vectores v1 , v2 , . . ..
E XERC ÍCIO
Dados os seguintes vectores de R3 ,
v1 = (1, 0, 0)
v2 = (1, 1, 0)
v3 = (1, 1, 1) ,
calcule os vectores u1 , u2 e u3 do teorema anterior.
Capı́tulo 31
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
R EVIS ÃO
Na aula anterior vimos que em qualquer espaço Euclidiano de
dimensão finita existe uma base ortonormal (e apresentámos
um algoritmo para obter tais bases — o algoritmo de
Gram–Schmidt).
Na aula anterior a essa tı́nhamos visto que em Cn qualquer
produto interno é representado por uma matriz M ∈ Matn×n (C)
a que se chama a métrica do produto interno:
hx, yi = xT My
mij = hei , ej i .
A definição de M é, como se vê, feita em termos da base
canónica de Cn . Mas, como veremos nesta aula, podemos
defini-la em termos de uma qualquer base de um espaço
complexo de dimensão finita. Tal como para a representação
matricial de transformações lineares, a métrica de um produto
interno depende da base escolhida.
M UDANÇAS DE BASE
Comecemos por estudar a representação matricial de uma
função sesquilinear em relação a uma base qualquer:
P ROPOSIÇ ÃO
Seja V um espaço vectorial complexo com uma base ordenada
(v1 , . . . , vn ) e seja ϕ : V × V → C.
A função ϕ é sesquilinear se e só se existir uma matriz
A ∈ Matn×n (C) tal que para quaisquer x, y ∈ V temos
ϕ(x, y) = xT Ay
onde x, y ∈ Cn são os vectores de coordenadas de x e y,
respectivamente, na base dada.
A é necessariamente definida por aij = ϕ(vi , vj ) e ϕ é
Hermitiana se e só se a matriz A for Hermitiana.
P ROPOSIÇ ÃO
Seja V um espaço vectorial Euclidiano de dimensão finita. Uma
base é ortonormal (resp. ortogonal) se e só se a métrica do
produto interno nessa base for a matriz identidade (resp. uma
matriz diagonal).
N OTA
Dada uma base ortonormal, o produto interno de dois vectores
é igual ao produto escalar dos respectivos vectores de
coordenadas nessa base, tal como já tı́nhamos observado na
aula anterior a propósito da fórmula de Parseval.
T EOREMA
Seja V um espaço vectorial complexo com bases ordenadas
B = (v1 , . . . , vn ) e B0 = (w1 , . . . , wn ) e matriz de mudança de base
S (de B para B0 ).
Seja ainda ϕ : V × V → C uma função sesquilinear representada
pelas matrizes A e A0 nas bases B e B0 , respectivamente.
As matrizes A e A0 relacionam-se pela fórmula seguinte:
A0 = ST AS .
O mesmo resultado obtém-se para espaços reais, mas com a
fórmula
A0 = ST AS .
Este teorema permite-nos obter uma primeira caracterização
das matrizes que são métricas de produtos internos:
C OROL ÁRIO
Uma matriz M ∈ Matn×n (C) pode ser a métrica de um produto
interno se e só se existir uma matriz não-singular S ∈ Matn×n (C)
tal que M = ST S.
Demonstração.
Seja M ∈ Matn×n (C) a métrica de um espaço Euclidiano
complexo V de dimensão n em relação a uma base (v1 , . . . , vn ).
Uma vez que qualquer espaço Euclidiano de dimensão finita
tem uma base ortonormal, seja (e1 , . . . , en ) uma base
ortonormal de V e seja S a matriz de mudança de base da
base ortonormal para a outra base.
A métrica do produto interno na base ortonormal é a identidade
e portanto a fórmula da mudança de base do teorema anterior
dá-nos M = ST S.
Demonstração.
(Continuação.)
Acabámos de ver que qualquer métrica M é igual a ST S para
alguma matriz não-singular S.
A afirmação recı́proca (de que ST S é necessariamente uma
métrica se S for não-singular), demonstra-se observando que
ST S é, por exemplo a métrica do produto escalar de Cn na base
ordenada formada pelas colunas de S.
C OROL ÁRIO
Seja V um espaço Euclidiano complexo com bases
ortonormais B = (v1 , . . . , vn ) e B0 = (w1 , . . . , wn ) e matriz de
mudança de base S (de B para B0 ).
Então tem-se
ST S = I .
Para espaços reais o resultado é análogo, com a fórmula
ST S = I .
D EFINIÇ ÃO
Diz-se que é unitária (resp. ortogonal) uma matriz quadrada S
tal que ST S = I (resp. ST S = I).
N OTA
Uma matriz quadrada S é ortogonal se e só se for não-singular
com S−1 = ST . (Exemplo: as matrizes de permutação.)
Isto significa precisamente que todas as colunas de S são
vectores de norma 1 (em relação ao produto escalar de Rn ) e
ortogonais entre si.
A mesma afirmação se aplica às linhas.
D EFINIÇ ÃO
Seja A ∈ Matm×n (C). A matriz adjunta de A é a matriz
T
A∗ = A = AT .
N OTA
I
M é uma métrica de um produto interno num espaço
complexo de dimensão finita se e só se existir uma matriz
não-singular S tal que M = S∗ S.
I
Uma matriz quadrada S é unitária se e só se for
não-singular com S−1 = S∗ .
I
Isto significa precisamente que todas as colunas de S são
vectores de norma 1 (em relação ao produto escalar de
Cn ) e ortogonais entre si.
I
Uma matriz A é Hermitiana se e só se A = A∗ .
Por esta razão também se designam as matrizes
Hermitianas por auto-adjuntas.
E XERC ÍCIO
Defina um produto interno ϕ em R2 para o qual os vectores
v1 = (2, 1) e v2 = (2, −1) tenham norma igual a 1 e sejam
ortogonais.
Resolução.
Queremos evidentemente que o produto interno seja o produto
escalar nas coordenadas definidas pela base (v1 , v2 ).
A matriz de mudança de base da base canónica para esta
base é
2
2
S=
.
1 −1
Portanto queremos ϕ(x, y) = (S−1 x)T (S−1 y) = xT (S−1 )T S−1 y,
pelo que a métrica será a matriz
1
1
−1
−1
−1
−2
1/8
0
(S−1 )T S−1 =
=
2 (−4) −1
2
0 1/2
(−4) −2
e portanto tem-se
ϕ(x, y) = 18 x1 y1 + 12 x2 y2 .
Capı́tulo 32
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 4.4, 4.5.1 e 4.5.2.
O que se segue diz respeito tanto a espaços reais como
complexos.
D EFINIÇ ÃO
Seja V um espaço Euclidiano e seja S ⊂ V um subespaço
qualquer.
Diz-se que um vector x ∈ V é ortogonal a S se e só se é
ortogonal a todos os vectores de S.
O conjunto de todos os vectores ortogonais a S designa-se por
complemento ortogonal de S e denota-se por S⊥ .
E XEMPLO
Já vimos os seguintes exemplos, dada uma matriz
A ∈ Matm×n (R), tomando para produto interno de Rn o produto
escalar:
I
nuc(A) = (lin(A))⊥ ⊂ Rn
I
lin(A) = (nuc(A))⊥ ⊂ Rn
T EOREMA
Se S for um subespaço de um espaço Euclidiano V de
dimensão finita então V = S ⊕ S⊥ .
(Portanto cada vector x ∈ V escreve-se de forma única como
x = xS + xS⊥ com xS ∈ S e xS⊥ ∈ S⊥ .)
A função P : V → S definida por P(x) = xS (designada por
(operador de) projecção ortogonal de V sobre S) é uma
transformação linear.
Se {e1 , . . . , ek } for uma base ortonormal de S então
k
Px = ∑ hx, ei iei .
i=1
T EOREMA
(Continuação.)
Tem-se:
I
P(V) = S
I
P2 = P
I
hPx, yi = hx, Pyi
Denotando por P⊥ a projecção ortogonal de V sobre S⊥
tem-se:
I
P + P⊥ = id
I
||x||2 = ||Px||2 + ||P⊥ x||2 (fórmula de Pitágoras).
Demonstração.
Ver demonstração no livro.
T EOREMA
(Teorema de aproximação.)
Seja S um subespaço de dimensão finita de um espaço
Euclidiano V e seja x ∈ V.
Então existe um vector de S mais próximo de x do que todos os
outros vectores de S, nomeadamente a projecção ortgonal de x
sobre S.
Por outras palavras, para qualquer y ∈ S tem-se
||x − Px|| ≤ ||x − y|| .
Demonstração.
Da fórmula de Pitágoras temos
||x − y||2 = ||P(x − y)||2 + ||P⊥ (x − y)||2 .
Logo, como Py = y para qualquer y ∈ S temos
||x − y|| ≥ ||P⊥ (x − y)|| = ||(id − P)(x − y)|| = ||x − Px − y + Py||
= ||x − Px|| .
C OROL ÁRIO
Seja S um subespaço de dimensão finita de um espaço
Euclidiano V e seja x ∈ V.
A distância de x a S é igual a
||x − Px|| = ||P⊥ x|| .
Se a ∈ V então a distância de x ao plano-k a + S é
||P⊥ (x − a)|| .
Se U ⊂ S for um subespaço e b ∈ V (diz-se que os planos a + S
e b + U são paralelos) a distância entre eles é
||P⊥ (b − a)|| .
A PLICAÇ ÃO — A PROXIMAÇ ÕES DE QUADRADOS
M ÍNIMOS
Suponha-se que o sistema seguinte com A ∈ Matm×n (R) é
impossı́vel (ou seja, b ∈
/ col(A)):
Ax = b
Existem contudo “soluções” que minimizam a distância de b ao
espaço col(A).
Sendo P o operador de projecção ortogonal sobe col(A), o
vector p = Pb é o vector de col(A) mais próximo de b
(equivalentemente, p é tal que p − b ∈ col(A)⊥ — explique
porquê).
Definição: As soluções de quadrados mı́nimos de Ax = b
são as soluções de Ax = p.
T EOREMA
Seja A ∈ Matm×n (R).
As soluções de quadrados mı́nimos do sistema Ax = b são os
vectores x∗ ∈ Rn que satisfazem
AT Ax∗ = AT b .
Demonstração.
Os vectores de col(A) são da forma Ay para y ∈ Rn .
A condição p − b ∈ (col(A))⊥ é equivalente a impor, para
qualquer y ∈ Rn ,
Ay · (p − b) = 0 ,
ou seja, (Ay)T (p − b) = 0, e portanto
yT AT (p − b) = 0
para qualquer y ∈ Rn .
Isto é equivalente a ter-se AT (p − b) = 0, ou seja,
AT p = AT b .
Portanto as soluções de quadrados mı́nimos são os vectores
x∗ tais que
AT Ax∗ = AT b .
L EMA
Seja A ∈ Matm×n (R). Então A e AT A têm a mesma
caracterı́stica.
Demonstração.
Vamos começar por provar que A e AT A têm o mesmo núcleo.
Primeiro, nuc(A) ⊂ nuc(AT A) pois evidentemente se Ax = 0
então AT Ax = 0.
Por outro lado, se AT Ax = 0 então xT AT Ax = 0,
ou seja, (Ax) · (Ax) = (Ax)T Ax = 0, pelo que Ax = 0.
Portanto nuc(A) = nuc(AT A).
AT A tem n colunas, tal como A, e tem a mesma nulidade de A e
portanto tem a mesma caracterı́stica de A.
C OROL ÁRIO
Seja A ∈ Matm×n (R).
A matriz AT A é não-singular se e só se as colunas de A forem
linearmente independentes.
Nesse caso a solução de quadrados mı́nimos do sistema
Ax = b é única e é dada pela fórmula
x∗ = (AT A)−1 AT b .
R EGRESS ÃO LINEAR
Problema: Como encontrar uma recta de equação
y = Ct + D
que melhor aproxime a colecção de dados experimentais da
figura seguinte?
R EGRESS ÃO LINEAR
Resposta: Sendo m o número de pontos do gráfico, com
coordenadas (ti , yi ), queremos a solução de quadrados
mı́nimos do sistema


 Ct1 + D = y1
..
.


Ctm + D = ym .
ou seja,
At = y
com



A=

t1
t2
..
.
1
1
..
.



.

tm 1
Então as soluções de quadrados mı́nimos são as soluções do
sistema
C
∑ ti2 ∑ ti
∑ ti yi
=
.
D
∑ ti m
∑ yi
Nota: Se todos os pontos (ti , yi ) tiverem ti ’s distintos então as
colunas de A são linearmente independentes e por isso
ter-se-á uma e uma só recta, com C e D dados por
C
D
=
∑ ti2 ∑ ti
∑ ti m
−1 ∑ ti yi
∑ yi
,
pelo que
C =
D =
m ∑ ti yi − (∑ ti ) (∑ yi )
m ∑ ti2 − (∑ ti )2
2 ( y )−( t )( t y )
t
∑i ∑ i
∑i ∑i i
m ∑ ti2 − (∑ ti )2
.
Capı́tulo 33
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secção 6.4 (excluindo o material da Proposição 6.19 em
diante).
I NTRODUÇ ÃO
I
Ainda falta encontrar condições suficientes para uma
matriz ser uma métrica.
I
Antes de fazer isso é conveniente estudar o que são as
“boas” transformações entre espaços Euclidianos.
I
Veremos que há várias soluções: transformações
unitárias, Hermitianas, etc., em correspondência com as
matrizes unitárias, Hermitianas, etc.
M ÉTRICAS E TRANSFORMAÇ ÕES LINEARES
Vimos que num espaço V de dimensão n os produtos internos
são, uma vez fixada uma base, representados por matrizes
únicas n × n, a que chamamos métricas.
Mas tais matrizes também representam transformações
lineares de V em V.
Daqui resulta a ideia de que há uma relação entre produtos
internos e transformações lineares, que é o que começaremos
por ver.
T EOREMA
Seja V um espaço Euclidiano complexo cujo produto interno é,
como habitualmente, denotado por h−, −i.
Seja ainda T : V → V uma transformação linear.
Então as funções φ , ψ : V × V → C definidas por
φ (x, y) = hT(x), yi
ψ(x, y) = hx, T(y)i
são sesquilineares.
Se V tiver dimensão finita e A for a matriz que representa T em
relação a uma base ortonormal então as representações
matriciais de φ e ψ em relação a essa mesma base são
respectivamente AT e A.
Demonstração.
É imediato ver que φ e ψ são sesquilineares.
Suponha-se agora que V tem dimensão finita e que a
transformação linear T é representada pela matriz A em
relação a uma base ortonormal dada.
Dados vectores x, y ∈ V, sejam x e y, respectivamente, os
vectores de coordenadas de x e y nessa base.
Uma vez que a base é ortonormal, a métrica do produto
interno nessa base é a identidade, e portanto temos
φ (x, y) = hT(x), yi = (Ax) · y = (Ax)T y = xT AT y .
Portanto φ é representada pela matriz AT .
Analogamente, ψ é representada por A:
ψ(x, y) = hx, T(y)i = x · (Ay) = xT Ay = xT Ay .
C OROL ÁRIO
Seja V um espaço Euclidiano complexo de dimensão finita.
Para cada transformação linear T : V → V existe uma e uma só
transformação linear T ∗ : V → V, chamada a adjunta de T, tal
que para quaisquer x, y ∈ V se tem
hT(x), yi = hx, T ∗ (y)i .
As seguintes propriedades verificam-se:
T ∗∗ = T
(T ◦ U)∗ = U ∗ ◦ T ∗
id∗ = id .
Demonstração.
Seja A a representação matricial de T em relação a uma base
ortonormal dada.
Então hT(−), −i é uma função sesquilinear representada pela
matriz AT .
Então T ∗ é a transformação linear representada pela matriz
adjunta A∗ , pois a função sesquilinear h−, T ∗ (−)i é também
representada por A∗ = AT .
T RANSFORMAÇ ÕES LINEARES ENTRE ESPAÇOS
E UCLIDIANOS
Os factos anteriores sugerem a seguinte definição (em que
admitimos transformações lineares T : S → V com S ⊂ V em vez
de apenas S = V):
D EFINIÇ ÃO
Seja V um espaço Euclidiano (de qualquer dimensão) e S um
subespaço. Uma transformação linear T : S → V diz-se
H ERMITIANA
se hT(x), yi = hx, T(y)i para quaisquer x, y ∈ S;
A NTI -H ERMITIANA
se hT(x), yi = −hx, T(y)i para quaisquer x, y ∈ S;
U NIT ÁRIA
se hT(x), T(y)i = hx, yi para quaisquer x, y ∈ S.
C OROL ÁRIO
Seja V um espaço Euclidiano complexo de dimensão finita e
seja T : V → V uma transformação linear com representação
matricial A em relação a uma base ortonormal.
T é Hermitiana (resp. anti-Hermitiana, unitária) se e só se A é
uma matriz Hermitiana (resp. anti-Hermitiana, unitária).
E XEMPLO
I
As projecções ortogonais sobre subespaços de espaços
Euclidianos de dimensão finita são transformações
Hermitianas (v. aula anterior).
I
As rotações de R2 em torno da origem são transformações
unitárias.
I
As reflexões através de uma recta que passa pela origem
em R2 são transformações unitárias.
N OTA
A definição de transformação unitária faz sentido para
transformações lineares entre espaços Euclidianos diferentes:
D EFINIÇ ÃO
Sejam V e W espaços Euclidianos (denotaremos por h−, −i os
produtos internos de ambos).
Uma isometria T : V → W é uma transformação linear tal que
para quaisquer x, y ∈ V se tem
hT(x), T(y)i = hx, yi .
T EOREMA
Sejam V e W espaços Euclidianos e T : V → W uma
transformação linear. As condições seguintes são
equivalentes:
1. T é uma isometria (T “preserva” o produto interno);
2. ||T(x)|| = ||x|| para qualquer vector x ∈ V (T “preserva” as
normas dos vectores de V);
3. ||T(x) − T(y)|| = ||x − y|| para quaisquer vectores x, y ∈ V (T
“preserva” as distâncias entre vectores de V).
Demonstração.
Ver demonstração no livro (Teorema 6.14 — a demonstração
do livro é feita assumindo que V é um subespaço de W, mas
essa hipótese é desnecessária).
L EMA
Os valores próprios de uma transformação Hermitiana (resp.
anti-Hermitiana) T : S → V são reais (resp. imaginários puros).
Demonstração.
Suponha-se que T é uma transformação Hermitiana e seja u
um vector próprio de T associado ao valor próprio λ . (Podemos
assumir sem perda de generalidade que u é unitário.)
Então λ é real porque:
λ = λ hu, ui = hλ u, ui = hT(u), ui = hu, T(u)i = hu, λ ui = λ hu, ui = λ .
De forma análoga, se T for anti-Hermitiana mostra-se que
λ = −λ , pelo que λ é imaginário puro.
L EMA
Seja V um espaço Euclidiano, S ⊂ V um subespaço e T : S → V
uma isometria. Então os valores próprios de T são números
complexos de módulo igual a 1.
Demonstração.
Seja u um vector próprio de T associado ao valor próprio λ .
(Podemos assumir sem perda de generalidade que u é
unitário.)
Então
|λ |2 = λ λ = λ λ hu, ui = hλ u, λ ui = hT(u), T(u)i = hu, ui = 1 .
L EMA
Seja V um espaço Euclidiano, S ⊂ V um subespaço e T : S → V
uma transformação Hermitiana, anti-Hermitiana ou unitária.
Então quaisquer vectores próprios u e v de T associados a
valores próprios distintos são ortogonais.
Demonstração.
Ver livro (Teorema 6.14).
R EPRESENTAÇ ÕES DIAGONAIS DAS TRANSFORMAÇ ÕES
H ERMITIANAS
Agora vamos tratar apenas de transformações Hermitianas (o
objectivo é obter uma caracterização das métricas, que já
sabemos serem matrizes Hermitianas).
L EMA
Seja T uma transformação Hermitiana com domı́nio V e seja
S ⊂ V um subespaço.
Se T(S) ⊂ S então T(S⊥ ) ⊂ S⊥ .
(Diz-se que S e S⊥ são subespaços invariantes de T — v.
Secção 6.2 do livro.)
Demonstração.
Suponha-se que T(S) ⊂ S e seja x ∈ S⊥ .
Então, para qualquer y ∈ S temos
hT(x), yi = hx, T(y)i = 0
porque T(y) ∈ S.
Logo, T(x) ∈ S⊥ e concluimos T(S⊥ ) ⊂ S⊥ .
Qualquer transformação Hermitiana entre espaços de
dimensão finita tem uma representação diagonal:
T EOREMA
Seja V um espaço Euclidiano de dimensão finita e seja
T : V → V uma transformação Hermitiana.
Então existe uma base ortonormal de V constituı́da por
vectores próprios de T.
Demonstração.
A demonstração faz-se por indução.
A base da indução é o caso em que dim(V) = 1. Neste caso
tomamos um vector unitário qualquer de V e assim obtemos
uma base ortonormal de V constituı́da por vectores próprios.
Vamos agora ver que se o enunciado do teorema for verdadeiro
para dim(V) = n ∈ N também o é para dim(V) = n + 1.
Seja dim(V) = n + 1.
Qualquer transformação linear entre espaços de dimensão
finita tem pelo menos um vector próprio (porquê?), portanto
podemos assumir a existência de um vector próprio unitário
u ∈ V associado ao valor próprio λ .
Seja S = L({u}). Então T(u) = λ u ∈ S, pelo que T(S) ⊂ S.
Portanto T(S⊥ ) ⊂ S⊥ (pelo lema anterior).
Demonstração.
(Continuação.)
Seja U : S⊥ → S⊥ a restrição de T ao subespaço S⊥ .
U é uma transformação Hermitiana, uma vez que se tem, para
quaisquer x, y ∈ S⊥ :
hU(x), yi = hT(x), yi = hx, T(y)i = hx, U(y)i .
Uma vez que dim S = 1 temos dim(S⊥ ) = n (porque V = S ⊕ S⊥ ).
Logo, usando a hipótese de indução concluimos que existe
uma base ortonormal (e1 , . . . , en ) de S⊥ constituı́da por vectores
próprios de U.
Mas os vectores próprios de U são-no também de T e por isso
encontrámos uma base ortonormal (e1 , . . . , en , u) de V
constituı́da por vectores próprios de T.
N OTA
Se V tiver dimensão finita e T : V → V for anti-Hermitiana ou
unitária também existe uma base ortonormal de V constituı́da
por vectores próprios de T — ver o livro, Secção 6.4 (Teorema
6.16).
M ÉTRICAS E VALORES PR ÓPRIOS
T EOREMA
Uma matriz M ∈ Matn×n (C) é uma métrica (de um produto
interno num espaço Euclidiano de dimensão n) se e só se for
Hermitiana e todos os seus valores próprios forem positivos.
Demonstração.
Vamos primeiro supor que M é uma métrica.
A função h−, −i : Cn × Cn → C definida por hx, yi = xT My é um
produto interno e portanto é definida positiva.
Seja λ um valor próprio de M.
Então λ também é um valor próprio de M T (porquê?).
Seja u ∈ Cn um vector próprio unitário de M T associado a λ .
Tem-se λ = λ u · u = (λ u) · u = (M T u) · u = uT Mu = hu, ui > 0
porque u 6= 0.
Concluı́mos assim que todos os valores próprios são positivos.
Demonstração.
(Continuação.)
Vamos agora demonstrar a implicação recı́proca: assumindo
que M é Hermitiana e que os valores próprios são positivos
vamos mostrar que M é uma métrica.
A função hx, yi = xT My é Hermitiana porque M é Hermitiana,
por isso resta provar que é definida positiva.
Por M T também ser Hermitiana, existe uma base (e1 , . . . , en ) de
Cn constituı́da por vectores próprios de M T associados a
λ1 , . . . , λn , respectivamente, que é ortonormal relativamente ao
produto escalar de Cn (por um dos teoremas anteriores).
Para cada i, j ∈ {1, . . . , n} temos
hei , ej i = (M T ei ) · ej = λi ei · ej =
λi se i = j
0 se i 6= j .
Demonstração.
(Continuação.)
Então, se x = c1 e1 + . . . + cn en , temos
n
n
n
n
hx, xi = ∑ ∑ ci cj hei , ej i = ∑ ci ci λi = ∑ |ci |2 λi .
i=1 j=1
i=1
i=1
Se x 6= 0 então pelo menos um dos ci deve ser não nulo, pelo
que o somatório anterior é maior do que 0 e portanto hx, xi > 0.
Concluı́mos assim que M é definida positiva e portanto uma
métrica.
N OTA
A segunda parte da demonstração (das duas páginas
anteriores) pode ser feita de forma puramente matricial, como
se explica de seguida.
Sendo S a matriz de mudança de base da base canónica para
uma base ortonormal B de vectores próprios de M T , segue-se
que S é uma matriz unitária, ou seja, S−1 = S∗ .
Portanto Λ = S∗ M T S é uma matriz diagonal cujas entradas da
diagonal principal são os valores próprios de M repetidos de
acordo com as respectivas multiplicidades algébricas.
Λ é uma métrica porque os valores próprios são positivos.
Sendo Λ diagonal tem-se também Λ = ΛT = ST MS.
Isto significa que Λ também resulta de M pela fórmula da
mudança de base aplicada a representações matriciais de
funções sesquilineares.
Portanto M é uma métrica porque Λ é.
E XERC ÍCIO
Mostre que uma matriz A ∈ Matn×n (C) é Hermitiana se e só se
existir uma base ortonormal de Cn constituı́da por vectores
próprios de A e todos os valores próprios de A forem reais.
E XERC ÍCIO
Mostre que uma matriz A ∈ Matn×n (C) é unitária se e só se
existir uma base ortonormal de Cn constituı́da por vectores
próprios de A e todos os valores próprios de A forem
complexos de módulo igual a 1.
Capı́tulo 34
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
B IBLIOGRAFIA
L. Magalhães, Álgebra Linear como Introdução à
Matemática Aplicada, 1992, Texto Editora.
I
Secções 1.4 e 6.5 (excluindo o material do Teorema 6.36
em diante).
I NTRODUÇ ÃO
I
Na aula passada estudámos as transformações lineares
Hermitianas (entre outras — anti-Hermitianas e unitárias).
I
Vimos que, dado um espaço Euclidiano V de dimensão
finita, para qualquer transformação Hermitiana T : V → V
existe uma base ortonormal de V formada por vectores
próprios de T.
I
Vimos que uma matriz M ∈ Matn×n (C) é uma métrica de
algum produto interno se e só se for Hermitiana e tiver os
valores próprios todos positivos.
I
Uma vez que, como já sabemos, o cálculo de valores
próprios pode ser difı́cil, nesta aula vamos estudar critérios
mais eficientes para determinar se uma dada matriz
Hermitiana é uma métrica.
I
Isto levar-nos-á de volta ao ponto de partida desta
disciplina: a eliminação de Gauss!
L EMA
Se A for uma métrica então det A > 0.
Demonstração.
Como vimos, uma métrica tem todos os valores próprios
positivos. Logo, o determinante, que é o produto dos valores
próprios, é positivo.
L EMA
Se A for uma métrica então são métricas todas as submatrizes
Ak que consistem nos elementos das primeiras k linhas e k
colunas:
a11 a12
A1 = [a11 ], A2 =
, . . . , An = A .
a21 a22
Demonstração.
Cada uma das matrizes Ak é obviamente Hermitiana. E
também é uma métrica porque se (x1 , . . . , xk ) 6= 0 temos


x1
 .. 


 . 
x1


 .   xk 

x1 , . . . , xk Ak  ..  = x1 , . . . , xk , 0, . . . , 0 A 
 0 >0.


xk
 .. 
 . 
0
C OROL ÁRIO
Se A for uma métrica então todas as submatrizes Ak têm
determinantes positivos.
L EMA
Seja A ∈ Matn×n (C) uma matriz tal que têm determinantes
positivos todas as submatrizes Ak que consistem nos
elementos das primeiras k linhas e k colunas.
Então, aplicando exclusivamente a regra da eliminação do
método da eliminação de Gauss, a matriz A pode
transformar-se numa matriz triangular superior cujas entradas
da diagonal principal (os pivots da eliminação) são todas
positivas.
Demonstração.
Explicado na aula (ver também a demonstração do caso 2 ⇒ 3
do Teorema 6.32 do livro).
L EMA
Seja A uma matriz Hermitiana de dimensão n × n. Se A puder
transformar-se, usando exclusivamente a regra da eliminação
do método da eliminação de Gauss, numa matriz triangular
superior cujas entradas da diagonal principal (os pivots) são
positivas então A é uma métrica.
Demonstração.
A afirmação do teorema, de que podemos usar apenas a regra
da eliminação, permite concluir que A tem uma factorização
A = LDU em que:
I
L é triangular inferior com entradas da diagonal principal
iguais a 1,
I
U é triangular superior com entradas da diagonal principal
iguais a 1 (é a matriz que resulta de dividir cada linha pelo
respectivo pivot na matriz triangular superior obtida a partir
de A usando a regra da eliminação sucessivamente),
I
D é uma matriz diagonal cuja diagonal principal contém os
pivots (pela ordem em que surgiram durante a eliminação).
(Isto está descrito na Secção 1.4 do livro e vai ser explicado na
aula.)
Pelo facto de A ser Hermitiana também se conclui que L = U ∗
(isto também será explicado na aula).
Demonstração.
(Continuação.)
Tomando S = U temos uma matriz não-singular (porque
det S = 1) tal que
A = ST DS .
Portanto A resulta de D por uma mudança de base de uma
forma sesquilinear cuja matriz de mudança de base é S.
Mas D é uma métrica (as entradas da diagonal principal são os
pivots) e portanto A também é.
Em suma, obtemos o seguinte corolário:
T EOREMA
Seja A ∈ Matn×n (C) uma matriz Hermitiana. Então as seguintes
condições são equivalentes:
1. A é uma métrica.
2. Os valores próprios de A são positivos.
3. Tem-se det Ak > 0 para cada submatriz Ak de A cujas
entradas são as das primeiras k linhas e k colunas de A.
4. A pode ser transformada por eliminação de Gauss, usando
apenas a regra da eliminação, numa matriz triangular
superior cujas entradas da diagonal principal são positivas.
N OTA
O critério 4 é em geral o mais fácil de aplicar.
U MA APLICAÇ ÃO : DIAGONALIZAÇ ÃO DE FORMAS
QUADR ÁTICAS
I
I
I
I
Uma forma quadrática Q : Rn → R é uma função que
pode ser expressa como um polinómio homogéneo de
grau dois nas componentes de x ∈ Rn .
Por exemplo, com n = 3, Q(x, y, z) = x2 + 3xy − 4xz + z2 .
(Equações baseadas em formas quadráticas podem ser
usadas para descrever elipses, parábolas, hipérboles —
ver a classificação das quádricas no Apêndice C do livro.)
Uma forma quadrática diz-se diagonal se for uma
combinação linear de quadrados, por exemplo
Q(x, y) = x2 + 2y2 .
Qualquer forma quadrática se pode exprimir na forma
QA (x) = xT Ax
para alguma matriz quadrada A.
I
I
I
I
Chama-se a QA a forma quadrática associada a A.
Fazendo B = (A + AT )/2 (a parte simétrica de A) tem-se
QB = QA .
Então QA pode ser diagonalizada: ou seja, escolhendo
uma base de vectores próprios de B ortonormal, QA será
diagonal nas coordenadas dos vectores calculadas nessa
base.
Mais precisamente, se S for a matriz (ortogonal) de
mudança de base e Λ for a matriz diagonal cujas entradas
da diagonal principal são os valores próprios associados
respectivamente às colunas de S ter-se-á
B = SΛS−1 = SΛST
e portanto
n
QA (x) = x Bx = x SΛS x = (S x) Λ(S x) = y Λy = ∑ λi y2i ,
T
T
T
T
T
T
T
i=1
onde y = ST x é o vector das coordenadas de x na nova
base.
I
Se A for uma métrica diz-se que QA é definida positiva.
I
Pelos resultados anteriores também podemos diagonalizar
uma tal forma quadrática usando eliminação de Gauss a
fim de obter uma factorização A = U T DU.
I
Neste caso ter-se-á
n
QA (x) = x Ax = x U DUx = (Ux) D(Ux) = y Dy = ∑ pi y2i ,
T
T
T
T
T
i=1
onde p1 , . . . , pn são os pivots e y = Ux é o vector das novas
coordenadas de x.
(A matriz de mudança de base da base canónica para a
nova base é portanto U −1 .)
I
Também existem outros tipos de forma quadrática QA
(semidefinida positiva, definida negativa, etc. — ver
Definição 6.31 do livro) e maneiras de as reconhecer em
termos dos valores próprios de A.
Capı́tulo 35
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
U MA APLICAÇ ÃO : PESQUISA NA I NTERNET
Há um algoritmo de pesquisa na Internet que se baseia em
parte no cálculo de vectores próprios de uma matriz real
simétrica.
Este assunto está descrito em detalhe no artigo seguinte:
http://www.cs.cornell.edu/home/kleinber/auth.pdf
O autor deste artigo, Jon Kleinberg
(http://www.cs.cornell.edu/home/kleinber/), recebeu em 2006 o
Prémio Nevanlina
(http://www.mathunion.org/General/Prizes/Nevanlinna/index.html)
no Congresso Internacional de Matemática, em Madrid.
Vamos de seguida descrever este algoritmo com algumas
simplificações (para todos os detalhes consultem o artigo).
PASSO 1: Digitar a frase a pesquisar, por exemplo “Bons
carros usados a bom preço”.
PASSO 2: Fazer uma primeira selecção de endereços de,
digamos, 200 páginas segundo um critério
razoável, por exemplo seleccionando páginas que
contêm esta frase, ou que contêm muitas palavras
desta frase. Obtém-se assim um conjunto R de
endereços.
PASSO 3: Para cada página P cujo endereço pertence a R
acrescentar a R um subconjunto do conjunto de
endereços de páginas que apontam para P ou que
são apontadas por P. Obtém-se assim um
conjunto S bastante grande. (Mas relativamente
pequeno em comparação com o número de
páginas da Internet!) Tipicamente este conjunto S
contém (ao contrário de R) muitas das melhores
páginas sobre o assunto que estamos a
pesquisar.
Problema: S é enorme e não está ordenado!
PASSO 4: Ordenar S por ordem decrescente de interesse.
I
Seja n ∈ N o número de elementos de S e numerem-se de
1 a n as páginas cujos endereços estão guardados em S.
I
Para cada i ∈ {1, . . . , n} seja xi ∈ R+ um número que
representa a autoridade da página i acerca do assunto da
pesquisa: quanto maior o número, maior a autoridade.
I
As autoridades xi definem um vector x ∈ Rn . Como
determiná-lo?
I
Quanto mais páginas apontarem para a página i maior, em
princı́pio, deveria ser xi .
I
Contudo, uma página pode apontar para outra por razões
que nada têm que ver com a pesquisa, pelo que é preciso
determinar quais são as “boas páginas”, ou seja, as que
apontam para i pelo motivo certo.
I
Vamos então ordenar também as páginas por ordem
decrescente do seu interesse enquanto “distribuidoras”
(“hubs”): para cada j ∈ {1, . . . , n} seja yj ∈ R+ um número
que representa o valor da página j enquanto hub para o
assunto da pesquisa: quanto maior o número, maior o
valor.
Os valores yj definem um vector y ∈ Rn . Como
determiná-lo?
A ideia chave:
I
I
I
I
xi deve ser tanto maior quanto maior for a soma ∑j yj para
as páginas j que apontam para i;
yj deve ser tanto maior quanto maior for a soma ∑i xi para
as páginas i apontadas por j.
I
Seja A ∈ Matn×n (R) a matriz definida por
1 se j aponta para i,
aij =
0 se j não aponta para i.
I
A soma ∑j yj indicada acima é (Ay)i .
A soma ∑i xi indicada acima é (AT x)j .
I
I
Processo iterativo:
I
Começar com xi = yi = √1n para qualquer i. Os vectores x e
y estão assim normalizados:
n
n
2
||x|| = ∑
xi2
= ||y|| = ∑ y2j = 1 .
2
j=1
i=1
I
I
I
Chamar aos vectores assim definidos x1 e y1 .
Definir vectores x2 , x3 , . . . e y2 , y3 , . . . pela seguinte regra de
recorrência:
yk+1
=
xk+1
=
1
Axk
||Axk ||
1
AT yk .
T
||A yk ||
Daqui resulta, para cada k ∈ N:
xk+2 =
1
AT Axk .
T
||Axk || ||A yk+1 ||
I
Logo, para cada k ∈ N o vector x2k+1 é unitário e é um
múltiplo de
k
AT A x1 .
I
AT A é diagonalizável porque é uma matriz Hermitiana.
I
AT A tem valores próprios não negativos, como se vê por
um argumento semelhante ao que usámos para mostrar
que as métricas têm valores próprios positivos:
se λ for um valor próprio de AT A associado a um vector
próprio u então temos, por um lado,
T
u A Au = A Au u = λ u · u
T T
T
e, por outro,
uT AT Au = (Au)T (Au) = (Au) · (Au) ≥ 0 ,
pelo que, sendo u 6= 0 (porque é um vector próprio), temos
λ=
I
(Au) · (Au)
≥0.
u·u
Os valores próprios de (AT A)k são da forma λ k para cada
valor próprio λ de AT A e os vectores próprios de (AT A)k
associados a λ k são os vectores próprios u de AT A
associados a λ :
(AT A)k u = (AT A)k−1 AT Au = (AT A)k−1 λ u
=
...
=
...
=
...
=
=
=
=
λ (AT A)k−1 u
λ 2 (AT A)k−2 u
...
λ ku .
(Formalmente, isto demonstra-se por indução
matemática.)
I
Se λM for o maior dos valores próprios de AT A então para
qualquer um dos outros valores próprios a razão λ k /λMk
tende para zero quando k tende para infinito.
I
Seja Λ = S−1 (AT A)S a matriz diagonalizada com os valores
próprios na diagonal principal, onde S é uma matriz
diagonalizante.
Então Λ2 = S−1 AT ASS−1 AT AS = S−1 (AT A)2 S e vemos que
para cada k se terá
k
Λk = S−1 AT A S .
I
[Isto é outra forma de verificar que os vectores próprios de
(AT A)k — que são as colunas de S — são os mesmos de
AT A e que os valores próprios, que são as entradas da
diagonal principal de Λk , são as potências λ k para cada
valor próprio λ de AT A.]
k
1 T
Portanto a matriz λM A A converge, quando k → ∞, para
a matriz que representa a projecção ortogonal sobre o
espaço próprio EλM , pois a matriz λ1M Λ tem entradas da
diagonal principal iguais a 1 nas colunas correspondentes
aos vectores próprios associados a λM e valores menores
do que 1 nas outras entradas:
I

0 ···

 0 ...

1
...
k 
 0
1
λ0 k
 0
0 ( λM )
...
Λ =
00

λM
0
0
( λλM )k
 0

 ..
 .

1
...
..
.
000
( λλM )k
0 ···

0 ···

 0 ...

 0
1 ...
k→∞ 
0 0 ...
−→ 
 0
 0
0 0 0 ...

 ..
..
 .
.
0 ···

1











0












I
Desde que o vector inicial x1 não seja ortogonal a EλM , os
vectores x2k+1 “convergem para EλM ” quando k → ∞.
I
CONCLUSÃO: O que verificamos é que serve para o
efeito pretendido um qualquer vector próprio associado ao
maior valor próprio λM .
I
Ficou demonstrada a existência de soluções para o
problema de ordenar os resultados da pesquisa e que o
problema pode resumir-se ao cálculo de valores próprios e
vectores próprios da matriz AT A.
I
A forma de calcular os vectores próprios pode, mas não
tem, de basear-se no algoritmo iterativo descrito acima.
Capı́tulo 36
P ROGRAMA
1. Sistemas de equações lineares e matrizes
1.1 Sistemas
1.2 Matrizes
1.3 Determinantes
2. Espaços vectoriais (ou espaços lineares)
2.1
2.2
2.3
2.4
2.5
Espaços e subespaços
Subespaços associados a matrizes
Isomorfismos
Independência linear, bases e dimensão
Aplicações
3. Transformações lineares
3.1
3.2
3.3
3.4
Representação matricial
Equações lineares
Mudança de base
Vectores e valores próprios
4. Espaços Euclidianos
4.1
4.2
4.3
4.4
Produtos internos e métricas
Projecções e distâncias
Transformações lineares entre espaços Euclidianos
Aplicações
A SPECTOS ALG ÉBRICOS B ÁSICOS DA MEC ÂNICA
QU ÂNTICA
I
Os espaços de estados de sistemas fı́sicos são
representados por espaços Euclidianos complexos
especiais chamados espaços de Hilbert — os espaços
Euclidianos de dimensão finita são espaços deste tipo.
I
Os estados são representados por vectores unitários.
I
As grandezas observáveis são representadas por
transformações lineares Hermitianas.
I
Os valores que podemos fisicamente observar são os
valores próprios.
E XEMPLO : PART ÍCULAS DE SPIN 1/2
D EFINITION
As matrizes de spin de Pauli são:
0 1
σx =
1 0
0 −i
σy =
i 0
1
0
σz =
.
0 −1
E XEMPLO : PART ÍCULAS DE SPIN 1/2
As matrizes de Pauli são Hermitianas (e unitárias), com valores
próprios 1 e −1.
Os vectores z+ = (1, 0) e z− = (0, 1) são vectores próprios
unitários de σz e representam os estados de spin positivo e
spin negativo (na direcção do eixo zz), respectivamente.
Os vectores x+ = √12 (1, 1) e x− = √12 (1, −1) são vectores
próprios unitários de σx e representam os estados de spin
positivo e spin negativo (na direcção do eixo xx),
respectivamente.
Os vectores y+ = √12 (1, i) e y− = √12 (1, −i) são vectores próprios
unitários de σy e representam os estados de spin positivo e
spin negativo (na direcção do eixo yy), respectivamente.
A EXPERI ÊNCIA DE S TERN –G ERLACH
Deflexão de agulhas magnéticas num campo magnético não
uniforme.
F IGURA : Exemplo de equipamento para a experiência de
Stern–Gerlach (1922). As “agulhas magnéticas” são átomos de
prata.
A EXPERI ÊNCIA DE S TERN –G ERLACH
F IGURA : Postal enviado por Gerlach a Bohr. No alvo da esquerda
vemos o resultado de fazer a experiência sem campo magnético e no
alvo da direita o resultado de fazer a experiência com o campo
magnético não uniforme.
A EXPERI ÊNCIA DE S TERN –G ERLACH
F IGURA : Visão esquemática do equipamento de Stern–Gerlach.
F IGURA : Equipamento de Stern–Gerlach, estilo “caixa preta”.
Matematicamente, o estado das partı́culas que saem pela abertura
de cima é z+ e o das que saem pela abertura de baixo é z− .
A EXPERI ÊNCIA DE S TERN –G ERLACH
F IGURA : Medições repetidas na direcção do eixo zz (sentido positivo).
F IGURA : Medições repetidas na direcção do eixo zz (sentidos
alternados).
A EXPERI ÊNCIA DE S TERN –G ERLACH
F IGURA : O “paradoxo” das medições em direcções sucessivamente
diferentes (neste caso zz-yy-zz): as probabilidades de obter spin
positivo ou spin negativo na medição C (ao longo do eixo zz) são
ambas iguais a 1/2, embora após a medição A a probabilidade de
obter spin positivo ao longo de zz fosse igual a 1. Matematicamente,
após a medição B o estado da partı́cula é representado por y+ (por
outras palavras, a partı́cula passou a ter spin positivo ao longo de yy),
que é a combinação linear √12 z+ + √i2 z− , sendo as probabilidades
referidas acima iguais aos quadrados dos módulos dos coeficientes
desta combinação linear.
Download