Álgebra Linear
Determinantes, Valores e Vectores Próprios
Jorge Orestes Cerdeira
Instituto Superior de Agronomia
- 2010 -
ISA/UTL – Álgebra Linear – 2010/11
2
Conteúdo
1 Determinantes
5
2 Valores e vectores próprios
13
2.1
Valores e vectores próprios . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2
Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3
CONTEÚDO
ISA/UTL – Álgebra Linear – 2010/11
4
Capı́tulo 1
Determinantes
Vamos associar a cada matriz quadrada um valor que se define da seguinte forma.
Definição 1 Sejam A uma matriz quadrada de ordem n e A′ a matriz em escada que
se obtem de A por aplicação da fase descendente do método de eliminação de Gauss,
utilizando exclusivamente as operações elementares de troca de linhas e substituição de
uma linha por soma desta com um múltiplo de outra linha. Chama-se determinante de
A e representa-se por det A ou |A|, o valor
det A = |A| = δa′11 a′22 · · · a′nn ,
em que a′11 , a′22 , . . . , a′nn são os elementos da diagonal principal da matriz A′ e
1 se é par o no de trocas de linhas efectuadas no processo A → · · · A′ ,
δ=
−1 caso contrário.
Exemplos 1
1. A =
1
2
→
1
2
= A′ e portanto det A = 1 × (−3) = −3.
−1 −5
0 −3
0 5
−3 4
→
= A′ e portanto det A = −1 × (−3) × 5 = 15.
2. A =
−3 4
0 5
5
3. De uma forma geral, tem-se det
a11 a12
= a11 a22 − a12 a21 .
a21 a22
−1 1 3
−1 1 3
−1 1 3
0 5 −1
4. A = −3 4 2 → −3 4 2 → 0 1 −7 → 0 1 −7 = A′
0 0 34
0 5 −1
0 5 −1
−1 1 3
e portanto
1
5. A = 2
−1
det A = −1 × (−1) × 1 × 34 = 34.
1 3
4
1 3
4
3 4
4 6 → 0 −2 −2 → 0 −2 −2 = A′ e portanto det A =
0 0
0
0 4
4
1 0
1 × (−2) × 0 = 0.
Exercı́cios 1 Prove os seguintes resultados.
1. O determinante de uma matriz triangular é o produto dos elementos da diagonal
principal.
2. Uma matriz com uma linha ou uma coluna de zeros tem determinante igual a zero.
3. É nulo o determinante de uma matriz com linhas proporcionais.
O determinante satisfaz a seguinte propriedade.
Proposição 1.1 Se A e B são matrizes quadradas da mesma ordem, tem-se det(AB) =
det A det B, i.e., o determinante do produto de matrizes é igual ao produto dos determinantes.
É claro que não poderá haver grandes expectativas relativamente à quantidade de informação que o determinante contem da matriz. De facto, não é razoável admitir que
um único valor possa reter muito conhecimento sobre os n2 elementos de uma matriz de
ordem n. No entanto, o determinante permite caracterizar a invertibilidade de matrizes.
ISA/UTL – Álgebra Linear – 2010/11
6
CAPÍTULO 1. DETERMINANTES
Proposição 1.2 Uma matriz quadrada A é invertı́vel sse det A 6= 0. Se a matriz A é
invertı́vel, então det A−1 =
1
.
det A
Demonstração: É sabido que uma matriz quadrada A é invertı́vel sse todas as colunas de
A′ , a matriz em escada obtida aplicando a A a fase descendente do método de Gauss, têm
pivots. Como os pivots são os elementos não nulos da diagonal principal de A′ e det A é,
a menos do sinal, o produto dos elementos da diagonal principal de A′ , tem-se det A 6= 0
sse A é invertı́vel.
Se A é invertı́vel, det(AA−1 ) = 1 = det A det A−1 , donde se conclui que det A−1 =
1
.
det A
Vamos agora apresentar uma forma alternativa de calcular o determinante. Para isso
precisamos da seguinte definição.
Definição 2 Chama-se complemento algébrico ou co-factor do elemento (i, j) da matriz
A e representa-se por ∆ij o valor ∆ij = (−1)i+j Aij , em que Aij é o determinante da matriz
que se obtem de A eliminando a linha i e a coluna j.
2 4 −2
3
0
= 15, ∆21 = (−1)2+1
Exemplo 2 Se A = 1 3
0 , ∆11 = (−1)2 det
2 5
−1 2
5
4 −2
= (−1) × 24 = −24.
det
2
5
Teorema 1.3 (Teorema de Laplace) Sejam i e j, respectivamente, uma linha e uma
coluna arbitrárias da matriz A de ordem n. Tem-se
det A = ai1 ∆i1 + ai2 ∆i2 + · · · + ain ∆in = a1j ∆1j + a2j ∆2j + · · · + anj ∆nj .
Exemplos 3
2 3 −1
5 7
4 7
4 5
− 3 det
− 1 det
= 2 × 19−
1. det 4 5
7 = 2 det
−2 1
0 1
0 −2
0 −2 1
ISA/UTL – Álgebra Linear – 2010/11
7
3 × 4 − (−8) = 34.
0
1
2. det
2
0
5 3 2
0 5 2
4 0 0
1
4
= −2 det
= −2 × 2 × (−5) = 20.
1 4 0 = −2 × 2 det
3 1 0
2 3
2 3 0
0 2 0
Terminamos a matéria sobre determinantes com uma curiosa aplicação, que nos vai permitir obter de forma expedita um vector que é ortogonal a cada um de dois vectores dados
de R3 .
Definição 3 Sejam x = (x1 , x2 , x3 ) e y = (y1 , y2, y3 ) vectores de R3 . Chama-se produto
externo de x e y e representa-se por x × y, o vector de R3
x × y = (x2 y3 − x3 y2 , −x1 y3 + x3 y1 , x1 y2 − x2 y1 ).
O vector x ×
“aplicando” da seguinte forma o Teorema de Laplace
y pode ser memorizado
e
1
à “matriz” x1
y1
e
1
x×y = “ det x1
y1
e2 e3
x2 x3 , em que e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1). Tem-se pois,
y2 y3
e2 e3
1
0
0
x2 x3
x1 x3
x1 x2
0 −det
1 +det
0 .
x2 x3 ” = det
y2 y3
y1 y3
y1 y2
y2 y3
0
0
1
e e2 e3
1
Exemplo 4 (1, −2, 0) × (1, 0, 1) = “ det 1 −2 0 ” = (−2, −1, 2).
1 0 1
Para mostrar que o vector produto externo x × y é ortogonal a x e a y, consideremos a
seguinte definição.
ISA/UTL – Álgebra Linear – 2010/11
8
CAPÍTULO 1. DETERMINANTES
Definição 4 Sejam z = (z1 , z2 , z3 ), x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) vectores de R3 .
Chama-se produto misto de z, x e y ao produto interno de z por x × y, i.e.,
z1 z2 z3
x2 x3
x1 x3
x1 x2
z|x×y = z1 det
−z2 det
+z3 det
= det x1 x2 x3 .
y2 y3
y1 y3
y1 y2
y1 y2 y3
Tem-se então o seguinte resultado.
Proposição 1.4 Sejam x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) vectores de R3 . O produto
externo de x e y é um vector ortogonal a x e a y.
x x x
1 2 3
Demonstração: x|x × y = det x1 x2 x3 = 0, pois é o determinante de uma matriz
y1 y2 y3
com duas linhas iguais e portanto x ⊥ x × y.
O mesmo raciocı́nio permite concluir que y|x × y = 0, i.e., y ⊥ x × y. Assim, se {x, y} é linearmente independente, x × y é ortogonal ao plano gerado por x e y
(ver a Figura 1).
V⊥
x×y
y
V
x
Figura 1.1: O vector produto externo de dois vectores x e y que geram um plano V de R3
A norma do vector produto externo é dada pelo seguinte resultado.
Proposição 1.5 Se x e y vectores de R3 , kx × yk = kxkkyk| sin θ|.
Demonstração: Por cálculo algébrico não há dificuldade em estabelecer que kx × yk2 =
kxk2 kyk2 − (x|y)2. A demonstração prossegue tendo em conta que kxk2 kyk2 − (x|y)2 =
ISA/UTL – Álgebra Linear – 2010/11
9
kxk2 kyk2 − kxk2 kyk2 cos2 θ = kxk2 kyk2 (1 − cos2 θ) = kxk2 kyk2sin2 θ ⇒ kx × yk =
kxkkyk| sin θ|. Assim, a norma do produto externo kx × yk é a área do paralelogramo de lados x e y (ver
a Figura 1).
y
h
θ
x
Figura 1.2: kx × yk = kxkkyk| sin θ| = kxkh, é a área do paralelogramo de lados x e y.
Também se pode concluir que o valor absoluto do produto misto |x × y|z| é o volume do
paralelipı́pedo definido por x, y e z (ver a Figura 1).
x×y
z
projx×y z
y
kx × yk
x
Figura 1.3: |x×y|z| = kx×ykkzk| cos θ| = kx×ykkprojx×y zk, é o volume do paralelipı́pedo
definido por x, y e z.
Exercı́cios 2
1. Calcule o determinante de cada uma das seguintes matrizes indicando se é invertı́vel.
ISA/UTL – Álgebra Linear – 2010/11
10
CAPÍTULO 1. DETERMINANTES
a)
cos α
sin α
− sin α cos α
1
1
2 0
, α ∈ R
−1 1 1 2
d)
2 −1 1 1
1
1 1 1
2
b) 1
1
2
2
e)
0
5
4 18
3 15
0 6
0
2
1
−2 1
0
1
0 −2
1 −1 3
3
c) 1
0
1
2
f)
5
0
2 1
1 2
2 1
3 4 3
0 0 2
.
6 1 6
0 0 1
2. Utilizando a noção de produto externo, indique
a) um vector ortogonal aos vectores u = (1, 1, 2) e v = (1, 0, 1),
b) uma equação cartesiana do plano definido por
(x, y, z) = (1, 2, 3) + λ (1, 1, 2) + µ (1, 0, 1) , ∀λ, µ ∈ R.
3. Sejam P0 = (x0 , y0, z0 ) um ponto de R3 e u = (u1, u2 , u3 ), v = (v1 , v2 , v3 ) vectores
linearmente independentes de R3 . Mostre que a equação
x − x0 y − y0 z − z0 u1
u2
u3 = 0
v1
v2
v3 define o plano que passa no ponto P0 e que contém as direcções dos vectores u e v.
ISA/UTL – Álgebra Linear – 2010/11
11
ISA/UTL – Álgebra Linear – 2010/11
12
Capı́tulo 2
Valores e vectores próprios
2.1
Valores e vectores próprios
Definição 5 Seja A uma matriz quadrada de ordem n. Um vector v não nulo de Rn é
vector próprio de A se existir um número λ tal que Av = λv. O número λ chama-se valor
próprio associado ao vector próprio v.
Exemplo 5
1 2
1
=
3
= 3
1
. Diz-se pois que
0 3
1
3
1
1 2
e 3 é o valor próprio associado.
da matriz
0 3
1
1
é vector próprio
Note que os vectores próprios associados a λ são os vectores v, não nulos, tais que Av =
λv ⇔ Av = λIv ⇔ (A − λI)v = ~0, i.e., são os vectores de N (A − λI) \ {~0}.
Tem-se pois provado os seguintes resultados.
Teorema 2.1 Seja A uma matriz quadrada.
1. λ é valor próprio de A sse o espaço nulo da matriz A − λI inclui vectores não nulos,
i.e., N (A − λI) 6= {~0}.
13
2.1. VALORES E VECTORES PRÓPRIOS
2. Se λ é valor próprio de A, os vectores próprios associados a λ são os vectores não
nulos de N (A − λI).
Definição 6 Se λ é valor próprio da matriz A, o espaço nulo de A−λI chama-se subespaço
próprio de λ e representa-se por E(λ).
2 −5
5
Exemplo 6 Consideremos a matriz A = 0
3 −1 .
0 −1
3
Para decidir se 2 é valor próprio de A, vamos ver se o espaço nulo da matriz A − λI, com
λ = 2, inclui vectores não nulos, i.e., se existem soluções não nulas do sistema homogéneo
(A − 2I)x = ~0.
Aplicando a fase descendente do método
2 0
2 −5
5
A − 2I = 0
3 −1 − 0 2
0 0
0 −1
3
de Gauss à matriz A − 2I, tem-se
0 −5 5
0 −5
5
0
0 0 .
1 −1 → 0
0 = 0
0
0 0
0 −1
1
2
Como a matriz em escada obtida tem colunas sem pivots, podemos concluir que o sistema
(A − 2I)x = ~0 tem soluções não nulas, o que permite concluir que 2 é valor próprio da
matriz A.
Para identificar os vectores próprios associados ao valor próprio 2, vamos determinar o
espaço próprio E(2), que é o conjunto das soluções do sistema (A − 2I)x = ~0. Para isso
aplica-se a fase ascendente do método de Gauss à matriz em escada obtida anteriormente.
Assim,
0 1 −1
0 −5 5
n
0
0 e portanto E(2) = v = (v1 , v2 , v3 ) :
0 0 → 0 0
0 0
0
0
0 0
v1 = ∀
v2 = v3
o
.
v3 = ∀
Os vectores próprios associados ao valor próprio 2 são os vectores não nulos de E(2), i.e.,
os vectores não nulos de R3 que têm a segunda componente igual à terceira.
ISA/UTL – Álgebra Linear – 2010/11
14
CAPÍTULO 2. VALORES E VECTORES PRÓPRIOS
Podemos facilmente verificar que, se v é um qualquer vector de E(2), i.e., v = (a, b, b),
tem-se
2a
a
2 −5
5
Av = 0
3 −1 b = 2b
2b
b
0 −1
3
= 2v.
O ponto 2 do Teorema 2.1 indica (e o Exemplo 6 ilustra) como se podem identificar
os vectores próprios associados a cada valor próprio. Vamos agora ver como é que se
determinam os valores próprios de uma matriz.
O ponto 1 do Teorema 2.1 estabelece que λ é valor próprio da matriz A sse o sistema
homogéneo (A − λI)x = 0 é indeterminado, que como sabemos é equivalente à não
existência de inversa da matriz A − λI, ou ainda ao facto do determinante de A − λI ser
igual a zero. Tem-se pois o seguinte resultado.
Proposição 2.2 λ é valor próprio de A sse det(A − λI) = 0.
Assim, os valores próprios de A são os valores de λ que anulam a função p(λ) = det(A−λI).
Vamos ver que a função p(λ) é um polinómio na variável λ.
a11 a12
a11 − λ
a12
é uma matriz genérica de ordem 2, A − λI =
e
Se A =
a21 a22
a21
a22 − λ
p(λ) = det(A − λI) = (a11 − λ)(a22 − λ) − a12 a21 = λ2 − (a11 − a22 )λ − a12 a21 é um
polinómio de
a
11
Se A = a21
a31
grau 2.
a12 a13
a22
a32
é
uma
matriz
de
ordem
3,
A−λI
=
a23
a33
p(λ) = det(A − λI) =
(a11 − λ) det
+ a13 det
ISA/UTL – Álgebra Linear – 2010/11
a22 − λ
a23
a32
a33 − λ
a21 a22 − λ
a31
a32
a11 − λ
a12
a13
a21
a22 − λ
a23
a31
a32
a33 − λ
a21
− a12 det
a23
a31 a33 − λ
.
15
+
2.1. VALORES E VECTORES PRÓPRIOS
Uma vez que o 1o termo é um polinómio de grau 3 e os 2o e 3o termos são polinómios de
grau 1, p(λ) é um polinómio de grau 3.
Repetindo este raciocı́nio para matrizes genéricas de ordens 4, 5, . . . , conclui-se o seguinte.
Proposição 2.3 Se A é uma matriz quadrada de ordem n, a função p(λ) = det(A − λI)
é um polinómio de grau n, que se chama polinómio caracterı́stico de A.
Os valores próprios são portanto os zeros do polinómio caracterı́stico.
Exemplos 7
1 0 1
1. Para determinar os valores próprios da matriz A = 0 1 0 considera-se o
1 2 1
polinómio caracterı́stico
1−λ
0
1
p(λ) = det 0
1−λ
0 = (1 − λ)((1 − λ)2 − 1) = (1 − λ)(−λ)(2 − λ).
1
2
1−λ
Os valores próprios de A são 0, 1 e 2, pois são os valores de λ que anulam o polinómio
caracterı́stico.
0 1 0
2. O polinómio caracterı́stico da matriz A = −1 0 0
0 0 1
−λ 1
0
p(λ) = det −1 −λ
0
0
0 1−λ
é
= (1 − λ)(λ2 + 1).
Os valores próprios de A são λ = 1 e os zeros de λ2 + 1, que são os números
imaginários i e −i.
ISA/UTL – Álgebra Linear – 2010/11
16
CAPÍTULO 2. VALORES E VECTORES PRÓPRIOS
Uma matriz A de ordem n tem n valores próprios, reais e/ou complexos, distintos ou não.
O número de vezes que λ aparece como zero do polinómio é a multiplicidade algébrica de
λ. Assim, por exemplo, os zeros de (2 − λ)2 λ(1 + λ)3 são 2, 0 e −1 com multiplicidades
algébricas iguais a 2, 1 e 3, respectivamente.
Note que em cada um dos Exemplos 7 a soma dos valores próprios é igual à soma dos
elementos da diagonal principal da matriz A. Também o determinante de cada matriz e o
produto dos correspondentes valores próprios são iguais. Tal facto não é uma coincidência,
como estipulam os dois resultados seguintes, que permitem de alguma forma averiguar
eventuais erros cometidos no cálculo dos valores próprios.
Proposição 2.4 Sejam λ1 , λ2 , . . . , λn os valores próprios de uma matriz A de ordem n.
1. A soma dos valores própios é igual ao traço da matriz, i.e., λ1 + λ2 + · · · + λn =
a11 + a22 + · · · + ann .
2. O produto do valores próprios é igual ao determinante da matriz, i.e., λ1 λ2 . . . λn =
det A.
Resulta directamente do ponto 2 da Proposição 2.4 a seguinte caracterização da invertibilidade de matrizes em termos de valores próprios.
Proposição 2.5 Uma matriz é singular (i.e., não é invertı́vel) sse zero é valor próprio.
Exercı́cios 3
1 1 0
1. Considere a matriz A = 0 2 2 .
0 2 5
a) Verifique que (1, 5, 10) é vector próprio.
b) Verifique que 1 é valor próprio.
ISA/UTL – Álgebra Linear – 2010/11
17
2.1. VALORES E VECTORES PRÓPRIOS
0
1 −1
2. Verifique que −1 é valor próprio da matriz A = 1
0 −1 e determine os
1 −1
0
vectores próprios associados a −1.
3. Determine os valores próprios e correspondentes vectores próprios de cada uma das
seguintes matrizes, indicando em cada caso, uma base e a dimensão do subespaço
próprio associado a cada valor próprio.
1 1 0
1
0 0
2 1
0 −1
, B =
, C =
A=
−7 1 0 , D = 0 2 2 ,
0 1
1 0
0 2 5
4 −3 1
1 1 0 0
3 1 0
1 2 −2
0 1 0 0
.
E = 2 1 0 , F = 1 3 0 , G =
0 0 −2 0
0 0 2
−2 0 1
0 0 0 2
1 1 −1
4. Considere a matriz A = 2 2
1 a
0 , com a ∈ R.
a
a) Determine os valores do parâmetro a para os quais a matriz A admite o valor
próprio zero.
b) Para cada um dos valores de a obtidos na alı́nea anterior calcule os valores
próprios de A e identifique os correspondentes vectores próprios.
c) Discuta, em função do parâmetro a, a invertibilidade da matriz A.
5. Seja v um vector próprio associado ao valor próprio λ de uma matriz A.
a) Mostre que, para todo o real α, v é um vector próprio da matriz A − αI e
indique o valor próprio associado.
ISA/UTL – Álgebra Linear – 2010/11
18
CAPÍTULO 2. VALORES E VECTORES PRÓPRIOS
b) Mostre que, para todo o inteiro n, v é vector próprio da matriz An e indique o
valor próprio associado.
2.2
Diagonalização
Uma questão importante no estudo dos valores e vectores próprios é a diagonalização de
matrizes. Começamos esta secção com a definição de matrizes semelhantes.
Definição 7 Duas matrizes quadradas da mesma ordem A e B são semelhantes se existir
uma matriz invertı́vel P , tal que B = P −1 AP .
0
1
0
Exemplo 8 As matrizes A = 1 −3 −1 e
0 −1
1
1
De facto, tomando a matriz invertı́vel P = 0
−1
P −1 AP =
0 0 −1
1
2 1
B = −1
0 0 são semelhantes.
4 −5 3
1 0
2 1 tem-se
0 0
1
2 1
1 1 0
0
1
0
=
−1
0 0 = B.
0 2 1
1 −3 −1
1 0
1
4 −5 3
−1 0 0
0 −1
1
−2 1 −2
Pode provar-se o seguinte.
Proposição 2.6 Matrizes semelhantes têm os mesmos valores próprios.
Demonstração: Se A e B são matrizes semelhantes, existe uma matriz invertı́vel P tal que
B = P −1 AP . Assim, tem-se det(B − λI) = det(P −1 AP − λI) = det(P −1 AP − λP −1 P ) =
det(P −1 (AP − λP )) = det(P −1 (A − λI)P ) = det P −1 det(A − λI) det P = det(A − λI),
i.e., as matrizes A e B têm o mesmo polinónimo caracterı́stico e, consequentemente, os
mesmos valores próprios. ISA/UTL – Álgebra Linear – 2010/11
19
2.2. DIAGONALIZAÇÃO
Definição 8 Uma matriz quadrada A é diagonalizável se é semelhante a uma matriz
diagonal, i.e., existe uma matriz P invertı́vel, tal que D = P −1 AP é uma matriz diagonal.
Diz-se que P é matriz de diagonalização.
Observação 1 Se a matriz A é semelhante à matriz diagonal D,
1. os valores próprios A são os elementos da diagonal principal de D;
2. como D = P −1AP ⇔ A = P DP −1, tem-se,
para todo o k ∈ Z+ , Ak = (P DP −1)(P DP −1)...(P DP −1) = P D k P −1 .
{z
}
|
k vezes
O resultado seguinte estabelece uma condição necessária e suficiente para uma matriz ser
diagonalizável.
Teorema 2.7 Uma matriz quadrada A de ordem n é diagonalizável sse existem n vectores
próprios de A que formam um conjunto linearmente independente.
Demonstração:
(i) Se A é diagonalizável, existe uma matriz P invertı́vel, tal que D = P −1 AP é matriz
diagonal.
Sejam P =
w1 w2 . . . wn
|
|
e D=
|
λ1 · · ·
..
.
0
0
· · · λn
.
Note que D = P −1 AP ⇔ P D = AP .
Aw1 Aw2 . . . Awn
λ w λ w ...
e PD = 1 1 2 2
Como AP =
|
|
|
|
|
λn w n
|
,
AP = P D significa que Aw1 = λ1 w1 , Aw2 = λ2 w2 , . . . , Awn = λn wn , i.e., w1 , w2,
. . . , wn são n vectores próprios de A. Esses vectores próprios formam um conjunto
linearmente independente uma vez que são as colunas da matriz invertı́vel P .
Note também que os valores próprios associados às colunas de P são os elementos
da diagonal principal matriz D.
ISA/UTL – Álgebra Linear – 2010/11
20
CAPÍTULO 2. VALORES E VECTORES PRÓPRIOS
(ii) Se {v1 , v2 , . . . , vn } é um conjunto de vectores próprios de A linearmente independente
e λ1 , λ2 , . . . , λn os valores próprios associados, vamos definir a matriz invertı́vel
λ1
0
v1 v2 . . . vn
..
e a matriz diagonal D :=
P :=
.
.
| |
|
0
λn
As igualdades Av1 = λ1 v1 , Av2 = λ2 v2 , . . . , Avn = λn vn podem ser escritas matricialmente na forma
Av1 Av2 . . . Avn
λ1 v1 λ2 v2 . . . λn vn
=
⇔ AP = P D ⇔ P −1AP = D,
|
|
|
|
|
|
que permite conluir que A é diagonalizável. Observação 2 Na demonstração do Teorema 2.7 constatou-se o seguinte. Se P é uma
matriz de diagonalização da matriz A de ordem n,
1. as n colunas de P são vectores próprios de A que formam um conjunto linearmente
independente;
2. o valor próprio associado à coluna i da matriz P é o elemento (i, i) da matriz diagonal
D = P −1 AP .
Teorema 2.8 Um conjunto de vectores próprios associados a valores próprios distintos
é linearmente independente.
Demonstração: Seja A uma matriz quadrada de ordem n.
(i) Sejam λ1 6= λ2 valores próprios de A e v1 , v2 vectores próprios correspondentes. Quer
provar-se que a combinação linear nula α1 v1 + α2 v2 = ~0 só é realizável com os
coeficientes α1 = α2 = 0.
Ora, α1 v1 + α2 v2 = ~0 ⇒ A(α1 v1 ) + A(α2 v2 ) = A~0 ⇔ α1 (Av1 ) + α2 (Av2 ) = ~0 ⇔
α1 λ1 v1 + α2 λ2 v2 = ~0 ⇔ (como α2 v2 = −α1 v1 ) α1 λ1 v1 + λ2 (−α1 v1 ) = ~0 ⇔ α1 (λ1 −
ISA/UTL – Álgebra Linear – 2010/11
21
2.2. DIAGONALIZAÇÃO
λ2 )v1 = ~0 ⇒ (como v1 6= ~0) α1 (λ1 − λ2 ) = 0 ⇒ (como λ1 6= λ2 ) α1 = 0 ⇒ α2 = 0 , e
portanto {v1 , v2 } é linearmente independente.
(ii) Sejam λ1 , λ2 , λ3 valores próprios distintos de A e v1 , v2 , v3 vectores próprios correspondentes. Quer provar-se que a combinação linear nula α1 v1 + α2 v2 + α3 λ3 v3 = ~0
só é realizável se α1 = α2 = α3 = 0.
(×A)
α1 v1 + α2 v2 + α3 v3 = ~0 ⇒ α1 λ1 v1 + α2 λ2 v2 + α3 λ3 v3 = ~0 ⇔ α1 λ1 v1 + α2 λ2 v2 +
λ3 (−α1 v1 − α2 v2 ) = ~0 ⇔ α1 (λ1 − λ3 )v1 + α2 (λ2 − λ3 )v2 = ~0. Uma vez que v1 e
v2 são vectores próprios associados a valores próprios distintos, de (i) resulta que
a equação anterior só é satisfeita com α1 (λ1 − λ3 ) = α2 (λ2 − λ3 ) = 0. Tendo em
conta que λ1 6= λ3 e λ2 6= λ3 , tem-se α1 = α2 = 0. Como v3 é um vector não nulo,
α1 v1 + α2 v2 + α3 v3 = ~0 só se verifica se também α3 = 0.
Temos assim provado que {v1 , v2 , v3 } é linearmente independente.
O resultado para k > 3 valores próprios distintos prova-se de forma análoga. O teorema anterior permite concluir que, se uma matriz de ordem n tem n valores próprios
distintos, então é diagonalizável. E se a matriz tem algum valor próprio com multiplicidade
algébrica maior do que 1? A resposta a esta questão é dada utilizando o seguinte conceito.
Definição 9 Chama-se multiplicidade geométrica do valor próprio λ da matriz A à dimensão do subespaço próprio E(λ) = N (A − λI).
A relação entre multiplicidades álgebrica e geométrica é estabelecida no resultado seguinte.
Proposição 2.9 A multiplicidade geométrica de um valor próprio é menor ou igual do
que a multiplicidade algébrica.
O próximo teorema estabelece uma forma expedita de decidir sobre a diagonalização de
matrizes.
ISA/UTL – Álgebra Linear – 2010/11
22
CAPÍTULO 2. VALORES E VECTORES PRÓPRIOS
Teorema 2.10 Uma matriz é diagonalizável sse as multiplicidades geométrica e algébrica
de cada valor próprio são iguais.
−1
1
0
Exemplo 9 Veja se a matriz A = 0
5 0 é diagonalizável.
4 −2 5
−1 − λ
1
0
p(λ) = det(A − λI) = det
0
5−λ
0 = (5 − λ)(−1 − λ)(5 − λ).
4
−2 5 − λ
p(λ) = 0 ⇔ λ = −1 (mult.
alg. 1) ou λ = 5 (mult. alg. 2).
−6 1 0
E(5) = N (A − 5I) = N 0
0 0 .
4 −2 0
|
{z
}
car=2
Assim, mult. geométrica de 5 = dim E(5) = 3 − car(A − 5I) = 1 < mult. algébrica de 5
= 2, e portanto A não é diagonalizável.
Os valores e vectores próprios de matrizes simétricas têm propriedades interessantes.
Teorema 2.11 Se A é uma matriz simétrica (A = A⊤ ),
1. os valores próprios são reais;
2. a matriz é diagonalizável;
3. vectores próprios associados a valores próprios distintos são ortogonais.
Demonstração do ponto 3: Sejam λ1 6= λ2 valores próprios da matriz simétrica A e v1 , v2
vectores próprios correspondentes. Tem-se λ1 v1 |v2 = (Av1 )|v2 = (Av1 )⊤ v2 = v1⊤ A⊤ v2 =
λ1 6=λ2
v1⊤ Av2 = v1⊤ λ2 v2 = λ2 v1 |v2 . Ora, λ1 v1 |v2 = λ2 v1 |v2 ⇔ (λ1 − λ2 )v1 |v2 = 0 ⇒ v1 |v2 = 0,
i.e., v1 ⊥ v2 . ISA/UTL – Álgebra Linear – 2010/11
23
2.2. DIAGONALIZAÇÃO
Exemplo 10 Vamos verificar que
próprios associados a valores próprios dis os vectores
3 0 1
tintos da matriz simétrica A = 0 2 0 são ortogonais.
1 0 3
3−λ
0
1
p(λ) = det(A − λI) = det 0
2−λ
0 = (2 − λ)((3 − λ)2 − 1) = (2 − λ)(2 −
1
0
3−λ
λ)(4 − λ).
Os valores próprios são 2 (m. alg = 2) e 4 (m. alg = 1).
1 0 1
1 0 1
E(2) = N (A − 2I) = N 0 0 0 = N 0 0 0 = {
0 0 0
1 0 1
1 0
−1 0
1
E(4) = N (A − 4I) = N 0 −2 0 = · · · = N 0 1
0 0
1
0 −1
c
{ 0 }.
c
−b
} = { a }.
x2 = ∀
b
x3 = ∀
x = x3
−1
1
=
{
x = 0 } =
0
2
x3 = ∀
0
x1 = −x3
Ora, (−b, a, b)|(c, 0, c) = −bc + 0 + bc = 0, i.e, quaisquer dois vectores próprios u e v, com
u ∈ E(2) e v ∈ E(4), são ortogonais.
Teorema 2.12 Uma matriz simétrica A do tipo n × n tem n vectores próprios ortogonais.
Demonstração: Defina-se uma base ortogonal do subespaço próprio de cada valor próprio
de A. Como A é diagonalizável (e portanto o número de vectores da base é igual à multiplicidade algébrica do correspondente valor próprio), a reunião destas bases é constituı́da
por n vectores. Se dois destes vectores estão associados ao mesmo valor próprio, são
ortogonais por construção. Se estão associados a valores próprios distintos, o ponto 3 do
Teorema 2.11 estabelece que são ortogonais. ISA/UTL – Álgebra Linear – 2010/11
24
CAPÍTULO 2. VALORES E VECTORES PRÓPRIOS
Assim, uma matriz simétrica A, do tipo n × n, tem n vectores próprios ortonormais (ortogonais de norma 1). Sejam v1 , v2 , . . . , vn vectores próprios ortonormais, e λ1 , λ2 , . . . , λn
os valores próprios correspondentes.
λ ··· 0
1
v1 v2 . . . vn
..
, tem-se P −1 AP =
Se definirmos a matriz P =
.
| |
|
0 · · · λn
= D.
Como P ⊤ = P −1, i.e., P é matriz ortogonal, tem-se D = P −1 AP = P ⊤ AP . Diz-se que
A é ortogonalmente diagonalizável , i.e., admite matrizes de diagonalização ortogonais.
Tem-se assim provado o seguinte resultado
Teorema 2.13 Matrizes simétricas são ortogonalmente diagonalizáveis
Sejam A uma matriz simétrica do tipo n × n, v1 , v2 , . . . , vn vectores próprios ortonormais
e λ1 , λ2 , . . . , λn os correspondente valores próprios.
λ ··· 0
1
v1 v2 . . . vn
..
,D =
Se definirmos P =
.
| |
|
0 · · · λn
v1
v2
−1
, tem-se P =
..
.
vn
e A = P DP −1.
Se tomarmos um vector arbitrário x de Rn , vem
v1 |x
λ1 v1 λ2 v2 . . . λn vn
.
Ax = (P D)(P −1x) =
..
|
|
|
vn |x
⊤
⊤
⊤
⊤
λ1 v1 v1 x + · · · + λn vn vn x = (λ1 v1 v1 + · · · + λn vn vn )x.
= λ1 v1 v1 |x + · · · + λn vn vn |x =
Como o vector x é arbitrário, pode concluir-se das igualdades anteriores que A = λ1 v1 v1⊤ +
· · · + λn vn vn⊤ , i.e., a matriz A pode ser escrita à custa dos valores próprios e de vectores
próprios ortonormais. Este resultado, conhecido como Teorema da decomposição espectral ,
é agora enunciado.
Teorema 2.14 Sejam A uma matriz simétrica do tipo n × n, v1 , v2 , . . . , vn vectores próprios
ISA/UTL – Álgebra Linear – 2010/11
25
2.2. DIAGONALIZAÇÃO
ortonormais e λ1 , λ2 , . . . , λn os correspondentes valores próprios. A matriz A pode ser decomposta na forma seguinte A = λ1 v1 v1⊤ + λ2 v2 v2⊤ · · · + λn vn vn⊤ .
Observação 3 O Teorema da decomposição espectral tem a seguinte interpretação.
Toda a matriz simétrica do tipo n × n é uma combinação linear das matrizes de projecção
sobre cada um de n vectores próprios ortonormais. Os coeficientes são os correspondentes
valores próprios.
3 0 1
Exemplo 11 Como se viu no Exemplo 10, a matriz simétrica A = 0 2 0 admite
1 0 3
os vectores próprios (−b, a, b), correspondentes ao valor próprio 2 e (c, 0, c), associados ao
valor próprio 4. Fazendo cada uma das variáveis livres igual a 1 e as restantes iguais a
0, obtem-se o conjunto {(0, 1, 0), (−1, 0, 1), (1, 0, 1)} de três vectores próprios linearmente
independente. Como o conjunto é ortogonal, para obter três vectores próprios ortonormais basta tomar o versor de cada um deles, i.e., v1 = (0, 1, 0), v2 = (− √12 , 0, √12 ), v3 =
( √12 , 0, √12 ). As matrizes de projecção sobre cada um desses vectores são
1
2
0 0 0
0
v1 v1⊤ = 0 1 0 , v2 v2⊤ = 0 0
− 12 0
0 0 0
− 12
1
2
1
2
0
⊤
,
v
v
=
0
0 0 0 .
3 3
1
1
1
0 2
2
2
A combinação linear destas matrizes, com coeficientes iguais aos correspondentes valores
próprios, é a matriz
0 0 0
2 0 1 0
0 0 0
1
2
0
+2 0 0
− 12 0
− 12
1
2
1
2
0
3 0 1
0 +4 0 0 0 = 0 2 0
1
1
1
1 0 3
0 2
2
2
= A.
Exercı́cios 4
ISA/UTL – Álgebra Linear – 2010/11
26
CAPÍTULO 2. VALORES E VECTORES PRÓPRIOS
0 −2 2
1. Considere a matriz A = 0 0 1 .
0 −1 2
a) Calcule os valores próprios de A e as respectivas multiplicidades algébricas.
b) Indique um vector próprio de A.
d) Será que existe uma matriz quadrada P , de ordem 3, invertı́vel tal que P −1 AP
é uma matriz diagonal? Justifique.
2. Indique, justificando, quais das seguintes matrizes
1
0
2 1
0 −1
, B =
, C = −7 1
A=
0 1
1 0
4 −3
1 2 −2
E = 2 1 0 , F =
−2 0 1
são diagonalizáveis.
1 1 0
0
0 , D = 0 2 2 ,
0 2 5
1
1 1 0
1 1 0
3 1 0
0 1 0
1 3 0 , G = 0 2 2 , H =
0 0 −2
0 2 5
0 0 2
0 0 0
3. Determine uma matriz de diagonalização de cada uma das seguintes matrizes
1 3 4
1 1 0
1 3
0
A = 3 −2 −1 , B = 1 1 0 , C = 3 1 0 .
4 0 1
0 0 2
0 −1 1
4. Seja A =
1
2
1
2
0
1
4
1
4
1
2
1
4
1
4
1
2
.
1
a) verifique que o polinómio caracterı́stico de A é p(λ) = λ(1 − λ)(λ − ).
4
ISA/UTL – Álgebra Linear – 2010/11
27
0
0
.
0
2
2.2. DIAGONALIZAÇÃO
1 0 0
b) Determine uma matriz invertı́vel P tal que P −1 AP = 0 0 0 .
1
0 0 4
5. Considere a matriz A =
3
5
4
5
2
5
1
5
.
a) Indique uma matriz de diagonalização.
b) Prove que lim An =
n→+∞
6. Considere A =
2 1
a b
2
3
2
3
1
3
1
3
.
, com a, b ∈ R.
a) Para a = 2 e b = 1, indique uma matriz de diagonalização.
b) Se b = 2, para que valores de a é A ortogonalmente diagonalizável?
2 1
e A sejam semelhantes?
c) Se b = 2, existirá algum a > 0 tal que
2 1
Justifique.
7. Seja A uma matriz quadrada de ordem 3 que admite o valor próprio 1, com de
multiplicidade algébrica 2 e (1, 0, −1), (0, 1, 1) vectores próprios associados a 1.
a) Justifique que A é diagonalizável.
b) Determine E(1).
c) Sabendo que (−1, 1, 0) é um vector próprio de A associado a 2, determine a
matriz A.
4 2 2
8. Indique uma matriz ortogonal de diagonalização da matriz A = 2 4 2 .
2 2 4
ISA/UTL – Álgebra Linear – 2010/11
28
CAPÍTULO 2. VALORES E VECTORES PRÓPRIOS
9. Prove os seguintes resultados.
a) Matrizes ortogonalmente diagonalizáveis são simétricas.
b) Se λ é um valor próprio real não nulo de uma matriz A e v um vector próprio
associado a λ, então λ tem o sinal de v T Av.
ISA/UTL – Álgebra Linear – 2010/11
29