´ALGEBRA LINEAR Francesco Russo e Aron Simis

Propaganda
ÁLGEBRA LINEAR
Francesco Russo e Aron Simis
Conteúdo
Capı́tulo 1. Preliminares de uma aplicação linear
1.1. Polinômio caracterı́stico e polinômio minimo
1.2. Autovalores e autovetores
1.3. Diagonalização e triangulação de uma aplicação linear
1.4. Subespaços invariantes de uma aplicação linear
1.5. Decomposição T -primária de um espaço vetorial
Exercicios de revisão e referentes ao capı́tulo
1
1
3
4
7
8
10
Capı́tulo 2. A teoria dos fatores invariantes e dos divisores elementares
2.1. Matrizes com elementos polinomiais
2.2. Escalonamento de matrizes com elementos polinomiais
2.3. Forma canônica de Smith
2.4. Equivalencia em Mn×n (k[X]) e semelhnanca em Mn×n (k)
2.5. Forma canônica racional
2.6. Fatores invariantes e divisores elementares
2.7. Teoremas de decomposição T -ciclica I e T -primaria II
2.8. Teorema de decomposição T –ciclica II
Exercicios do capı́tulo
17
17
23
26
30
31
33
35
37
40
Capı́tulo 3. Forma canônica de Jordan
45
3.1. Forma canônica de Jordan para operadores nilpotentes
45
3.2. Forma canônica de Jordan para operadores com polinômio minimo completamente
redutivel sobre k
47
Exercisios do capı́tulo
49
iii
CAPı́TULO 1
Preliminares de uma aplicação linear
1.1. Polinômio caracterı́stico e polinômio minimo
Seja K um corpo arbitrário, fixo de uma vez por todas, a menos de afirmação em contrário.
Seja V um K-espaço vetorial de dimensão finita. Denotaremos por End(V ) o conjunto das
aplicações lineares de V em V e observamos que End(V ), além de admitir uma estrutura de
K-espaço vetorial (com dim End(V ) = (dim V )2 ), admite uma outra operação natural, a de
composição de aplicações , que lhe confere estrutura de anel (não comutativo). Nesta seção
estudaremos as propriedades preliminares de uma aplicação linear T ∈ End(V ). Indicaremos
por IV ∈ End(V ) a aplicação linear identidade, assim como I ∈ Mn×n (K) denotara a matriz
identidade In×n .
Seja T ∈ End(V ). Dado p(t) = a0 + a1 t + . . . + ar tr ∈ K[t], definimos
p(T ) := a0 IV + a1 T + . . . + ar T r ∈ End(V )
como a aplicação linear cuja imagem em v é
p(T )(v) := a0 v + a1 T (v) + . . . + ar T r (v) ∈ V.
Com essa notação podemos definir um homorfismo de aneis comutativos φT : K[t] → K[T ],
dado por
φT (p(t)) = p(T ) ∈ End(V ),
onde K[T ] designa a K-subálgebra do anel End(V ) gerada por T ∈ End(V ). Neste mesmo
espı́rito, definimos uma operação • T : K[t] × V → V de K[t] em V , dada por
p(t) • T v = p(T )(v) ∈ V.
A operação • T induz uma estrutura de K[t]-modulo finitamente gerado no K-espaço vetorial
V.
Analogamente, se A ∈ Mn×n (K), definimos
p(A) = a0 I + a1 A + . . . + ar Ar ∈ Mn×n (K)
e a operação
•A : K[t] × K ⊕n → K ⊕n
como
p(t) •A v = p(A)(v) ∈ K ⊕n ,
onde p(A)(v) designa o produto da matriz p(A) pelo vetor coluna v.
Dada A(t) = (ai,j (t)) ∈ Mn×n (K[t]) e dados v1 , . . . , vn ∈ V , definimos



  Pn

v1
v1
j=1 a1,j (T )(vj )




 
..
A(t) •T  ...  = A(T )  ...  = 
.
.
Pn
vn
vn
j=1 an,j (T )(vj )
1
2
1. POLINÔMIO MINIMO E CARATERISTICO
1.1.1. Definição. (Polinômio carateristico e polinômio minimo) Seja T ∈ End(V ) e
seja B = {v1 , . . . , vn } uma base de V . O polinômio carateristico de T é
cT (t) := det(tI − [T ]B
B ) ∈ K[t].
O polinômio minimo de T , indicado com mT (t) é o gerador monico do ideal ker (φT ) ⊆ K[t],
i. e. é o polinômio monico de menor grau p(t) ∈ K[t] com a propriedade que p(T ) = 0End(V ) .
Se A ∈ Mn×n (K), definimos o polinômio carateristico de A como
cA (t) = det(tI − A) ∈ K[t]
e o polinômio minimo de A, mA (t), como o gerador mônico de ker (φA ).
Por definição de matriz associada a uma aplicação linear com respeito a uma base B, temos
que, se [T ]B
B = A = [ai,j ],
n
X
T (vj ) =
ai,j vi .
i=1
Se B ∈ Mn×n (K) é uma matriz inversı́vel, então
det(tI − B −1 AB) = det(B −1 (tI − A)B) = det(tI − A)
para qualquer matriz A ∈ Mn×n (K). Portanto o polinômio caraterestico de T é bem definido,
não dependendo da escolha da base B utilizada na sua definição. cT (t) é um polinômio monico
de grau n = dim(V ). Observamos que
det(tI − A) = det((tI − A)t ) = det(tI − At ).
Se C(t) = tI − At ∈ Mn×n (K[t]), temos

 
 

P
v1
0V
T (v1 ) − ni=1 ai,1 (vi )

  .. 
 
..
(1.1.1)
C(t) •T  ...  = 
 =  . .
P.n
vn
T (vn ) − i=1 ai,n (vi )
0V
Se ad(C(t)) ∈ Mn×n (K[t]) é a matriz adjunta de C(t) ∈ Mn×n (K[t]), temos
(1.1.2)
ad(C(t)) · C(t) = C(t) · ad(C(t)) = det(tI − At ) · I = cT (t) · I.
Podemos agora demonstrar um resultado clássico importante.
1.1.2. Teorema. (Cayley-Hamilton) Seja T ∈ End(V ). Então
cT (T ) = 0End(V ) ,
i. e. T anula o proprio polinômio carateristico.
Analogamente, se A ∈ Mn×n (K), então
cA (A) = 0Mn×n (K) .
1.2. DEFINIÇÕES
3
Demonstração. Seja B = {v1 , . . . , vn } uma base de V . De (1.1.2) e de (1.1.1), deduzimos
 T






c (T )(v1 )
v1
v1


 . 

 . 
..
T

 = (c (t) · I) •T  ..  = ad(C(t)) •T C(t) •T  ..  =
.
vn
vn
cT (T )(vn )

 

0V
0V
 ..   .. 
= ad(C(t)) •T  .  =  .  .
0V
0V
Portanto a aplicação linear cT (T ) é a aplicação nula porque se anula sobre uma base de V .
1.1.3. Corolário. Seja T ∈ End(V ). O polinômio minimo de T divide o polinômio carateristico de T .
1.2. Autovalores e autovetores
Nesta seção introduziremos as primeiras noções de subespaços invariantes, através dos autovalores de uma aplicação linear.
1.2.1. Definição. (Autovalor e autovetor de un aplicação linear) Seja T ∈ End(V ).
Um autovetor de T é um vetor v ∈ V \ 0V tal que existe λ ∈ K com a propriedade que
T (v) = λv.
O elemento λ ∈ K se diz autovalor de T e v se diz autovetor relativo ao autovalor λ.
Analogamente, se A ∈ Mn×n (K), um vetor não nulo v ∈ K ⊕n se diz autovetor da matriz A
se existir λ ∈ K tal que
A · v = λv.
O elemento λ ∈ K se diz nesse caso autovalor de A.
Indicamos com Vλ , λ ∈ K, o seguinte subespaço de V
Vλ = ker (λIV − T ).
Esse subespaço vetorial de V , chamado de autoespaço de T relativo a λ ∈ K.
Observamos que λ ∈ K é autovalor se e somente se Vλ 6= 0V . A relação entre os autovalores
de T ∈ End(V ) (ou de A ∈ Mn×n (K)) e o polinômio caraterı́stico de T é exprimida pelo seguinte
resultado.
1.2.2. Teorema. Os autovalores de T ∈ End(V ) (ou de A ∈ Mn×n (K)) são precisamene as
raizes em K de cT (t) (respectivamente de cA (t)), que coincidem com as raizes em k de mT (t)
(respectivamente de mA (t)).
Em particular se n = dim(V ), então T tem no maximo n autovalores distintos.
Demonstração. Seja B = {v1 , . . . , vn } uma base de V e seja [T ]B
B a matriz de T em relação
à base B. O aplicação linear λIV − T tem núcleo não trivial se e somente se det([λIV − T ]B
B) = 0
T
se e somente se c (λ) = 0.
Seja agora λ ∈ k um autovalor e seja v ∈ Vλ \ 0V . Temos
0V = mT (T )(v) = mT (λ) · v.
Sendo v 6= 0V , temos mT (λ) = 0, i. e. qualquer raiz de cT (t) em k é raiz de mT (t). Sendo que
mT (t) divide cT (t), qualquer raiz de mT (t) em k é raiz de cT (t).
4
1. POLINÔMIO MINIMO E CARATERISTICO
1.2.3. Teorema. Sejam λ1 , . . . , λm autovalores distintos de uma aplicação linear T ∈ End(V )
e sejam wj ∈ Vλj \ 0V , j = 1, . . . , m, então w1 , . . . , wm são linearmente independentes sobre K.
Em particular a soma dos subespaços Vλ1 , . . . , Vλm é direta.
Q
Demonstração. Seja pj (t) = i6=j (t − λi ). Por definição tem-se:
Q
i6=j (λj − λi )wj se k = j
pj (T )(wk ) =
0V
se k 6= j
Seja
a1 w1 + . . . + am wm = 0V
com ai ∈ k. Temos que para cada j = 1, . . . , m
m
n
X
X
Y
0V = pj (T )(0V ) = pj (T )(
ai wi ) =
ai pj (T )(wi ) = aj
(λj − λi )wj .
i=1
i=1
i6=j
Portanto aj = 0 para cada j = 1, . . . , m.
1.2.4. Definição. (Multiplicidade algébrica e geométrica de um autovalor)
Seja cT (t) o polinômio caraterı́stico de T ∈ End(V ) e seja λ ∈ K um autolavor de T . Se
cT (t) = (t − λ)µ q(t) com q(t) ∈ K[t] e com q(λ) 6= 0, dizemos que µ é a multiplicidade algébrica
de λ.
A multiplicidade geométrica do autovalor λ ∈ K de T é a dimensão do autoespaço Vλ relativo
ao autovalor λ.
1.3. Diagonalização e triangulação de uma aplicação linear
1.3.1. Definição. (Endomorfismo diagonalizavel ou triangularizavel) Uma aplicação
linear T ∈ EndK (V ) é diagonalizável sobre K se existe uma base B = {v1 , . . . , vn } de V tal que
[T ]B
B seja uma matriz diagonal. Equivalentemente, T é diagonalizável sobre K se e somente se
existe uma base do K-espaço V formada por autovetores de T .
Dizemos que T é triangularizavel superiormente (respectivamente, inferiormente) sobre K
se existe uma base B = {v1 , . . . , vn } de V tal que [T ]B
B seja uma matriz triangular superior
(respectivamente, triangular inferior).
Correspondentemente, uma matriz A ∈ Mn×n (K) se diz diagonalizável (triangularizavel
superiormente ou inferiormente) sobre K se existe P ∈ Mn×n (K) inversı́vel tal que P −1 · A · P
seja diagonal (triangular superior, respectivamente, triangular inferior).
Sempre que não se prestar a confusão, omitiremos o complemento “sobre K”.
O Teorema 1.2.3 tem o seguinte corolário, cuja demonstração é imediata.
1.3.2. Corolário. Se T ∈ End(V ) admite n autovalores distintos, onde n = dim(V ), então
T é diagonalizavel.
Em geral, uma aplicação linear não é diagonalizavel como mostram os seguinte exemplos.
1.3.3. Exemplo. Seja
A=
0 1
0 0
e seja TA : K 2 → K 2 definido por
TA (
x
y
)=A·
x
y
.
1.3. DEFINIÇÕES
5
Então cTA (t) = t2 , o único autovalor é 0 e V0 = ker (T ) é um subespaço de dimensão 1.
Portanto não existe uma base de K 2 formada por autovetores de T . O aplicação linear TA é
claramente triagularizavel superiormente. Temos mTA (t) = t2 .
Observemos que T não é diagonalizavel sobre K, qualquer que seja o corpo K. O exemplo
seguinte mostra que, em geral, a diagonalizabilidade depende do corpo K.
Seja Tθ : R2 → R2 a aplicação linear definida por
x
cos(θ) sin(θ)
x
Tθ (
)=
·
,
y
− sin(θ) cos(θ)
y
com θ ∈ [0, 2π). Se θ 6= 0, π, então cTθ (t) não tem raizes reais. A aplicação linear Tθ não é
sequer triangularizavel sobre R para esses valores de θ - mas o é sobre C.
Esses exemplos simples põem em evidência a necessidade de critérios mediante os quais
uma aplicação linear seja diagonaliável ou triangularizavel. O próximo resultado fornece um tal
critério de triangularização .
1.3.4. Teorema. As seguintes condições são equivalentes para T ∈ End(V ):
(1) T triangularizavel superiormente (ou inferiormente);
(2) cT (t) é completamente fatorável sobre K.
Demonstração. Suponhamos triangularizavel superiormente (logo, inferiormente também
B
- porque?). Consideremos uma base B de
QmV tal que A = [T ]B sejaT triangular. É imediato ver
B
T
que tI − [T ]B é triangular, logo c (t) = j=1 (t − ai,i ). Portanto, c é completamente fatorável
sobre K.
Q
µj com λ ∈ K µ + . . . + µ = n.
Reciprocamente, suponhamos que cT (t) = m
j
1
m
j=1 (t − λj )
Seja 0 6= v1 ∈ Vλ1 e completemos este vetor a uma base B de V . Temos:
λ1
A1
[T ]B
=
,
B
0(n−1)×1 A2
com A1 ∈ M1×(n−1) (K) e A2 ∈ M(n−1)×(n−1) (K).
Calculando o polinômio carateristico de T , temos
A2
cT (t) = det(tI − [T ]B
B ) = (t − λ1 ) det(tI(n−1)×(n−1) − A2 ) = (t − λ) · c (t).
Segue que A2 ∈ M(n−1)×(n−1) (K) tem polinômio carateristico completamente sobre K. Procedendo por indução sobre n = dim(V ), existe uma matriz invertı́vel P2 ∈ M(n−1)×(n−1) (K) tal
que P2−1 A2 P2 seja triangular superior. Pondo
1
01×(n−1)
.,
P =
0(n−1)×1
P2
segue facilmente que
P
como querı́amos.
−1
·
[T ]B
B
·P =
λ1
0(n−1)×1
A3
−1
P 2 · A2 · P 2
,
Como vimos anteriormente a obstrução para a diagonalização de T ∈ End(V ) reside na
possibilidade que existam um numero insuficiente de autovetores para formar uma base de V . A
dimensão de um autoespaço é limitada superiormente pela multiplicidade algébrica do autovalor.
6
1. POLINÔMIO MINIMO E CARATERISTICO
1.3.5. Proposição. Seja T ∈ End(V ) e sejam λi ∈ K os autovalores de T de multiplicidade
µi ≥ 1, i = 1, . . . , m. Então
1 ≤ dim(Vλi ) ≤ µi
e
dim(Vλ1 ⊕ . . . ⊕ Vλm ) ≤
m
X
µi .
i=1
Demonstração. Seja {v1 , . . . , vri } uma base de Vλi que completamos a uma base B =
{v1 , . . . , vn } de V . Temos
λi · Iri ×ri A1
[T ]B
=
,
B
0(n−ri )×ri A2
com A1 ∈ Mri ×(n−ri ) (K) e A2 ∈ M(n−ri )×(n−ri ) (K).
Calculando o polinômio carateristico de T , temos
ri
cT (t) = det(tI − [T ]B
B ) = (t − λi ) det(tI(n−ri )×(n−ri ) − A2 ),
que implica µi ≥ ri .
1.3.6. Teorema. Seja T ∈ End(V ) e seja n = dim(V ). As seguintes condições são equivalentes:
(1) T diagonalizavel;
Q
µj com µ + . . . + µ = n = dim(V ), onde os elementos λ
(2) (a) cT (t) = m
1
m
j
j=1 (t − λj )
são distintos;
(b) dim(Vλj ) = µj para cada j = 1, . . . , m;
(3) V = Vλ1 ⊕ . . . ⊕ Vλm .
Q
Portanto se T ∈ End(V ) é diagonalizavel, mT (t) = m
j=1 (t − λj )
Demonstração. Se T é diagonalizavel, pelo Teorema 1.3.4, o polinômio carateristico é
da forma especificada em a). Sendo diagonalizavel e lembrando a Proposição 1.2.3 temos que
Vλ1 ⊕ . . . ⊕ Vλm = V . Deduzimos portanto, via Proposição 1.3.5
n = dim(V ) = dim(Vλ1 ⊕ . . . ⊕ Vλm ) ≤
m
X
µi = n.
i=1
Sendo dim(Vλi ) ≤ µi temos necessariamente a igualdade.
Pm
Se valem as condições a) e b), temos dim(Vλ1 ⊕ . . . ⊕ Vλm ) =
i=1 µi = n e portanto
V = Vλ1 ⊕ . . . ⊕ Vλm . Essa ultima condição implica em que T seja diagonalizavel.
Escolhendo uma base B de V formada
por autovetores de T , temos que a matriz [T ]B
B é
Qm
T
diagonal, de onde se deduz m (t) = j=1 (t − λj ).
Observemos que a fatoração de mT (t) acima é caso particular de uma fatoração mais geral
(Proposição 1.4.3). Além disso, a recı́proca da última afirmação do teorema acima é válida
(Teorema 1.5.1).
1.4. DEFINIÇÕES
7
1.4. Subespaços invariantes de uma aplicação linear
Q
µj com µ + . . . + µ
Quando T é diagonalizavel, cT (t) = m
1
m = n = dim(V ) e
j=1 (t − λj )
Q
m
T
m (t) = j=1 (t − λj ). Isso representa de alguma forma o caso ideal. Uma maneira de ler o
resultado anterior que permite uma generalização é a seguinte: os autoespaços são construidos
como ker (T − λIV ) e no caso diagonalizavel fornecem uma decomposição de V em soma direta
de autoespaços. Essa resultado vai ser generalizado a um T ∈ End(V ) qualquer na proxima
seção. Antes são necessarias algumas definições e observações gerais que generalizam a noção de
autoespaço para expressões polinomiais de T mais gerais que as da forma T − λIV .
1.4.1. Definição. (Subespaço T –invariante) Seja T ∈ End(V ) e seja U ⊆ V um subespaço. O subespaço U se diz T -invariante se T (U ) ⊆ U .
Quando temos um subespaço T –invariante, podemos definir
T|U : U → U
e claramente T ∈ End(U ). Vamos ver como produzir subespaços T -invariantes via polinômios.
1.4.2. Exemplo. Seja T ∈ End(V ), seja q(t) ∈ K[t] e seja q(T ) : V → V a aplicação linear
associada. Se U := ker (q(T )), então U e’ subespaço T -invariante.
Temos T ◦ q(T ) = q(T ) ◦ T e portanto, se u ∈ U ,
0V = T (0V ) = T (q(T )(u)) = q(T )(T (u)),
i. e. T (u) ∈ U .
Em particular se λ ∈ K, temos que a noção de autoespaço é obtida considerando os polinômios qλ (t) = t − λ.
Poder decompor V em subespaços T -invariantes, permite semplificar o problema do ponto
de vista computacional, como mostraremos na proxima proposição. A existencia de uma decomposição de V em subespaços T –invariantes vai ser tratada na seção 1.5.
1.4.3. Proposição. Seja T ∈ End(V ) e seja V = U1 ⊕ . . . ⊕ Ur com Ui subespaços T –
invariantes. Se Ti = T|Ui : Ui → Ui , temos :
T
c (t) =
r
Y
cTi (t)
i=1
e
mT (t) = m. c. m.{mT1 (t), . . . , mTr (t)}.
Demonstração. Sejam Bi bases de Ui e seja B = {v1 , . . . , vn } = B1 ∪ . . . ∪ Br . Sendo os
Ui subespaços T –invariantes, temos


A1


A2


[T ]B
,

..
B


.
Ar
i
onde Ai = [Ti ]B
Bi e o restante da matriz é composto por zeros. Calculando segue imediatamente
Q
r
que cT (t) = i=1 cTi (t). Por definição temos que mT (T ) = 0End(V ) . Portanto mT (Ti ) = 0End(Ui )
para cada i, i. e. mTi (t) divide mT (t) e portanto m. c. m.{mT1 (t), . . . , mTr (t)} divide mT (t).
8
1. POLINÔMIO MINIMO E CARATERISTICO
Reciprocamente, seja p(t) ∈ K[t] divisı́vel por cada um dos polinômios mT1 (t), . . . , mTr (t). Afirmamos que p(T ) = 0End(V ) , do que segue, em particular, que m. c. m.{mT1 (t), . . . , mTr (t)}(T ) =
0End(V ) e, portanto, que mT (t) divide m. c. m.{mT1 (t), . . . , mTr (t)}. Ora, seja v ∈ V , com
v = u1 + · · · + ur , ui ∈ Ui ; escrevendo p(t) = qi (t)mTi (t), i = 1, . . . , r, tem-se:
p(T )(v) = p(T )(u1 + · · · + ur ) = p(T )(u1 ) + · · · + p(T )(ur )
= (q1 mT1 )(T )(u1 ) + · · · + (qr mTr )(T )(ur )
= (q1 mT1 (T ))(u1 ) + · · · + (qr mTr (T ))(ur )
= q1 (mT1 (T (u1 )) + · · · + qr (mTr (T (ur ))
= q1 (mT1 (T1 ))(u1 ) + · · · + qr (mTr (Tr ))(ur )
= q1 (0End(U1 ) )(u1 ) + · · · + qr (0End(Ur ) )(ur )
logo p(T ) = 0End(V ) , como querı́amos.
1.5. Decomposição T -primária de um espaço vetorial
Vamos provar um resultado importante que mostra como a partir da fatorização do polinômio
carateristico (ou minimo) de uma aplicação linear T : V → V em fatores ”primarios”seja
possivel construir uma decomposição de V em subespacos T −invariantes tais que a restrição
de T a esses subespaços tenha como polinômio carateristico (respectivamente minimo) o fator
”primário”correspondente.
1.5.1. Teorema. (Teorema de decomposição primaria) Seja T ∈ End(V ) e seja
mT (t) = q1 (t)e1 · · · qr (t)er
o polinômio minimo de T , onde cada qi (t) é um polinômio mônico irredutivel, 1 ≤ ei para cada
i = 1, . . . , r e os qi (t) ∈ K[t] são distintos. Então
(1) V é soma direta de subespaços T -invariantes; precisamente,
V = ker (q1 (T )e1 ) ⊕ · · · ⊕ ker (qr (T )er );
(2)
cT (t) = q1 (t)l1 · · · qr (t)lr ,
com 1 ≤ ei ≤ li para cada i = 1, . . . , r;
(3) ker (qi (T )ei ) = ker (qi (T )li ) para cada i = 1, . . . , r;
(4) dim(ker (qi (T )ei )) = li · grau(qi );
(5) O polinômio minimo (respectivamente, carateristico) da restrição de T a ker (qi (T )ei )
é qi (t)ei (respectivamente, qi (t)li ).
Demonstração. (1) Já observamos que os subespaços ker (qi (T )ei ) são T -invariantes. Provemos, primeiramente, que V = ker (q1 (T )e1 ) + . . . + ker (qr (T )er ). Para tal, provaremos que:
Q
• Im(hi (T )) ⊆ ker (qi (T )ei ) para i = 1, . . . , r, onde hi (t) = j6=i qj (t)ej ;
• V = Im(h1 (T )) + . . . + Im(hr (T )).
A primeira afirmativa é bastante evidente, uma vez que qi (t)ei hi (t) = mT (t), logo qi (T )ei se
anula nos elementos da imagem de hi (T ).
Para provar a segunda afirmativa, observemos que o máximo divisor comum dos polinômios
é 1, logo existe uma relação h1 (t)g1 (t) + . . . + hr (t)gr (t) = 1, onde g1 (t), . . . , gr (t) ∈ K[t] são
polinômios convenientes. Substituindo t 7→ T e aplicando em um v ∈ V arbitrário, obtemos
v = IV (v) = h1 (T )(g1 (T )(v)) + · · · + hr (T )(gr (T )(v)),
1.5. DECOMPOSIÇÃO PRIMARIA
9
isto é, V ⊂ Im(h1 (T )) + · · · + Im(hr (T )), como se queria.
O polinômio mT (t) não divide hi (t) e portanto hi (T ) 6= 0End(V ) , i.e. existe v ∈ V \ 0V tal
que hi (T )(v) 6= 0.
Mostremos agora que a soma Im(h1 (T )) + . . . + Im(hr (T )) é direta, isto é, que, para todo
i = 1, . . . , r, tem-se
X
ker (qi (T )ei ) ∩ (
ker (qj (T )ej )).
j6=i
P
Seja então v ∈ ker (qi (T )ei ) ∩ ( j6=i ker (qj (T )ej )). Para cada i, os polinômios qi (t)ei e hi (t) são
relativamente primos, logo existem ai (t), bi (t) ∈ K[t] tais que ai (t)qi (t)ei + bi (t)hi (t) = 1. Como
antes, obtemos
v = IV (v) = a(T )(qi (T )ei (v)) + b(T )(hi (T )(v)) = 0V + 0V = 0V .
(2) Aplicando o mesmo argumentos da parte (1) aos fatores de cT (t) (em vez de mT (t)),
obtém-se analogamente V = ker (q1 (T )l1 ) ⊕ · · · ⊕ ker (qk (T )lk ). Como as inclusões ker (qi (T )ei ) ⊆
ker (qi (T )li ) são imediatas, uma vez que ei ≤ li , comparando as dimensões obtemos ker (qi (T )ei ) =
ker (qi (T )li ) para todo i = 1, . . . , r.
(3) e (4) Seja agora Ti a restrição de T a Ui = ker (qi (T )ei ). Como a restrição comuta com
somas e produtos, tem-se qi (Ti )ei = 0End(Ui ) e, portanto, qi (t) é o único fator irredutivel de
mTi (t), i.e. mTi (t) = qi (t)αi com 1 ≤ αi ; isso implica em cTi (X) = qi (X)βi , βi ≥ αi ≥ 1. A
dimensão de ker (qi (T )ei ) é portanto βi · grau(qi (t). Vamos mostrar que βi = li e que αi = ei .
Isso segue das relações
r
r
r
Y
Y
Y
qi (t)βi ,
cTi (t) =
qi (t)li = cT (t) =
i=1
r
Y
i=1
qi (t)ei = mT (t) =
i=1
r
Y
i=1
i=1
r
Y
mTi (t) =
qi (t)αi ,
i=1
onde as igualdades do meio foram provadas na Proposição 1.4.3.
Como consequência obtemos uma primeira formulação da venerável decomposição de Jordan.
1.5.2. Corolário. Seja T ∈ End(V ). Suponhamos que cT (t) se fatora completamente sobre
K, digamos, cT (t) = (t − λ1 )l1 · · · (t − λr )lr e mT (t) = (t − λ1 )e1 · · · (t − λr )er . Então existe uma
decomposição direta T -invariante V = V1 ⊕ · · · ⊕ Vr tal que:
(i) Vi = ker ((T − λi )ei );
(ii) dim Vi = li , para 1 ≤ i ≤ r;
(iii) A restrição T |Vi tem polinômio mı́nimo (t−λI )ei e é da forma λi I+Si , onde Si : Vi → Vi
é nilpotente de ı́ndice ei .
Demonstração. O único item que requer algum comentário é (iii). Novamente, usamos
que a restrição comuta com somas e produtos, logo, pondo Ti = T |Vi e denotando por Ii a matriz
identidade de ordem li , tem-se que (Ti − λi Ii )ei = 0. Logo Si := Ti − λi Ii é nilpotente de ı́ndice
no máximo ei Por outro lado, mTi (t) = (t − λi )ei pelo item (4) do teorema anterior. Logo, o
ı́ndice de nilpotência é exatamente ei
1.5.3. Corolário. Seja T ∈ End(V ). Então T é diagonalizavel sobre K se e só se mT (X)
é completamente fatorável sobre K e sem fatores múltiplos.
Demonstração. Resulta imediatamente do Corolário 1.5.2 e da equivalência (1) ⇔ (3) do
Teorema 1.3.6.
10
1. POLINÔMIO MINIMO E CARATERISTICO
Exercicios de revisão e referentes ao capı́tulo
(1) Seja Ei,j ∈ Mm×m (K) a matriz cujos elementos el,m satisfazem a seguinte condição
(a) el,m = 1 se (l, m) = (i, j);
(b) el,m = 0 se (l, m) 6= (i, j).
a = I + aE . Para i 6= j seja E
ei,j = I + Ei,j +
Para a ∈ K e para i 6= j seja Ei,j
i,j
∗
c
Ej,i − Ei,i − Ej,j e seja, para c ∈ K , Ei = I + (c − 1)Ei,i .
Essas matrizes se dizem matrizes elementares. Provar que são invertiveis e descrever
a inversa de cada tipo.
(2) Dada A ∈ Mm×n (K) com


A1


A  ...  ,
Am
i.e. Ai ∈ K n , i = 1, . . . , m são os vetores linha da matriz A. Mostrar que
a · A tem como i-esima linha A + aA e as outras linha iguais;
(a) Ei,j
i
j
ei,j · A tem como i-esima linha Aj , como j-esima linha Ai e as outras linhas iguais
(b) E
as linhas de A;
(c) Eic · A tem na i-esima linha cAi e as outras linhas iguais as linhas de A.
Duas matrizes A, B ∈ Mm×n (K) se dizem linha equivalentes se existem um numero
finito de matrizes elementares E1 , . . . , Er ∈ Mm×m (K) tais que E1 · E2 · . . . · Er · A = B.
Moltiplicar uma matriz A ∈ Mm×n (K) a direita por matrizes elmentares em
Mn×n (K) e descrever o resultado sobre as colunas de A. Definir a noção de matrizes coluna equivalentes.




x1
b1




(3) Dadas A ∈ Mm×n (K), X =  ...  ∈ Mn×1 (K), B =  ...  ∈ Mm×1 (K), consixn
bm
deramos o sistema de equações lineares com coeficientes em K nas incognitas x1 , . . . , xn
dado por
A · X = B.
Seja
e=
A
A | B
∈ Mm×(n+1) (K)
a matriz associada ao sistema.
Mostrar que qualquer sistema obtido moltiplicando por matrizes elementares a esquerda a matriz do sistema, i.e. operando sobre as linhas do sistema com as operações
descritas anteriormente, tem as mesmas soluções do sistema original (usar o fato que
as matrizes elementares são inversiveis).
(4) Seja A ∈ Mm×n (K). Dizemos que A é linha reduzida a forma escada se:
(a) o primeiro elemento não nulo de cada linha é igual a 1;
(b) o primeiro elemento não nulo da (i+1)-esima linha se encontra a direita do primeiro
elemento não nulo da i-esima linha;
(c) os elementos de uma coluna que contem o primeiro elemento não nulo de uma
linha, diferente desse elemento, são nulos.
Mostrar que dada A ∈ Mm×n (K), existem um numero finito de matrizes elementares E1 , . . . , Er tais que E1 · E2 · . . . · Er · A seja linha reduzida a forma escada.
EXERCICIOS
11
Deduzir que, se n > m, então o sistema um sistema homogeneo da forma A · X =
0Mm×1 (K) admite uma solução com pelo menos um elemento xi não nulo.
(5) Seja A ∈ Mn×n (K). Mostrar que as seguintes condições são equivalentes:
(a) A é linha equivalente a I;
(b) A é produto de matrizes elementares;
(c) A é invertivel;
(d) o sistema de equações lineares homogeneas A · X = 0Mm×1 (K) admite somente a
solução com todos os xi nulos.
Deduzir que dada uma matriz invertivel, a matriz inversa A−1 é obtida aplicando
a I as operações elementares que levam a matriz A em I.
(6) Seja A ∈ Mn×n (K). Dados i, j, definimos Ai,j ∈ Mn−1×n−1 (K) como a matriz obtida
de A eliminando a i-esima linha e a j-esima coluna de A.
Definimos det(A) indutivamente segundo a seguinte formula:
det(A) = a1,1 det(A1,1 ) − a2,1 det(A2,1 ) + . . . + (−1)n+1 an,1 det(An,1 ) ∈ K.
Mostrar as seguintes propriedades de det(A):
(a) det(I) = 1;
(b) a função det(A) é linear com respeito as linhas de A,
temos





A1
A1
..


 .. 

.


 . 






det( αAi + βA0i ) = α det( Ai ) + β det(





..


 ... 

.
Am
Am
(c) Se A tem duas linhas iguais, então det(A) = 0;
(d) se i 6= j, então



A1
A1
..


 ..
.


 .



det( Ai + βAj ) = det( Ai


 .
..


 ..
.
Am
Am
i.e. para cada α, β ∈ K

A1
.. 
. 

A0i );
.. 
. 
Am




)


para cada β ∈ K;
(e) A matriz obtinda trocando duas linhas de A tem determinante igual a − det(A);
(f) Se uma linha de A é nula, então det(A) = 0.
a ) = 1 para cada a ∈ K, det(E
c
g
(g) Deduzir que det(Ei,j
i,j ) = −1 e det(Ei ) = c para
∗
cada c ∈ K .
(h) Utilizando as propriedades acima deduzir que se E é uma matriz elementar dos
3 tipos acima e se A ∈ Mn×n (K) é arbitraria, então temos det(E · A) = det(E) ·
det(A). Por indução mostrar que o mesmo resultado vale se E for produto de
matrizes elementares.
(i) provar que A ∈ Mn×n (K) é invertivel se e somente se det(A) 6= 0.
(j) (Definição axiomatica do determinante) Seja
d : Mn×n (K) → K
12
1. POLINÔMIO MINIMO E CARATERISTICO
(k)
(l)
(m)
(n)
uma função que satisfaz as propriedades a), b) e c) acima. Provar que d(A) =
det(A) para cada A ∈ Mn×n (K).
Concluir que podemos calcular o determinante desenvolvendo segundo qualquer
linha (ou coluna) porque a função assim definida satisfaz as propriedades a), b) e
c) acima.
Sejam A, B ∈ Mn×n (K). Provar que det(A · B) = det(A) · det(B). Deduzir que se
A é invertivel, então det(A−1 ) = det(A)−1 .
Provar que det(A) = det(At ), onde At é a matriz trasposta de A.
Seja A ∈ Mn×n (K), seja αi,j = (−1)i+j det(Ai,j ) e seja
ad(A) = [αi,j ]t ∈ Mn×n (K)
a matriz adjunta de A. Provar que
A · ad(A) = ad(A) · A = det(A)I
ad(A) .
e deduzir que se det(A) 6= 0, então A−1 = det(A)
(7) Seja A ∈ Mm×n (K). Definimos o posto linha de A, indicado com rank (A), como a
dimensão do subespaço de Kn gerado pelas linhas de A. Definimos o posto coluna de
] (A), como a dimensão do subespaço de Km gerado pelas colunas
A, indicado com rank
de A. Mostre que
] (A). Portanto chamaremos
(a) para qualquer A ∈ Mm×n (K) temos rank (A) = rank
esse numero simplesmente de posto de A e o indicaremos com rank (A). Concluir
que rank (A) ≤ min{m, n}.
(b) rank (A) é igual ao numero de linhas não nulas na forma linha reduzida de A,
] (A) é igual ao numeros de colunas não nulas na forma coluna
respectivamente rank
reduzida de A.
(c) rank (A) é o maximo tamanho de uma submatriz quadrada de A com determinante
não nulo.
(d) A ∈ Mn×n (K) é invertivel se e somente se rank (A) = n se e somente se det(A) 6= 0
se e somente se as colunas (e as linhas) de A formam una base de Kn .
(8) Sejam A, B, P, Q ∈ Mn×n (K). Mostrar que se B é invertivel e se B = P · A · Q, então
P, A e Q são inversiveis.
(9) A ∈ Mn×n (K) se diz nilpotente se existir r > 0 tal que Ar = 0. Mostrar que se
A ∈ Mn×n (K) é nilpotente, então I + A é invertivel.




1 0
1
0 1 0
(10) Sejam A =  0 −1 −1  e B =  0 0 0 .
1 1
0
1 0 0
(a) Encontre A−1 .
(b) Encontre X tal que AX = B.
P
(11) Seja A ∈ Mn×n (K). Definimos tr(A) = ni=1 ai,i ∈ K o traço de A. Mostrar que:
(a) tr(A + B) = tr(A) + tr(B) e tr(A · B) = tr(B · A) para cada A, B ∈ Mn×n (K).
(b) Se B é invertivel, então tr(B −1 · A · B) = tr(A).
(12) Sejam Ui , . . . Ur subespaços vetorias do espaco vetorial V sobre K. A soma dos epaços
Ui , indicada com U1 + . . . + Ur é o subespaço de V formado pelos vetores da forma
v = u1 + . . . + ur , ui ∈ Ui . Mostar que
EXERCICIOS
13
(a) a soma dos Ui é direta se e somente se cada vetor de U1 . . . + Ur admite uma unica
escritura como a anterior.
P
(b) dim(U1 +. . .+Ur ) ≤ ri=1 dim(Ui ) e que vale igual se e somente se a soma é direta.
(c) Se Bi ’ e base de Ui , mostrar que ∪ri=1 Bi é um sistema de geradores de U1 +. . .+Ur ,
que é uma base se e somente se a soma é direta. Concluir que dado um subesaço
U de V existe W ⊆ V subespaço tal que V = U ⊕ W (subespaço complementar de
U ).
(d) Mostrar que Mn×n (K) é soma direta dos subespaços das matrizes simetricas (A =
At ) e das matrizes antisimetricas (A = −At ). Mostre que as matrizes de traço nulos
formam um subespaço de Mn×n (K). Encontrar um subespaço complementar em
Mn×n (K).
(13) Seja A ∈ Mn×n (K) e seja mA (t) = tr + ar−1 tr−1 + . . . + a0 o polinômio minimo de A.
Mostrar que A é invertivel se e somente se a0 6= 0.
(14) Seja T ∈ End(V ). Mostrar que T é triangularizavel superiormente se e somente se é
triangularizavel inferiormente.
(15) Considere o espaço vetorial V = M2×2 (K), a matriz
1 2
A=
−1 3
= {B ∈ V : AB = BA} (conjunto das matrizes que comutam com A).
Mostre que W é subespaço de V .
Determine uma base para W .
Complete a base encontrada no item (a) para uma base de V .
Calcule as matrizes de mudança de base entre a base do item (c) e a base canônica
de V , a saber,
1 0
0 1
0 0
0 0
C=
,
,
,
.
0 0
0 0
1 0
0 1
1 1
(e) Encontre as coordenadas de C =
em relação a base encontrada no item
1 1
(b).
eW
(a)
(b)
(c)
(d)
(16) Seja T : K4 −→ K3 definida por:
T (x1 , x2 , x3 , x4 ) = (x2 − 3x3 + x4 , 2x1 − 3x2 + x4 , 2x1 + x2 − x3 ).
(a) Encontre a matriz de T em relação as bases canônicas de K4 e K3 .
(b) Determine ker (T ) e Im(T ).
(c) T injetiva? sobrejetiva? Justifique.
(17) Seja B = {v1 = (1, −1, 0), v2 = (1, 1, 0), v3 = (0, 0, −1)} ∈ K3 .
(a) Determine as coordenadas de
v = (x, y, z) em relação a base B.
(b) Se T : K3 −→ K3 é uma transformação linear tal que T (v1 ) = v3 , T (v2 ) = v2 e
T (v3 ) = −v1 , determine T (x, y, z).
(c) Determine (se existirem) os autovalores de T e os autovetores associados.
14
1. POLINÔMIO MINIMO E CARATERISTICO
(18) Sejam T1 : K3 −→ K3 e

1 0
h iC

T1 = 1 1
C
0 0
T2 : K3 −→ K3 transformações lineares, tais que:



0
4 −2
2
h iC
0 
2 −1  ,
e
T2 =  −1
C
2
−5
4 −3
onde C ⊂ K3 é a base canônica.
(a) Determine se T1 é diagonalizavel. Idem para T2 .
(b) Se possvel, determine uma base de K3 de autovetores de T1 e represente T1 nesta
base. Idem para T2 .
(19) Dado n ≥ 1, seja T : Pn → Pn a transformação derivada T = d/dt, onde Pn designa o
espaço vetorial de polinômios de grau no máximo n com coeficientes reais.
(a) Determinar os auto-valores de T e os auto-subespaços correspondentes
(b) Determinar os polinômios cT (t) e mT (t).
(20) Seja T : Mn×n (K) → Mn×n (K) definido por T (A) = At . Provar que se a caracteristica
do corpo K é diferente de dois, então T é diagonalizavel. Encontrar os autoespaços de
T , fornecendo a decomposição de Mn×n (K) como soma direta de autoespaços de T .
(21) Seja T : V → W uma aplicação linear de K-espaços vetoriais. Seja w ∈ Im(T ) e seja
v tal que T (v) = w. Mostrar que os elementos de T −1 (w) são da forma v + u com
u ∈ ker (T ).
(22) Seja U ⊆ V um subespaço vetorial do K-espaço vetorial V . Provar que v1 ∼ v2 se e
somente se v1 − v2 ∈ U é uma realção de equivalência sobre o conjunto V . Indicamos
V / ∼ com V /U e os elementos de uma classe de equivalência de um elemento v com
[v]. Mostrar que as operações
+ : V /U × V /U → V /U
e
· : K × V /U → V /U
dadas por [v1 ] + [v2 ] = [v1 + v2 ] e α · [v] = [α · v] não dependem da escolha do
representantes na classe de equivalência e estão portanto bem definidas. Provar que
(V /U, +, ·) é um espaco vetorial sobre K, o espaço quociente de V por U . Mostrar que:
(a) se dim(V ) = n ≥ 1, se {v1 , . . . vr } é uma base de U que se extende a uma base
{v1 , . . . vn } de V , então {[vr+1 ], . . . , [vn ]} é uma base de V /U , i.e. dim(V /U ) =
dim(V ) − dim(U );
(b) πU : V → V /U definido por πU (v) = [v] é um homomorfismo sobrejetor de Kespaços vetoriais tal que ker (πU ) = U ;
(c) dato T : V → W homorfismo de K-espaços vetoriais, a aplicação Te : V /ker (T ) →
W dada por Te([v]) = T (v) esta bem definida e é homomorfismo de K-espaços vetoriais. Verificar que T = Te ◦πker (T ) , i.e. o seguinte diagrama comuta (significando
que percorrendo os dois caminhos indicados pelas setas chegamos ao mesmo ponto
de W ):
V >
{
{{
{{
{
}{{
πker (T )
V
ker (T )
Te
>>
>>T
>>
>
/W
EXERCICIOS
15
(d) Im(Te) = Im(T ) e Te : V /ker (T ) → Im(T ) é isomorfismo de espaços vetoriais.
Deduzir uma nova prova do Teorema do Núcleo e da Imagem via formula da
dimensão do quociente provada anteriormente.
(23) (a) Seja T ∈ End(V ), onde V é um K-espaço vetorial de dimensão finita. Mostrar que
T é injetor se e somente se T é sobrejetor se e somente se T ∈ Aut(V ).
(b) Seja V = R[x], o R-espaço vetorial dos polinômios com coeficientes no corpo R.
0
Definimos
os aplicação linears T1 (p(x)) = p (x) (derivada primeira) e T2 (p(x)) =
Rx
0 p(t)dt. O aplicação linear Ti , i = 1, 2, é injetor? É sobrejetor? Descrever
ker (Ti ) e Im(Ti ) e relacionar os resultados com o item anterior.
(24) Seja
A·X =B


x1


um sistema de m equações lineares nas variaveis X =  ...  ∈ Mn×1 (K). Seja
xn
e = A | B ∈ Mm×n+1 (K)
A
a matriz associada ao sistema. Provar que:
e ≤ rank (A) + 1;
(a) rank (A) ≤ rank (A)


b1


(b) o sistema admite uma solução se e somente se B =  ...  ∈ Im(TA ) se e somente
bm
e
se rank (A) = rank (A);
(c) se existe uma solução, então as soluções do sistema podem ser parametrizadas por
um subespaço linear de Kn de dimensão n − rank (A) ≥ 0.
(25) Seja A ∈ Mn×n (K). Se p(x) = a0 + a1 x + . . . + ar xr ∈ K[x], definimos
p(A) = a0 I + a1 A + . . . + ar Ar ∈ Mn×n (K).
Mostrar que existe um polinômio p(x) ∈ K[x] de grau menor ou igual a n2 tal que
p(A) = 0Mn×n (K) .
CAPı́TULO 2
A teoria dos fatores invariantes e dos divisores elementares
2.1. Matrizes com elementos polinomiais
Nesta seção estudaremos de perto matrizes cujos elementos são polinômios em uma indeterminada. Por conveniência e hábito, mudaremos a notação empregada anteriormente: o corpo de
base será designado por k (minúsculo) e a indeterminada, por X (maiúsculo). A teoria a seguir
é, de fato, uma sub-teoria da teoria das matrizes com elementos no corpo de frações racionais
K = k(X), de modo que, em última instânica, estamos novamente no contexto da parte anterior
e tudo que foi visto lá se aplica em principio ao corpo k(X). Contudo, para bem explorar as
propriedades de tipo aritmético, é importante trabalhar com polinômios e não com frações .
A teoria requer algum investimento preliminar mas as aplicações às matrizes com elementos
no corpo das constantes k compensarão o esforço.
O conjunto das matrizes retangulares m×n com elementos em k[X] será denotado Mm×n (k[X]).
Esse conjunto é naturalmente um k[X]-módulo. Se m = n, podemos multiplicar tais matrizes e
intruduzir em Mn×n (k[X]) uma estrutura de anel não comutativo com unidade, dito o anél das
matrizes sobre k[X]. Eis alguns exemplos de matrizes com elementos em C[X].




X −1
0
0
−1
X3 √
−4
2X − 1


3
X
−
2
−2
0
,
A=
B =  X 2 + 3iX
X6 

0
4
X +7 0 
7
3X
X
1
0
5
2X
Note que A se parece muito a uma matriz da forma XI − A, com A ∈ M4×4 (k). A matriz abaixo
não é polinomial para qualquer corpo de contantes k pois X1 6∈ k[X].


0 0 0
C= 0 0 0 
0 0 X1
Passaremos a denotar matrizes polinomiais por A(X), B(X), etc. A notação indica que
estamos considerando tais matrizes e não apenas matrizes com elementos em k. O mote deste
parágrafo é a dupla identidade de um objeto de Mm×n (k[X]) como uma matriz com elementos
polinomiais ou como um polinômio a coeficientes matriciais. Um exemplo permite esclarecer
este ponto:
X −1
2
X2 + 1
0 0 0
0 0 1
3
=
X +
X2
1 1 0
0 2 0
X 3 − X X 3 + 2X 2
1
1 0 0
−1 2 1
+
X+
−1 0 0
0 0 1
Esta identificação é válida para matrizes retangulares em geral. Além disso, no caso de
matrizes quadradas, esta identificação pode ser traduzida em termos de um isomorfismo natural:
17
18
2. Mn×n (k[X]) E FATORES INVARIANTES
2.1.1. Proposição. Existe um isomorfismo natural de anéis
Mn×n (k[X]) ' (Mn×n (k))[X],
cuja restrição ao subanél Mn×n (k) é a identidade.
Demonstração. Dada A(X) ∈ Mn×n (k[X]), digamos


f11 (X) . . . f1n (X)


..
..
A(X) = 
,
.
.
fn1 (X) . . . fnn (X)
P (l)
onde fij (X) = l αij X l ∈ k[X], à mesma associamos o polinômio
X
PA (X) :=
Al X l
l
com coeficientes matriciais, onde

(l)
α11
 ..
Al =  .
(l)
(l) 
. . . α1n
..  .
. 
(l)
αn1 . . . αnn
Esta associação fornece uma aplicação µ : Mm×n (k[X]) → (Mm×n (k))[X], cuja restrição ao
subanél Mm×n (k) é claramente a identidade. Esta aplicação por outro lado, obviamente admite
uma inversa. Por comodidade, denotaremos abreviadamente
!
X (l) X (l)
l
, PA (X) =
αij
X l.
αij X
A(X) =
l
i,j
l
i,j
Com esta notação , fica fácil verificar que µ é um homomorfismo, isto é, preserva soma e
produto de matrizes. Com efeito, dadas
!
!
X (l)
X (l)
l
l
,
βij X
, B(X) =
αij X
A(X) =
l
l
i,j
i,j
com, respectivamente,
µ(A(X)) = PA (X) =
X
(l)
αij
i,j
l
Xl
e
µ(B(X)) = PB (X) =
X
(l)
βij
i,j
l
X l,
temos

µ (A(X) + B(X)) = µ 
! 
X
(l)
(l)
(αij + βij )X l
l
=
X
l
(l)
αij
=
X
l
i,j
i,j
Xl +
X
l
= µ(A(X)) + µ(B(X)).
(l)
βij
i,j
Xl
(l)
(l)
αij + βij
i,j
Xl
2.1. MATRIZES COM ELEMENTOS POLINOMIAIS
19
Para o produto, as fórmulas ficam mais complicadas, mas a verificação segue o mesmo
principio. Observemos que
!
!
X (l)
X (l)
l
l
A(X) · B(X) =
αij X
·
βij X
l
=
i,j
!
X (l)
X (l)
X (l)
X (l)
(
αi1 X l )(
β1j X l ) + · · · + (
αin X l )(
βnj X l )
l
=
l
i,j
n
X
l
l
l
i,j
!!
(
t=1
X
X (l)
(l)
αit X l )(
βtj X l )
l
l
i,j



n
X
X X (k) (l−k)
 (
= 
αit βtj )X (l) 
t=1
l
0≤k≤l
i,j



n
X X X
(k) (l−k)

= 
(
αit βtj )X (l) 
l
0≤k≤l t=1
i,j
Segue que


 
n
X X X
(k) (l−k)

µ (A(X) · B(X)) = µ 
(
αit βtj )X (l)  
0≤k≤l t=1
l

=
X

n
X X
(k) (l−k)
(
αit βtj ) X (l)
0≤k≤l t=1
l
= (
i,j

X
l
(l)
αij
i,j
X (l) X l )(
βij
l
i,j
X l)
= µ (A(X)) µ (B(X)) .
2.1.2. Observação. A identificação entre matrizes polinomiais e polinômios matriciais,
mesmo no caso retangular m × n, é a expressão dos seguintes fatos algébricos mais avançados:
P
(1) O anél k[X] é N-graduado, isto é, tem-se k[X] = d≥0 k[X]d – soma direta de k-espaços
vatoriais k[X]d de dimensão 1, onde k[X]d := k X d = {αX d | α ∈ k} ' k.
(2) Um k[X]-módulo livre de posto r é, analogamente a um k-espaço vetorial de dimensão
r, uma soma direta k[X]r :=P
k[X] ⊕ · · · ⊕ k[X] (r somandos). Um tal módulo é também
r
N-graduado, isto é, k[X] = d≥0 k[X]rd , onde k[X]rd = k[X]d ⊕· · ·⊕k[X]d (soma direta
de r k-espaços vatoriais k[X]d de dimensão 1).
(3) Dada uma fatoração r = mn, temos k[X]r = k[X]mn = (k[X]m )n , que pode ser visto
na forma sugestiva
k[X] ⊕ · · · ⊕k[X]
k[X] ⊕ · · · ⊕k[X]
..
.
k[X] ⊕ · · ·
⊕k[X]
20
2. Mn×n (k[X]) E FATORES INVARIANTES
(m somas diretas de n somandos cada). Reminiscente de uma matriz? De fato, isto
fornece um isomorfismo de k[X]-módulos k[X]mn ' Mm×n (k[X]) em analogia com o
caso de k-espaços vatoriais.
(4) Usando a graduação introduzida acima, temos ainda
X
X
X
(k[X]d )mn =
(k X d )mn =
(k[X]mn )d =
k[X]mn =
d≥0
d≥0
=
X
d≥0
(k mn )X d ' (Mm×n (k))[X]
d≥0
como k[X]-módulos, onde na última passagem, identificamos k mn com Mm×n (k) como
de hábito.
(5) Finalmente, no caso em que m = n (isto é, r = n2 é um quadrado perfeito), resulta a
bonificação de que isomorfimso acima preserva o produto de Mn×n (k[X]) (neste caso,
este é de fato um anél, não só um k[X]-módulo!)
Como primeira aplicação da identificação entre matrizes com elementos polinomiais e polinômios
com coefficientes matrizes vamos fornecer uma outra demonstração do Teorema de CayleyHamilton, vide-se Teorema 1.1.2.
2.1.3. Teorema. (Cayley-Hamilton) Seja A ∈ Mn×n (k). Então
cA (A) = 0Mn×n (K) .
Demonstração. Seja cA (X) = X n + pn−1 X n−1 + · · · + p1 X + p0 , pi ∈ k. Dada XI − A,
podemos construir a matriz adjunta ad(XI − A) cujas entradas são polinômios de grau no
máximo n − 1. Portanto temos
ad(XI − A) = B0 + B1 X + · · · + Bn−1 X n−1 ,
com Bi ∈ Mn×n (k). Lembramos que
ad(XI − A) · (XI − A) = (XI − A) · ad(XI − A) = cA (X) · I =
= p0 · I + · · · + (pn−1 · I)X n−1 + IX n .
Da escritura de ad(XI − A) como polinômio matricial obtemos
ad(XI − A) · (XI − A) = (B0 + B1 X + · · · + Bn−1 X n−1 ) · (XI − A) =
= (−B0 · A) + (B0 − B1 · A)X + · · · + (Bn−2 − Bn−1 · A)X n−1 + Bn−1 X n .
Dois polinômios matriciais são iguais se e só se os coefficientes deles são iguais como matrizes
em Mn×n (k). Segue que:
−B0 · A = p0 · I,
B0 − B1 · A = p1 · I,
..
.
Bn−2 − Bn−1 · A = pn−1 · I,
Bn−1 = I.
Multiplicando as ultimas n − 1 equações por potencias crescentes de A obtemos:
−B0 · A = p0 · I,
B0 · A − B1 · A2 = p1 · A,
..
.
Bn−2 · An−1 − Bn−1 · An = pn−1 · An−1 ,
Bn−1 · An = An .
2.1. MATRIZES COM ELEMENTOS POLINOMIAIS
Somando as colunas verticais das equações obtemos 0Mn×n (K) = cA (A).
21
2.1.1. Divisão euclidiana de matrizes polinomiais. Uma vez de posse da identificação
canônica Mn×n (k[X]) ' (Mn×n (k))[X], podemos perguntar se peculiaridades dos polinômios
usuais passam aos polinômios matriciais (logo, também às matrizes polinomiais). Por exemplo,
temos:
2.1.4. Definição. (grau de um polinômio matricial e matriz polinomial propria)
Dada A(X) ∈ Mn×n (k[X]) não nula, o grau gr(A(X)) desta matriz é o grau do polinômio
matricial associado (este sendo o maior exponente r de X cujo coeficiente Ar é uma matriz não
nula).
Uma matriz A(X) ∈ Mn×n (k[X]) é dita própria se o coeficente dominante Ar do polinômio
matricial associado é uma matriz invertivel sobre k (isto é, se det Ar 6= 0)
Propriedades do grau usual sob adição e multiplicação de matrizes mantêm-se apenas
parcialmente:
2.1.5. Lema. Sejam A(X), B(X) ∈ Mn×n (k[X]) não nulas cuja soma e produto também
sejam não nulas. Então:
(i) gr(A(X) + B(X)) ≤ max{gr(A(X)), gr(B(X))}
(ii) gr(A(X)B(X)) ≤ gr(A(X))+gr(B(X)); a igualdade dá-se se os coeficientes dominantes
A e B dos polinômios matriciais associados satisfazem AB 6= 0.
Resulta que a divisão euclidiana é um deles, desde que sob certas hipóteses. Como o coeficiente dominante de um polinômio usual f (X) ∈ k[X] é invertivel, precisamos uma hipótese que
garanta isto no caso de uma matriz polinomial. Precisamente, temos
2.1.6. Proposição. (Divisão euclidiana) Sejam A(X), B(X) ∈ Mn×n (k[X]), com B(X)
própria. Então existem Q(X), R(X) ∈ Mn×n (k[X]), unicamente determinados por A(X) e
B(X), satisfazendo as condições :
(1) A(X) = Q(X)B(X) + R(X)
(2) R(X) = 0 ou gr(R(X)) < gr(B(X)).
Demonstração. A demonstração é praticamente a mesma do caso conhecido da divisão
euclidiana para polinômios a coeficientes num corpo. Primeiramente, escrevemos as matrizes
dadas em forma polinomial, digamos, A(X) = Ar X r + · · · + A0 , B(X) = Bs X s + · · · + B0 , onde
Ar 6= 0 e det(Bs ) 6= 0.
Existência: Se r < s, fazemos Q(X) = 0 e R(X) = A(X). Suponhamos então que r ≥ s.
Procedemos por indução sobre r, o caso em que r = 0 (isto é, A(X) = Ar ) é absorvido pelo
caso r < s, a menos que s = 0. Neste último caso, pomos Q(X) = Ar Bs−1 e R(X) = 0 (este
caso será um caso particular do caso geral abaixo).
Suponhamos, assim, que r ≥ 1 e consideremos o polinômio A(X) − Ar Bs−1 X r−s B(X), que
tem grau no máximo r−1. Denotemos este polinômio por A1 (X). Pela hipótese indutiva, existem
Q1 (X) e R1 (X) tais que A1 (X) = Q1 (X)B(X) + R1 (X), com R1 (X) = 0 ou gr(R1 (X)) <
gr(B(X)). Tomando Q(X) := Q1 (X) + Ar Bs−1 X r−s e R1 (X) = R(X), encontramos o quociente
e o resto desejados.
Unicidade: Suponhamos que
A(X) = Q(X)B(X) + R(X) = Q0 (X)B(X) + R0 (X).
Então (Q(X) − Q0 (X))B(X) = R0 (X) − R(X). Pelo Lema 2.1.5 (i), o grau do membro direito
é no máximo igual a s − 1 = gr(B(X)) − 1. No membro esquerdo, temos um fator que é matriz
22
2. Mn×n (k[X]) E FATORES INVARIANTES
própria. Seu coeficiente dominante é uma matriz invertivel, portanto não anula qualquer matriz
não nula. Se Q(X) − Q0 (X) 6= 0, segue do Lema 2.1.5 (ii) que o grau do membro esquerdo é
no minimo s; absurdo. Logo, necessariamente, Q(X) = Q0 (X). Consequentemente, também
R0 (X) = R(X).
2.1.7. Observação. A rigor, o que acabamos de demonstrar foi divisão euclidiana á direita
(isto é, aquela em que o quociente é multiplicador à esquerda). Deixamos como exercicio de
rotina verificar a existência e unicidade de uma divisão á esquerda. Em geral, o quociente(resp.
o resto) á direita é distinto do quociente(resp. o resto) á esquerda. No que segue, fixaremos a
divisão sistematicamente á direita.
2.1.2. Polinômios matriciais e resto da divisão. Analogamente aos homomorfismos
de substituição (ou de avaliação ) já conhecidos (por exemplo, k[X] → k, f (X) 7→ f (α) ou
k[X] → Mn×n (k), f (X) 7→ f (A)), podemos definir o valor de um polinômio matricial P (X) ∈
Mn×n (k[X]) numa matriz A ∈ Mn×n (k), através da aplicação
P (X) = Pr X r + Pr−1 X r−1 + · · · + P0 7→ PD (A) = Pr Ar + Pr−1 Ar−1 + · · · + P0 .
Como no processo de divisão euclidiana, chamamos aqui também a atenção ao fato de que esta
aplicação de substituição admite uma versão à esquerda
P (X) = Pr X r + Pr−1 X r−1 + · · · + P0 7→ PE (A) = Ar Pr + Ar−1 Pr−1 + · · · + P0
e que, em geral os resultados das substituições dão matrizes distintas.
Mais grave é o fato de que, ao contrário dos processos de substituição anteriores, o presente
não é um homomorfismo de anéis. É fácil ver que preserva a soma de matrizes e o produto por
um polinômio, mas não o produto de matrizes em geral.
2.1.8. Exercicio. Dar exemplo de substituições cujos valores á direita e á esquerda são
distintos. Dar igualmente exemplo de que a substituição nào preserva o produto de matrizes.
(Sugestão: probabilisticamente, qualquer exemplo deve funcionar!)
Apesar da falência da substituição em preservar o produto de matrizes, o seguinte resultado
básico é válido e, conforme veremos em seguida, extremamente útil. É uma generalização natural
do fato que se f (X) ∈ k[X] e se f (X) = g(X) · (X − α) + r, então r = f (α).
2.1.9. Proposição. (Teorema do Resto) Dada A ∈ Mn×n (k), o resto da divisão à direita
(resp. à esquerda) de um polinômio matricial P (X) ∈ Mn×n (k[X]) pela matriz caracterı́stica
XI − A é o valor PD (A) (resp. PE (A)).
Demonstração. Seja P (X) = Pr X r + Pr−1 X r−1 + · · · + P0 . Então é fácil verificar que
para cada k = 0, 1, . . . , r,
X j I − Aj
= (X j−1 I + X j−2 A + · · · + XAj−2 + Aj−1 ) · (XI − A)
= Qj (X) · (XI − A).
Moltiplicando ambos os membros da equação anterior a esquerda por Pj e somando de 0 até r
temos
r
r
X
X
j
j
P (X) − PD (A) =
Pk · (X I − A ) = (
Pj · Qj (X)) · (XI − A)
j=0
j=0
= Q(X) · (XI − A),
de onde segue a proposição pela unicidade do quociente e do resto da divisão a direita (resp.
a esquerda). Da mesma forma se prova a parte relativa a divisão a esquerda por XI − A.
2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS
23
2.1.10. Proposição. Seja A ∈ Mn×n (k) e sejam mA (X) e cA (X) os polinômios minimo e
carateristico de A. Então cA (X) divide mA (X)n . Em particular mA (X) e cA (X) têm os mesmos
fatores irredutiveis mônicos.
Demonstração. Sabemos que mA (X) divide cA (X) pelo Teorema de Cayley-Hamilton
e portanto os fatores irredutiveis mônicos de mA (X) dividem cA (X). O Teorema da divisão
garante a existencia de R(X) ∈ Mn×n (k[X]) tal que
mA (X) · I = R(X) · (XI − A).
Tomando os determinantes a esquerda e a direita obtemos
(mA (X))n = det(R(X)) · cA (X).
2.2. Escalonamento de matrizes com elementos polinomiais
Primeiramente, estabeleceremos resultados análogos aos de eliminação gaussiana sobre k.
Todas as operações a ser efetuadas deverão preservar o caráter polinomial dos resultados (isto é,
sem criar frações com denominadores polinomiais não constantes). Guiados por este principio,
retomamos as operações elementares, desta vez em Mm×n (k[X]).
Abaixo, damos a forma da matriz elementar correspondente a cada uma das operações
elementares acima.
(1) Transposição de linhas (colunas) i e j:

Mi,j









=









1

..
.



















1
0 ···
1
1
..
.
1
1 ···
0
1
..
.
1
onde (Mi,j )kk = (Mi,j )ij = (Mi,j )ji = 1, se k 6= i, j; (Mi,j )kl = 0, em caso contrário
(Mantemos a convenção de que os espaços vazios são ocupados por zeros). Mais
geralmente, o resultado de efetuar uma permutação das linhas (colunas) de uma matriz
corresponde a uma matriz com 0 e 1, sendo que cada 0 figura em exatamente uma linha
e uma coluna (estas matrizes são chamadas de matrizes de permutação ).
24
2. Mn×n (k[X]) E FATORES INVARIANTES
(2) Multiplicação de uma linha (coluna) i por uma constante α ∈ k, α 6= 0:


1
..


.




1




α
Mα i = 



1




.


..
1
com (Mα i )ii = α.
(3) Soma de uma linha (coluna) j com uma linha i multiplicada por um polinômio p(X) ∈
k[X]:


1
..


.




1




.
.


..
..
Mp i+j = 



p(X) · · · 1




.


..
1
com (Mp i+j )ji = p(X).
2.2.1. Observação. Comparando com as definições do primeiro curso de álgebra linear, vemos que (1) é a mesma; (3) contempla a possibilidade de multiplicar uma linha por um polinômio
(não só uma constante) antes de somá-la a outra. Finalmente, (2) só permite multiplicação por
elementos não-nulos do corpo k. A razão do desequilı́brio aparente entre as operações de tipo
(2) e (3) é devido à necessidade das operações serem reversiveis (isto é, corresponderem a
multiplicações por matrizes quadradas que admitam inversas com elementos polinomiais).
2.2.2. Exemplo. Considere as seguintes matrizes sobre Q[X]:
X
0
1 2X
,
1 X −1
0 3
A primeira não admite inversa sobre Q[X] (embora a admita sobre Q(X), o que é um fácil
exercicio). A segunda admite inversa sobre Q[X]. É claro, por outro lado, que toda matriz A
sobre k[X], cujos elementos pertencem todos a k e tal que det A 6= 0, admite inversa sobre k,
logo sobre k[X] por maior razão.
Observemos que a noção do determinante de uma matriz quadrada A sobre k[X] não precisa
ser reintroduzido: definimo-lo como sendo o determinante de A, esta considerada como matriz
sobre k(X) (que é um corpo, em cujo caso já sabemos a definição ). É bastante evidente que,
se A é matriz quadrada sobre k[X], então det A ∈ k[X]. pelo mesmo principio, a definição de
posto de uma matriz retangular sobre k[X] não precisa ser repetida.
A proposição a seguir diz exatamente quais matrizes quadradas sobre k[X] admitem inversa
sobre k[X].
2.2.3. Proposição. Seja k um corpo arbitrário. Uma matriz quadrada A sobre k[X] admite
inversa sobre k[X] se e somente se det A ∈ k \ {0}.
2.2. ESCALONAMENTO DE MATRIZES COM ELEMENTOS POLINOMIAIS
25
Demonstração. Pela conhecida relação , temos A ad(A) = (det A)I, onde ad(A) é a matriz
dos cofatores de A. Em particular, pela definição mesma dos cofatores, ad(A) é matriz sobre
k[X]. Trabalhando sobre k(X), a inversa é dada por A−1 = (det A)−1 ad(A). Se det A ∈ k,
segue que os elementos de A−1 são polinômios. Inversamente, se A admite inversa A−1 sobre
k[X], então det A det(A−1 ) = 1 é o produto de dois polinômios que dá como resultado 1. Logo,
det A admite inverso multiplicativo em k[X] e, portanto, tem de pertencer a k \ {0}.
Como no caso de escalonamento sobre um corpo K, diremos que uma matriz B ∈ Mm×n (k[X])
é elementarmente equivalente a uma matriz A ∈ Mm×n (k[X]) se B = AE ou B = F A, onde
E e F são matrizes elementares (isto é, correspondem a operações elementares por linha
ou coluna, sobre k[X]). Dizemos que B é equivalente a A se existirem matrizes elementares E1 , . . . , Er , F1 , . . . , Fs tais que B = E1 · · · Er AF1 · · · Fs . Usaremos, neste caso, a notação
B ∼ A.
Como antes, trata-se de uma relação de equivalência no conjunto Mm×n (k[X]). Ainda como
antes, nossa tarefa será exibir uma forma canônica para cada classe de equivalência.
Para familiarizar-nos com o teorema de escalonamento em Mm×n (k[X]), convem tratar primeiro alguns exemplos simples, onde possamos reconhecer o padrão geral.
2.2.4. Exemplo. Consideremos a matriz
X
X +1
∈ M2×2 (Q[X])
X +2 X +4
Deixaremos ao aluno o prazer de determinar explicitamente as operações elementares usadas
em cada uma das passagens abaixo.
X
X +1
X
1
X 1
1 X
∼
∼
∼
X +2 X +4
X +2 2
2 1
1 2
1
0
1
0
∼
∼
1 −X + 2
0 −X + 2
Fácil demais? Porque os polinômios são todos de grau 1? Porque a matriz é quadrada? Nos
dois próximos exemplos, transgredimos estas condições .
2.2.5. Exemplo. Uma matriz com elementos polinomiais de graus diferentes:
X +1
−X
X2
X +1
X + 1 X2
∼
∼
X2
−X 3 + X − 1
X −1
X2
X2
X −1
X +1
1
∼
X2
−X 3 + X 2 + X − 1
1
X +1
∼
−X 3 + X 2 + X − 1
X2
1
0
∼
−X 3 + X 2 + X − 1
X 4 − (X + 1)(X − 1)
1
0
∼
0
X 4 − (X + 1)(X − 1)
26
2. Mn×n (k[X]) E FATORES INVARIANTES
2.2.6. Exemplo. Uma matriz 2 × 3 com
X X2 X3
∼
X2 X3 X4
∼
elementos polinomiais, de posto 1:
X 0 0
X 0 X3
∼
X2 0 0
X2 0 X4
X 0 0
0 0 0
2.2.7. Exemplo. A matriz caracterı́stica de uma matriz A ∈ M2 (k):
X − a11
−a12
XI − A =
−a21
X − a22
Suponhamos, primeiramente, que A não é diagonal; digamos, a12 6= 0. Então tem-se:
1
X − a11
−1
−a21 (X − a22 )
−a21
1
X − a22
XI − A ∼
∼
1
X − a11
∼
X − a22 a12 a21
0
1
0
∼
,
−(X − a11 )(X − a22 ) + a12 a21
0 cA (X)
onde cA (X) é o polinômio caracterı́stico de A.
Suponhamos, em seguida, que A seja diagonal, isto é, a12 = a21 = 0. Se a11 =
6 a22 , temos:
X − a11
0
X − a11 −X + a11
XI − A =
∼
0
X − a22
0
(X − a22 )
1
0
X − a11 a11 − a22
∼
∼
0
(X − a22 )
(a11 − a22 )−1 (X − a22 ) 0
1
0
∼
,
0 cA (X)
ainda da mesma forma anterior.
Finalmente, se A é escalar (isto é, a12 = a21 = 0, a11 = a22 := a, então a forma canônica
será a própria matriz caracterı́stica.
2.3. Forma canônica de Smith
Estamos preparados para os principais resultados desta parte.
2.3.1. Teorema. (Forma canônica de Smith) Toda matriz A ∈ Mm×n (k[X]) é equivalente
a uma matriz m × n semi-diagonal sobre k[X] da forma


0 ··· 0
f1 (X)

f2 (X)
0 ··· 0 

..
.. 
..


.
.
. 



fr (X)
0 ··· 0 

(2.3.1)
SA = 
,




0
0
···
0
0 ··· 0 


..
..
..
..
.. 

.
.
. 
.
.
0 ··· 0
0
0
···
0
onde r é o posto de A e, para todo 1 ≤ j ≤ r, fj (X) ∈ k[X] é polinômio mônico que divide
fj+1 (X) (com a convenção de que fr+1 = 0).
2.3. FORMA CANÔNICA DE SMITH
27
Demonstração. Podemos supor que A não é a matriz nula. Procedemos por indução
sobre m. No conjunto de todas as matrizes equivalentes a A escolhamos uma que admite como
elemento na posição (1, 1) um polinômio mônico de menor grau possivel; denotemos um tal
polinômio por g(X). Dividindo todo elemento da primeira linha de A por g(X), obtemos uma
matriz m × n da forma
!
g(X) r12 (X) . . . r1n (X)
,
..
..
..
.
.
.
onde r1j (X) são os respectivos restos das divisões. Em particular, gr(r1j (X)) < gr(g(X)), para
todo j. Esta matriz foi obtida de A por (m − 1) transformações elementares, logo é equivalente
a A. Por hipótese, segue necessariamente que r1j (X) = 0 para todo j. Procedendo similarmente
com a primeira coluna desta matriz, obtemos


g(X) 0 . . . 0
 0



A ∼  ..
,
 .

A
1
0
onde A1 é matriz m − 1 × n − 1 polinomial. Pela hipótese
uma matriz

f2 (X)

f3 (X)

..

.


fr (X)

S A1 = 
(2.3.2)


0
0
···
0


.
.
..

..
..
.
0
0
···
0
indutiva, esta matriz é equivalente a
0 ···
0 ···
..
.
0
0
..
.
0 ···
0
0 ···
..
.
0
..
.
0 ···
0







,





onde r − 1 é o posto de A1 e os polinômios se comportam conforme o enunciado do teorema.
Consequentemente, aplicando à matriz dada A operações elementares da forma


1 0 ... 0
 0



 ..
,
 .

P
1
0
onde P1 é matriz m − 1 × n − 1 elementar usada
equivalente a

f1 (X)
0
0

0
f2 (X)


0
f3 (X)

..

.


0
SA = 



0
0
0


.
.
..

..
..
.
0
0
0
para passar de A1 a SA1 , chegamos a que A é
0 0
0 ···
0 ···
..
.
0
0
0
..
.
fr (X)
0 ···
0
···
0
..
.
0 ···
..
.
0
..
.
···
0
0 ···
0
0
..
0
.








.






28
2. Mn×n (k[X]) E FATORES INVARIANTES
Ponhamos f1 (X) := g(X). Resta mostrar que g(X)|f2 (X). Ora, a matriz acima é ainda
equivalente à matriz que se obtem ao somar a primeira linha multiplicada por g(X) á segunda
linha. Tornando a dividir f2 (X) por g(X), como no inicio, obtemos uma matriz equivalente
com um elemento (o resto desta divisão) com grau menor do que o de g(X). Novamente, somos
obrigados a concluir que g(X) divide f2 (X), como queriamos demosntrar.
2.3.2. Teorema. (Unicidade da forma canônica de Smith) A forma (2.3.1) é unicamente determinada pela matriz dada A. Mais precisamente, para todo 2 ≤ j ≤ r, fj (X) =
dj (X)
dj−1 (X) , onde dj (X) é o mdc (mônico) de todos os subdeterminantes de ordem j de A.
Demonstração. Fixemos um j, 1 ≤ j ≤ r, com r = p(A). Se B é elementarmente equivalente a A, então, devido às possiveis formas das matrizes elementares, vemos que todo menor de
ordem j de B é um menor de ordem j de A multiplicado por um α ∈ k \ 0 ou uma combinação
da forma ∆ + p(X)∆0 , onde p(X) ∈ k[X] e ∆, ∆0 são menores de ordem j de A.
Daqui resulta, pela definição , que o mdc (mônico) de todos os menores de ordem j de B
é igual ao mdc (mônico) dj de todos os menores de ordem j de A. Iterando este processo,
deduzimos que o mdc (mônico) de todos os menores de ordem j da matriz de Smith SA é igual
a dj .
Ora, como fl |fl+1 , para 1 ≤ l ≤ r − 1, resulta facilmente que o mdc (mônico) de todos os
menores de ordem j da matriz de Smith é o produto f1 · · · fj . Logo, dj = f1 · · · fj . Daqui resulta
o enunciado procurado.
2.3.3. Definição. (Fatores invariantes de uma matriz polinomial) Os polinômios
mônicos fj (X) da forma de Smith são chamados os fatores invariantes da matriz A ∈ Mn×n (k[X]).
2.3.4. Corolário. Sejam A, B ∈ Mm×n (k[X]). Então A é equivalente a B se e só se têm
os mesmos fatores invariantes.
2.3.5. Teorema. (Caracterização do polinômio minimo) Seja A ∈ Mn×n (k). Sejam
f1 (X), . . . , fn (X) ∈ k[X] os fatores invariantes da matriz carateristica de A, XI − A. Então a
matriz caracterı́stica XI − A tem posto n e, além disso, tem-se:
cA (X) = f1 (X) · · · fn (X),
mA (X) = fn (X).
Demonstração. A afirmação relativa ao posto e ao polinômio caracterı́stico é óbvia. De
fato por definição temos
XI − A = E · SA (X) · E 0 ,
com E, E 0 são produto de matrizes elementares em Mn×n (k[X]). Tomando os determinantes,
deduzimos
cA (X) = det(E) · det(E 0 ) · f1 (X) · · · fn (X).
Sendo cA (X) mônico e sendo os fi (X) mônicos, temos det(E) · det(E 0 ) = 1.
Seja dn−1 (X) o m.c.d. mônico dos menores de ordem n − 1 de XI − A. Sabemos que
fn (X) = det(XI−A)
dn−1 (X) . Por definição de matriz adjunta, temos que o m.c.d. mônico dos elementos
da matriz ad(XI − A) é exatamente dn−1 (X). Portanto
ad(XI − A) = dn−1 (X) · P (X),
2.3. FORMA CANÔNICA DE SMITH
29
com P (X) ∈ Mn×n (k[X]) matriz com elementos polinômios relativamente primos entre si. De
ad(XI − A) · (XI − A) = det(XI − A) · I obtemos
dn−1 (X) · P (X) · (XI − A) = dn−1 (X) · fn (X) · I
e portanto
P (X) · (XI − A) = fn (X) · I.
Pelo teorema do resto podemos interpretar a relação anterior como que o resto da divisão a
direita de fn (X) · I por XI − A é nulo, i.e. fn (A) = 0. Isso implica que mA (X) divide fn (X),
i.e.
fn (X) = h(X) · mA (X).
Para concluir é suficiente mostrar que h(X) tem grau zero porque os dois polinômios fn (X) e
mA (X) são mônicos. Dividindo mA (X)·I a direita por XI −A e sendo mA (A) = 0 por definição,
o teorema da divisão garante a existencia de R(X) ∈ Mn×n (k[X]) tal que
mA (X) · I = R(X) · (XI − A).
Combinando as relações anteriores obtemos
P (X) · (XI − A) = h(X) · mA (X) · I = h(X) · R(X) · (XI − A),
que, sendo XI − A de posto n, implica
P (X) = h(X) · R(X).
Então h(X) ∈ k porque, por construção, os elementos de P (X) eram relativamente primos entre
si.
2.3.6. Observação. Assim, o polinômio caracterı́stico de A é o produto de todos os fatores
invariantes de XI − A e o polinômio minimo de A é o fator caracterı́stico de maior grau de
A. Para calcular mA (X) podemos determinar a forma normal de Smith ou, mais diretamente,
calcular o mdc dos subseterminantes submáximos da matriz caracterı́stica de A. Qual método é
mais eficiente? A resposta depende de várias circunstâncias, mas, em geral, para valores grandes
de n, a forma normal de Smith é preferivel.
2.3.7. Observação. Sejam k e k 0 dois corpos com k ⊆ k 0 (e.g. R ⊆ C) e seja A ∈ Mn×n (k).
A priori pensando A como elemento de Mn×n (k 0 ) teremos a noção de polinômio minimo de A
com coeficientes em k 0 , i.e. o polinômio mônico de menor grau de k 0 [X] que se anula sobre
A e não é claro que esse polinômio coincida com o polinômio minimo de A em k[X]. Quanto
acabamos de mostrar revela que o polinômio minimo de A não depende do corpo. Isso porque se
A ∈ Mn×n (k) ⊂ Mn×n (k 0 ), então o n-esimo fator invariante de XI − A pertence sempre a k[X].
Que depende do corpo é a fatorização do polinômio minimo e portanto a ”forma canônica”. Por
exemplo considerando
0 −1
A=
1 0
como matriz com coeficentes reais, temos que mA (X) = X 2 + 1 e que A é in forma canonica
racional como matriz real. Em M2×2 (C), o polinômio minimo de A se fatora em mA (X) =
(X − i)(X + i) e a forma canônica racional como matriz complexa de A é
i 0
.
0 −i
30
2. Mn×n (k[X]) E FATORES INVARIANTES
2.4. Equivalencia em Mn×n (k[X]) e semelhnanca em Mn×n (k)
2.4.1. Teorema. Sejam A(X), B(X) ∈ Mn×n (k[X]) com B(X) propria e A(X) e B(X) de
grau um. Então A(X) é equivalente a B(X) se e só se existirem P, Q ∈ Mn×n (k) inversiveis
tais que B(X) = P · A(X) · Q.
Demonstração. Se B(X) = P · A(X) · Q, então claramente A(X) é equivalente a B(X)
(lembramos que cada matriz in Mn×n (k) invertivel é produto de matrizes elementares!).
Ao contrario se A(X) e B(X) são equivalentes, existem P (X), Q(X) ∈ Mn×n (k[X]) produtos
de matrizes elementares tais que
(2.4.1)
B(X) = P (X) · A(X) · Q(X).
Sendo B(X) propria pudemos dividir a esquerda a matriz P (X) por B(X) e a matriz Q(X) a
direita obtendo
(2.4.2)
P (X) = B(X) · P1 (X) + P,
(2.4.3)
Q(X) = Q1 (X) · B(X) + Q,
onde sendo B(X) de grau um, temos P, Q ∈ Mn×n (k). Combinando (2.4.2) e (2.4.1), obtemos
(2.4.4)
P · A(X) · Q1 (X) = B(X) · D1 (X),
com D1 (X) = (Q(X)−1 − P1 (X)) · Q1 (X). Seja
P1 (X) · A(X) · Q(X) = D2 (X) · B(X),
onde D2 (X) = P1 (X) · P (X)−1 .
No resto da demostração vamos provar que essas matrizes P e Q têm a propriedade querida,
i.e. que B(X) = P ·A(X)·Q. Por isso vamos substuir na primeira equação de cima as expressões
obtidas nas equações anteriores. Então
B(X) = (P + B(X)P1 (X)) · A(X) · Q(X)
= P · A(X) · Q(X) + B(X) · D2 (X) · B(X)
= P · A(X) · Q + P · A(X) · Q1 (X) · B(X) + B(X) · D2 (X) · B(X)
= P · A(X) · Q + B(X) · D(X) · B(X),
onde D(X) = D1 (X) + D2 (X). Para concluir é bastante mostrar que D(X) = 0. De
B(X) − P · A(X) · Q = B(X) · D(X) · B(X),
sendo que A(X) e B(X) têm grau um, segue que B(X)D(X)B(X) tem grau no máximo um. Se
D(X) 6= 0, então , sendo B(X) uma matriz propria, B(X) · D(X) · B(X) teria grau pelo menos
dois que seria impossivel. Obtemos que D(X) = 0 e que B(X) = P · A(X) · Q como desejado.
Mostamos agora que P e Q são inversiveis. Se B(X) = B1 X + B0 e se A(X) = A1 X + A0 ,
obtemos
B1 X + B0 = P · (A1 X + A0 ) · Q = (P · A1 · Q)X + P · A0 · Q,
i.e. B1 = P · A1 · Q e a afirmação segue do feito que B1 é invertivel (por que?).
O proximo teorema é de importancia fundamental e vai permitir de dezurir muitos resultados
da teoria dos fatores invariantes e da forma canônica de Smith da matriz caracterı́stica XI − A,
A ∈ Mn×n (k).
2.4.2. Teorema. Duas matrizes A, B ∈ Mn×n (k) são semelhantes se e só se XI − A é
equivalente a XI − B em Mn×n (k[X]).
2.5. FORMA CANÔNICA RACIONAL
31
Demonstração. Se A é semelhante a B, então existe P ∈ Mn×n (k) invertivel tal que
P · B · P −1 = A. Facilmente obtemos P (XI − B)P −1 = XI − A e a conclusão segue do feito
que uma matriz invertivel em Mn×n (k) é produto de matrizes elementares. Portanto XI − B é
equivalente a XI − A.
Se XI − A é equivalente a XI − B pelo teorema 2.4.1, existem P, Q ∈ Mn×n (k) tais que
XI − B = P · (XI − A) · Q. Eseguindo a multiplicação obtemos P · Q = I, i.e. Q = P −1 e
B = P · A · P −1 , i.e. A e B são semelhantes.
2.4.3. Corolário. Sejam k um subcorpo do corpo k 0 e sejam A, B ∈ Mn×n (k). Então A e
B são semelhantes em Mn×n (k) se e só se são semelhantes em Mn×n (k 0 ).
Demonstração. Sendo Mn×n (k) ⊆ Mn×n (k 0 ), é claro que se A e B são semelhantes em
Mn×n (k), então são semelhantes em Mn×n (k 0 ).
Se A e B são semelhantes em Mn×n (k 0 ), entao pelo teorema anterior XI − A e XI − B são
equivalentes em Mn×n (k 0 [X]) e portanto tem os mesmos fatores invariantes em k 0 [X]. Mas os
fatores invariantes de XI − A e XI − B são polinômios em k[X] e portanto as matrizes XI − A
e XI − B são equivalentes em Mn×n (k[X]) pelo corollario 2.3.4 tendo a mesma forma canônica
de Smith. Aplicando mais uma vez o teorema 2.4.2 deduzimos que A e B são semelhantes em
Mn×n (k).
2.4.4. Observação. Não é verdade que se A = P 0 · B · P 0−1 com P 0 ∈ Mn×n (k 0 ), então
P 0 ∈ Mn×n (k). O corolario anterior garante só a existência de uma matriz P ∈ Mn×n (k) tal
que A = P · B · P −1 .
2.5. Forma canônica racional
O Teorema 2.4.2 permite de deduzir os teoremas da forma canônica racional da teoria dos
fatores invariantes e até de fornecer uma demosntração diferente do Teorema de Decomposição
Primaria, Teorema 1.5.1. Vamos tratar primeiro o caso das matrizes companheiras.
2.5.1. Definição. (Matriz companheira de um polinômio monico g(X) = X m −
αm−1 X m−1 − . . . − α1 X − α0 de grau m). A matriz m × m


0 0 0 ...
α0
 1 0 0 ...
α1 



α2 
C(g(X)) =  0 1 0 . . .
.
 .. .. .. . .
.. 
 . . .
.
. 
0 0 0 1 αm−1
se diz a matriz companheira de g(X) e se indica com C(g(X)).
2.5.2. Proposição. Seja f (X) ∈ k[X] um polinômio mônico de grau n ≥ 1e seja C(f (X)) ∈
Mn×n (K) a matriz companheira de f (X). Então XI − C(f (X)) é equivalente a


1 0 0 0
0
0
 0 1 0 0 ···
0 


1 0 ···
0 
 0
 .
.
.. 
..
 .
 ∈ Mn×n (k[X]).
. ..
. 
 .
 .
.. 
..
 ..
.
. 
0
f (X)
32
2. Mn×n (k[X]) E FATORES INVARIANTES
Demonstração. É facil verificar (verifique!) que para uma matriz da forma C(f (X))
temos mC(f (X)) (X) = cC(f (X)) (X) = f (X), cfr. Lema 2.8.2. Portanto os fatores invariantes de
XI − C(f (X)) são tais que
f1 (X) · · · fn (X) = cC(f (X)) (X) = f (X) = mC(f (X)) (X) = fn (X).
Segue que f1 (X) = · · · = fn−1 (X) = 1 e fn (X) = f (X). A forma canônica de Smith de
XI − C(f (X)) é esatamente como acima.
2.5.3. Teorema. (Forma canônica racional-primeira versão ) Cada matriz A ∈ Mn×n (k)
é semelhante a uma unica matriz da forma


C(fl (X))
0
0 0
0


0
C(fl+1 (X))
···
0


,

..
.
..
..


.
.
0
C(fn (X))
onde os fj (X), j = l, . . . , n, 1 ≤ l ≤ n, são polinômios mônicos não costantes com a
propriedade que fi (X) divide fi+1 (X) para cada i = l, . . . , n − 1. Os polinômios fj (X) são os
fatores invariantes não constantes de XI − A.
Demonstração. Seja







1 0
0
0 0
0 1
0
0 ···
0
fl (X) 0 · · ·
..
..
..
.
.
.
0
0
0
0
..
.







fn (X)
a forma canônica de Smith de XI − A, i.e. os fj (X) são os fatores invariantes não constantes
de XI − A. Seja


C(fl (X))
0
0
0
0


0
C(fl+1 (X))
···
0


C=
.
..
.
.
.
.


.
.
.
0
C(fn (X))
Observamos que C ∈ Mn×n (k).
Então

XI − C(fl (X))
0
0
0

0
XI
−
C(f
(X))
·
··
l+1

XI − C = 
..
.
..

.
0
e pela proposição 2.5.2 cada bloco XI − C(fj (X)) e’ equivalente a


1 0 0 0
0
0
 0 1 0 0 ···
0 


1 0 ···
0 
 0
 .

.
..
..
 .
.
. ..
.
 .

 .

.
.
 ..

..
..
0
fj (X)
0
0
..
.
XI − C(fn (X))





2.6. FATORES INVARIANTES E DIVISORES ELEMENTARES
Portanto XI − C é equivalente a

1 0
0
0
0
 0 1
0
0 ···

fl (X) 0 · · ·
 0
 .
.
..
 .
. ..
 .
 .
..
 ..
.
0
0
0
0
..
.
..
.
fn (X)









e de consequencia a XI − A. Disso deduzimos que A é semelhante a C
unicidade é clara porque se A fosse semelhante a uma matriz da forma

C(fl00 (X))
0
0
0
0
0

0
C(f
(X))
·
·
·
0
l0 +1

C0 = 
..
..
..

.
.
.
pelo Teorema 2.4.2. A
C(fn0 (X))
0
33



,

0 (X), os fatores invariantes de XI − C 0
com fi0 (X) mônico e irredutivel e tal que fi0 (X) divide fi+1
0
0
seriam fl0 (X), . . . , fn (X)(argumentaremos como acima) e seriam também os fatores invariantes
de XI − A. Portanto teremos l = l0 e fj0 (X) = fj (X) e a unicidade resulta provada.
2.6. Fatores invariantes e divisores elementares
2.6.1. Proposição. Se f (X) = q1 (X)e1 · · · ql (X)el é um polinômio de grau n, onde os qj (X)
são irredutiveis, mônicos e distintos, então C(f (X)) é semelhante a uma matriz da forma


C(q1 (X)e1 )


C(q2 (X)e2 )



.
.
.


.
C(ql (X)el )
Demonstração. Seja

C(q1 (X)e1 )
0
0
0
e2 )

0
C(q
(X)
·
··
2

C=
..
.
..

.
0

0
0
..
.
C(ql (X)el )


.

Então



XI − C = 

XI − C(q1 (X)e1 )
0
0
0
0
XI − C(q2 (X)e2 )
···
..
..
.
.
0
e como antes cada bloco XI − C(qj (X)ej ) e’ equivalente a

1 0 0 0 0
0
 0 1 0 0 ···
0

 0
1
0
·
·
·
0

 ..
.
..
.
..
..
 .
.
0
qj (X)ej




.


0
0
..
.
XI − C(ql (X)el )





34
2. Mn×n (k[X]) E FATORES INVARIANTES
Sendo que os polinômios qj (X) são irredutiveis e relativamente primos, o m.c.d. mônico dos
menores de ordem n − 1 de XI − C é igual a 1 (por que?). Portanto XI − C é equivalente a


1 0 0 0 0
0
 0 1 0 0 ···
0 


 0
1 0 ···
0 


 ..
..
.. 
..
 .
.
.
. 
0
f (X)
que é a forma canônica de Smith de XI − C(f (X)). Portanto C(f (X)) é semelhante a C.
2.6.2. Corolário. (Forma canônica racional-segunda versão ). Seja A ∈ Mn×n (k)
com polinômio minimo mA (X) = q1 (X)e1 . . . qr (X)er . Então
i) Existe uma matriz semelhante a A da forma


D1


D2


D=
,
..


.
Dr
onde cada Di tem a forma

C(qi (X)ei )

C(qi (X)ei,2 )

Di = 
..

.

C(qi (X)ei,pi )




e temos ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi para cada i = 1, . . . , r, p1 ≥ p2 ≥ . . . ≥ pr .
ii) A forma da matriz no ponto acima se diz forma canônica racional de A e é unica modulo
uma permutação dos blocos.
iii) Os polinômios qi (X)ei,j , i = 1, . . . , r, j = 1, . . . , pi se dizem divisores elementares de A.
Os divisores elementares são os fatores primários dos fatores invariantes de XI − A.
Demonstração. Sejam fk (X), . . . , fn (X) os fatores invariantes não costantes de XI − A.
Na fatorização dos fj (X) podem aparacer como fatores irredutiveis só q1 (X), . . . , qr (X) (por
que?). Portanto aplicando o teorema 2.5.3 e a proposição 2.6.1 deduzimos que A é semelhante
a uma matriz


Bk


Bk+1


B=
,
..


.
Bn
onde cada Bl , l = k, . . . , n tem a forma

C(q1 (X)e1,n−l+1 )

C(q2 (X)e2,n−l+1 )

Bl = 
..

.

C(qr (X)er,n−l+1 )


,

com ei,n−l+1 ≥ 0, ei,1 = ei e ei,n−l+1 ≤ ei,n−l para cada i = 1, . . . , r. Sendo XI − B claramente
equivalente a XI − D, obtemos que A é semelhante a D. Resulta claro, revertendo o argumento
2.7. DECOMPOSIÇÃO PRIMARIA E CICLICA
35
que grupando as matrizes companheiras de divisores elementares distintos, podemos construir
B como acima tal que XI − D seja equivalente a XI − B. Sendo que os qi (X) são irredutiveis
e distintos, cada matriz XI − Bl e’ equivalente a uma matriz do tipo


1


1



.
.
.


.
q1 (X)e1,n−l · · · qr (X)er,n−l
Sejam fl (X) = q1 (X)e1,n−l · · · qr (X)er,n−l ; temos que fl (X) é mônico e divide fl+1 (X). Segue
que XI − B, e portanto XI − A, e’ equivalente a


1 0
0
0 0
0
 0 1

0
0 ···
0


 0

fk (X) 0 · · ·
0

,
 ..

..
..
..
 .

.
.
.
0
fn (X)
onde cada fl (X) divide o seguinte e é mônico. Isso mostra a unicidade da forma canônica
racional de A (por que?).
Segue imediatamente o seguinte fato.
2.6.3. Corolário. Duas matrizes A, B ∈ Mn×n (k) são semelhantes se e só se têm a mesma
forma canônica racional se e só se têm os mesmos divisores elementares.
A demonstração da segunda versão da forma canonica racional mostra tambem como dados
os divisores elementares de uma matriz A ∈ Mn×n (k) se construem os fatores invariantes de
XI − A. Sejam qi (X)ei,j os divisores elementares, i = 1, . . . , r, j = 1, . . . , pi , p1 ≥ . . . ≥ pr .
Pondo ei,m = 0 se m > pi , podemos construir a seguinte matriz em Mp1 ×r (k[X])


q1 (X)e1,p1
q2 (X)e2,p1 · · · · · ·
qr (X)er,p1
 q1 (X)e1,p1 −1 q2 (X)e2,p1 −1 · · · · · · qr (X)er,p1 −1 



.
..
..
..
..


.
.
.
.
q1 (X)e1,1
q2 (X)e2,1
···
···
qr (X)er,1
Então os fatores invariantes de XI − A são os polinômios monicos obtidos multiplicando os
elementos de cada linha da matriz acima. Ao contrario dados os fatores invariantes não costantes
de XI − A podemos construir uma matriz como acima em qual cada entrada seja um divisor
elementar de A.
2.7. Teoremas de decomposição T -ciclica I e T -primaria II
Os resultados da seção anterior permitem de demonstrar diferentemente o Teoremas de Decomposição T -primaria e tambem de provar o Teorema de Decomposição T -ciclica. Vamos obter
os teoremas de decomposição ciclica e primaria como corolarios dos resultados anteriores pela
bem nota correspondencia entre matrizes semelhantes como matrizes de uma mesma aplicação
linear com respeito a bases diferentes. Na proxima seção forneceremos uma demonstração direta
do Teorema de Decomposição T -ciclica e portanto dos resultado dessa seção. Antes precisamos
da definição de subespaço T -ciclico.
36
2. Mn×n (k[X]) E FATORES INVARIANTES
2.7.1. Definição. (Subespaço T -ciclico) Seja T ∈ End(V ). Dado um vetor u ∈ V , o
subconjunto
U = {f (T )(u) | f (X) ∈ k[X]}
é subespaço de V . Um subespaço de V desta forma é dito ser T -ciclico, associado ao vetor u (u
éntão dito ser um gerador de U , se não der lugar a confusões).
2.7.2. Observação. A designação acima vem do fato de que um tal subespaço é o k[X]submódulo de V gerado pelo elemento u ∈ V , onde a estrutura de k[X]-módulo de V é a
introduzida no Capı́tulo 1.
Se U é subespaço T -ciclico, então U é obviamente T -invariante. Se r = dim(U ), então
P
i
r
B = {u, T (u), . . . , T r−1 (u)} é uma base de U . Se T r (u) = r−1
i=0 αi T (u) e se f (X) = X −
Pr−1
i
i=0 αi X , temos que
[T ]B
B = C(f (X)),
vide-se o Lemma 2.8.2 para os detalhes das demonstrações das afirmações acima.
2.7.3. Corolário. (Existencia e unicidade decomposição T -ciclica) Seja T ∈ End(V )
com polinômio minimo mT (X) = q1 (X)e1 . . . qr (X)er . Então
i) V = U1,1 ⊕ U1,2 ⊕ . . . ⊕ U1,p1 ⊕ U2,1 ⊕ . . . ⊕ Ur,pr com Ui,j subespaços T -ciclicos tais que
para cada i = 1, . . . , r e para cada j = 1, . . . , pi − 1, dim(Ui,j ) ≥ dim(Ui,j+1 ).
ii) O polinômio minimo da restrição de T a Ui,j e’ da forma qi (X)ei,j com ei = ei,1 ≥
ei,2 ≥ . . . ≥ ei,pi para cada i = 1, . . . , r. (os polinômios qi (X)ei,j se dizem divisores
elementares de T )
iii) dim(Ui,j ) = ei,j · di , onde di = grau(qi (X)).
iv) Existe uma base B de V tal que



[T ]B
B =


A1
A2
..


,

.
Ar
onde cada Ai tem a forma

C(qi (X)ei )

C(qi (X)ei,2 )

Ai = 
..

.

C(qi (X)ei,pi )


.

v) A forma da matriz no ponto iv) se diz forma canônica racional de T e e’ unica modulo
uma permutação dos blocos.
0
Demonstração. Seja B 0 uma base de V e seja A = [T ]B
B0 . O resultado segue aplicando a
segunda versão da forma canônica racional a matriz A.
2.8. DECOMPOSIÇÃO T -CICLICA
37
2.7.4. Corolário. (Teorema de decomposição primaria) Seja T ∈ End(V ), seja
cT (X) = q1 (X)l1 · · · qr (X)lr
o polinônmio caracterı́stico de T e seja
mT (X) = q1 (X)e1 · · · qr (X)er
o polinômio minimo de T , onde cada qi (X) é um polinômio mônico irredutivel, 1 ≤ ei ≤ li para
cada i = 1, . . . , r e os qi (X) são distintos. Então
i) ker (qi (T )ei ) 6= 0V é um subespaço T -invariante para cada i = 1, . . . , r.
ii) V = ker (q1 (T )e1 ) ⊕ · · · ⊕ ker(qk (T )er ).
iii) dim(ker (qi (T )ei )) = li · grau(qi (X)).
iv) O polinômio minimo da restrição de T a ker (qi (T )ei ) é qi (X)ei .
Si
Demonstração. Seja Vi = pj=1
Ui,j , onde os Ui,j são os subespaços T -ciclicos contruidos
aplicando o corolario 2.7.3. Então cada Vi é T -invariante e V = V1 ⊕ . . . ⊕ Vr ; a restrição
de T a cada Vi tem como polinômio minimo qi (X)ei . Disso segue facilmente que o polinômio
carateristico de T|Vi é qi (X)l1 , vide-se Proposição 2.1.10. Portanto dim(Vi ) = li · grau(qi (X)).
Para concluir e’ suficiente mostrar que Vi = ker (qi (T )ei ) = ker (qi (T )li ). Temos as inclusoes
Vi ⊆ ker (qi (T )ei ) ⊆ ker (qi (T )li ). Se Vi,,j = ker (qi (T )li ) ∩ Vj 6= 0V , com j 6= i, esse subespaço
de Vj seria T -invariante por ser interseção de subespaços T -invariantes e para qualquer v ∈ Vi,j
teremos qi (T )li (v) = 0V = qj (T )em,j (v). O polinômio minimo de T|Vi,j deveria dividir qi (X)li
e qj (X)em,j , que são coprimos e seria portanto o polinômio costante 1. Essa contradição prova
que ker (qi (T )li ) ⊆ Vi , concluindo a demonstração.
2.8. Teorema de decomposição T –ciclica II
O objetivo dessa seção e’ demonstrar diretamente o Teorema de Decomposição T -ciclica,
Teorema 2.8.1 abaixo, já provado no Corolario 2.7.3. Dessa maneira vamos obter uma nova
demonstração do Corolario 2.6.2 que não depende da teoria dos fatores invariantes e das matrizes
polinomiais. Para ficar completamtente independentes da citada teoria, usaremos o Teorema da
decomposição T -primária demonstrado diretamente no Teorema 1.5.1.
Pelo teorema de decomposição primária, querendo achar uma forma canônica para um operador T : V → V podemos supor sem perda de generalidade que mT (X) = q(X)e com e ≥ 1 e
q(X) irredutivel em k[X]. A partir desse caso com o procedimento usual acharemos a ”forma
canônica”para um T qualquer fatorizando o polinômio minimo de T em fatores irredutiveis
mônicos. Para encontrar a forma canônica vamos demostrar um teorema de existencia e unicidade para uma decomposição de V em subespaços T -ciclicos; a restrição de T a esse subespaços
vai ter como matriz em uma base oportunamente escolhida uma matriz naturalmente associada
a q(X)li , e = l1 ≥ l2 ≥ . . . ≥ lp .
2.8.1. Teorema. (Existencia e unicidade da decomposição ciclica) Seja T : V → V
uma aplicação linear e suponhamos que
mT (X) = q(X)e ,
com q(X) ∈ k[X] irredutivel e mônico e com e ≥ 1. Então :
i) (existência) V = U1 ⊕ U2 . . . ⊕ Up , onde cada Ui e’ um subespaço T -ciclico tal que
o polinômio minimo de T|Ui seja da forma q(X)ei com e = e1 ≥ e2 ≥ . . . ≥ ep ,
dim(Ui ) = d · ei , d = grau(q(X)).
38
2. Mn×n (k[X]) E FATORES INVARIANTES
ii) (unicidade) Se V = U10 ⊕ U20 . . . ⊕ Up0 0 , onde cada Uj0 e’ um subespaço T -ciclico tal que
0
o polinômio minimo de T|Uj0 seja da forma q(X)ej com e = e01 ≥ e02 ≥ . . . ≥ e0p0 , então
p = p0 e ei = e0i para cada i = 1, . . . , p.
Demonstração. Para indução sobre n = dim(V ) ≥ 1. Para n = 1, necessariamente
mT (X) = X − α e o teorema e’ verdadeiro.
Seja d = grau(q(X)) ≥ 1. Temos q(T )e−1 6= 0End(V ) por definição de polinômio minimo.
Então existe u ∈ V tal que q(T )e−1 (u) 6= 0V . Seja U1 =< u, T (u), . . . >, i.e. o subespaco
ciclico T -invariante gerado por u e seja T1 a restrição de T a U1 . Sendo que q(T1 )e = 0End(U1 )
o polinômio minimo de T1 e’ da forma q(X)e1 com e1 ≤ e. De q(T1 )e−1 (u) 6= 0 deduzimos
e1 = e. Então U1 =< u, T (u), . . . , T de−1 (u) > porque sendo q(X)e o polinômio minimo de T|U1 ,
T de (u) ∈< u, T (u), . . . , T de−1 (u) > e portanto T r (u) ∈< u, T (u), . . . , T de−1 (u) > para cada
r ≥ d · e. Por outro lado temos que se u, T (u), . . . , T de−1 (u) fossem linearmente dependentes,
então o polinômio minimo de T|U1 seria de grau menor a d · e (lembramos que f (T|U1 ) = 0 se e
só se f (T )(u) = 0). Concluimos que dim(U1 ) = de. Se d · e = n, o teorema esta demostrado.
Suponhamos d · e < n.
Sendo U1 um subespaço T -invariante, T induz uma transformação linear T : V /U1 → V /U1
definida como
T ([v]) = [T (v)].
(Mostrar que e’ bem definida!). Se f (X) ∈ k[X], então se verifica logo que
f (T )([v]) = [f (T )(v)].
Dessa ultima relação deduzimos que mT (X) divide mT (X), i.e. mT (X) = q(X)e2 , e2 ≤ e1 = e.
Se W é um subespaço T -ciclico de V gerado por w tal que q(X)e seja o polinômio minimo de
T|W , então q(X)e é um multiplo do polinômio minimo da restrição de T ao subesaço T -ciclico
gerado por [w].
Aplicando a ipotese de indução a V /U1 , de dimensão n − dim(U1 ) < n, obtemos
V /U1 = U 2 ⊕ U 3 . . . ⊕ U p ,
onde cada U j e’ T -ciclico e a restrição de T a cada U j tem polinômio minimo da forma q(X)ej
com e2 ≥ e3 ≥ . . . ≥ ep . Para completar a demostração vamos construir a partir de U j ,
j = 2, . . . , p subespaços Uj de V tais que:
a) cada Uj seja isomorfo a U j e então T -ciclico;
b) o polinômio minimo da restrição de T a Uj seja exatamente q(X)ej ;
c) V = U1 ⊕ U2 . . . ⊕ Up .
Cada subespaço U j e’ gerado por um vetor [uj ] e temos
U j =< [uj ], . . . , T
lj d−1
([uj ]) > .
De q(T )lj ([uj ]) = 0V /U1 deduzimos q(T )ej (uj ) ∈ U1 ; sendo U1 gerado por u1 obtemos q(T )ej (uj ) =
f (T )(u1 ) por algum f (X) ∈ k[X]. Afirmamos que podemos deduzir a existencia de um vetor
u0j ∈ U1 tal que q(T )ej (T )(uj + u0j ) = 0V . Demonstrado isso pegaremos
Uj =< uj + u0j , . . . , T ej d−1 (uj + u0j ) >
e verificaremos as propriedades a), b) e c).
A afirmação segue dos seguintes fatos. Temos
0V = q(T )e (uj ) = q(T )e−ej q(T )ej (uj )q(T )e−ej f (T )(u1 ).
2.8. DECOMPOSIÇÃO T -CICLICA
39
Sendo que a restrição de T a U1 tem polinômio minimo q(X)e , temos que q(X)e divide q(X)e−ej f (X).
Isso implica f (X) = h(X)q(X)ej (por que?). Tomando u0j = −h(T )(u1 ) ∈ U1 , temos
q(T )ej (uj + u0j ) = f (T )(u1 ) + q(T )ej (−h(T )(u1 )) = 0V .
Sendo que u0j ∈ U1 , claramente [uj ] = [uj + u0j ] e então esse vetor é um gerador de U j ,
j = 2, . . . , p. Observamos antes que o polinômio minimo da restrição de T a Uj é um multiplo
de q(X)ej , mas q(T )ej (uj + u0j ) = 0V implica que o polinômio minimo da restrição de T a Uj
seja esatamente q(X)ej , assim que b) esta demonstrado. Mostramos a). Argumentando como
no caso de U1 no inicio da demonstração, temos que os espaços vetorias Uj e U j têm dimensão
d · lj . O mapa natural πj : Uj → U j definido como πj (uj + u0j ) = [uj + u0j ] = [uj ] é uma aplicação
linear sobrejetora que, pelo teorema do nucleo e da imagem, induz um isomorfismo entre Uj e
U j para cada j = 2, . . . p, completando a demonstração do ponto a).
Indicamos con π : V → V /U1 o mapa projeção definido como π(v) = [v]. Entao a restrição
de π a cada Uj é o πj definido anteriormente. Sendo que πj é um isomorfismo, temos Uj ∩U1 = 0V
para cada j = 2, . . . , p. Se w1 + w2 + . . . + wp = 0V , com wi ∈ Ui , i = 1, . . . , p, aplicando
π, teremos π(w2 ) + . . . + π(wp ) = 0V , π(wj ) ∈ U j para cada j = 2, . . . , p. Isso implica
π(wj ) = 0V /U1 (por que?) e portanto wj = 0V para cada j = 2, . . . , p pela injetividade de
πj . Portanto a soma U1 + . . . + Up é direta e coincide com V sendo um subespaço de dimensão
n = dim(V ).
Passamos a mostrar a unicidade da decomposição na forma especificada em ii). Seja m ≥ 1
o menor inteiro tal que em 6= e0m . Sendo e1 = e = e01 , temos 2 ≤ m ≤ min{p, p0 }. Podemos supor
sem perda de generalidade que em > e0m . Por outro lado sabemos que e0m ≥ e0j para cada j ≥ m
0
e portanto que q(T )em (Uj0 ) = 0V para cada j ≥ m. Então
0
0
0
0
0
q(T )em (V ) = q(T )em (U10 ) ⊕ q(T )em (U20 ) ⊕ . . . ⊕ q(T )em (Um−1
),
onde a soma continua direta porque os Uj0 são T -invariantes. Cada Uk0 e’ T -ciclico de dimensão
0
d · e0k . Se verifica facilmente que dim(q(T )em (Uk0 )) = d · (e0k − e0m ) para cada k = 1, . . . , m − 1.
Calculando com a outra decomposição obtemos
0
0
0
0
0
q(T )em (V ) ⊇ q(T )em (U1 ) ⊕ q(T )em (U2 ) ⊕ . . . ⊕ q(T )em (Um−1 ) ⊕ q(T )em (Um )
P
0
0
e0m
0
com
cada t = 1, . . . , m. Disso deduzimos m−1
k=1 d·(ek −em ) ≥
Pm dim(q(T ) 0 (Ut )) = d(et −em ) para
0
k=1 d(ek − em ) e portanto em ≤ em contra a hipotese.
Combinando o teorema de decomposição primária e o teorema de decomposição ciclica,
dado T : V → V aplicação linear podemos sempre supor a existencia de subespaços T -ciclicos.
Portanto para estudar T é suficiente conhecer a restrição dele aos subespacos T -ciclicos que T
individua, sendo esses essencialmente ”unicos”.
2.8.2. Lema. Seja U um subsespaço T -ciclico de V de dimensão m ≥ 1.
Então :
i) U tem uma base B da forma B = {u, T (u), . . . , T m−1 (u)}.
ii) Se T m (u) = α0 u + α1 T (u) + . . . + αm−1 T m−1 (u), então


0 0 0 ...
α0
 1 0 0 ...
α1 



0 1 0 ...
α2 
[T ]B
=

 = C(X m − αm−1 X m−1 − . . . − α1 X − α0 ).
B
 .. .. .. . .
.. 
 . . .
.
. 
0 0 0 1 αm−1
40
2. Mn×n (k[X]) E FATORES INVARIANTES
iii) O polinomio minimo de T|U e’
g(X) = X m − αm−1 X m−1 − . . . − α1 X − α0 .
Demonstração. Podemos pensar U como gerado por u, T (u), T 2 (u), etc. Se T r (u) = 0U ,
então T l (u) = 0U para cada l ≥ r e
U =< u, T (u), . . . , T r−1 (u) > .
Sendo que dim(U ) = m, temos que T j (u) 6= 0U para cada j = 1, . . . , m − 1. Mostramos que os
m vetores u, T (u), . . . , T m−1 (u) são linearmente indipendentes. Seja
β0 u + β1 T (u) + . . . + βm−1 T m−1 (u) = 0U
uma relação entre os vetores com βi ∈ k. Suponhamos que exista i, 1 ≤ i ≤ m − 1 tal que βi 6= 0
e tal que
β0 u + β1 T (u) + . . . + βi T i (u) = 0U .
Então T i (u) ∈< u, T (u), . . . , T i−1 (u) >. Aplicando T teremos que tambem T i+k (u) ∈<
u, T (u), . . . , T i−1 (u) > de onde deduziremos que o subespaço U estaria contido em
< u, T (u), . . . , T i−1 (u) >;
i − 1 ≤ m − 2 implica i ≤ m − 1 e isso e’ impossivel porque dim(U ) = m. A parte ii) é clara.
Vamos provar iii). Seja f (X) ∈ k[X]. Então f (T|U ) = 0End(U ) se e somente se f (T )(u) = 0U .
Portanto o polinônio minimo de T|U é o polinômio mônico h(X) de menor grau positivo tal que
h(T )(u) = 0. Sendo {u, T (u), . . . , T m−1 (u)} uma base de V , o grau de h(X) é maior o igual a
m. Sendo g(T )(u) = 0U , teremos que o grau de h(X) é exatamente m e que h(X) divide g(X);
sendo os dois mônicos temos h(X) = g(X).
Exercicios do capı́tulo
(1) Mostrar que em geral para A(X), B(X) ∈ Mn×n (k[X]),
grau(A(X) · B(X)) 6= grau(A(X)) + grau(B(X)).
(2) Efetuar a divisão euclidiana à direita de A(X) por B(X) nos seguintes casos, escrevendo
primeiramente as duas matrizes como polinômios matriciais.
(a)
X 3 + 5X + 1 3X 3 + X − 1
A(X) =
,
2X 3 + X 2 + 2 4X 3 + 2X + 2
2X 2 − 1 X 2
B(X) =
3X 2
2X 2
(b)
A(X) =
2X 2 + 2 X 2 + 2
−3X
−X
,
B(X) =
X 2
−2 X
(3) No Exercı́cio anterior, item (b), verifique que a divisão é exata (isto é, tem resto nulo)
em um lado, mas não no outro.
EXERCICIOS DO CAPÍTULO
41
(4) Dadas as matrizes

2X 4 − X 2 + 2
−X 3 + X − 1
1 − X2
−X 4 + X 2 − 2
1 + X2  ,
P (X) =  X 3 − X + 1
2
4
2
X −1
−X − 1X + X − 1



0 1 0
A =  0 0 1 ,
2 0 0
determinar o valor PD (A) pelos dois métodos da divisão euclidiana e da substituição
direta.
(5) Seja A ∈ Mn×n (R) tal que A2 = −In×n .
(a) Mostrar que n = 2r por algum inteiro r ≥ 1.
(b) Mostrar que para cada v ∈ Rn \ 0, temos
dim(< A(v), v >) = 2.
Deduzir que para n = 2, a matriz A é semelhante a
0 −1
1 0
.
(c) Mostrar que A é semelhante em Mn×n (R) a
0
Ir×r
−Ir×r
0
.
(d) Se substituirmos R por C a conclusão do ponto (i) continua verdadeira? Se não
construir um contraexemplo.
(6) Seja A ∈ Mm×n (Z). Mostrar que existem P ∈ Mm×m (Z) e Q ∈ Mn×n (Z) inversiveis
tais que


d1
0 ··· 0

d2
0 ··· 0 

..
.. 
..


.
.
. 



dr
0 ··· 0 

P ·A·Q=
,




0 ··· 0 
 0 0 ··· 0
 .
..
..
.. 
..
 ..
.
.
. 
.
0 0 ··· 0
0 ··· 0
onde r é o posto de A e onde, para todo 1 ≤ j ≤ r, dj ∈ Z é um inteiro positivo que
divide dj+1 (com a convenção de que dr+1 = 0).
42
2. Mn×n (k[X]) E FATORES INVARIANTES
(7) Seja A ∈ M10×10 (Q) a matriz

−1 0
 0 0

 0 1

 0 0

 0 0
A=
 0 0

 0 0

 0 0

 0 0
0 0
seguinte.
0
3
2
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
3
2
0
0
0
0
0
0
0
0
0
0
3
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
1
0

0
0
0
0 

0
0 

0
0 

0
0 
.
0
0 

0 −9 

0 −12 

0
2 
0
4
(a) Encontrar cA (X) e mA (X).
(b) Encontrar os fatores invariantes de XI − A (e a forma canonica racional de A).
(8) Achar a forma normal de Smith de
x2
x−1
A=
.
x+1
x2
(9) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre Q[X],
pelo método das operações elementares:
(a)


X −1
0
−1


3
X −2
0
0
4
X +7
(b)
X X2 − 1
X3
X2 X − 1 X2 + X − 1
(c)


X
0
0
 0 X −1

0
0
0
X −2
(d)


X 0
0
 0 X

0
0 0 X −2
(10) Verificar, justificando devidamente, quais das matrizes seguintes sobre C[X] estão na
forma normal de Smith.
(a) Uma matriz A ∈ Mm×n (C) na forma reduzida linha/coluna
(b) Uma matriz diagonal A(X) ∈ Mn×n (C[X]) cuja diagonal principal é composta de
polinômios mônicos em ordem estritamente crescente de graus.
EXERCICIOS DO CAPÍTULO
43
(c) Uma matriz diagonal A(X) ∈ Mn×n (C[X]) da forma


1 0 ... 0
0
 0 1 ... 0
0 


 .. ..
..
.. 
 . .
.
. 


 0 0 ... 1
0 
0 0 . . . 0 f (X)
com f (X) ∈ C[X] mônico.
(d) Uma matriz diagonal A(X) ∈ Mn×n (C[X]) com o mesmo polinômio mônico repetido ao longo da diagonal principal.
(11) Determinar a forma normal de Smith de cada uma das seguintes matrizes sobre R[X],
pelo método dos subdeterminantes:
(a)


f (X)
0
f (X)
0
1
 0

g(X)
e
0
g(X) 0
0
1
onde f (X), g(X) ∈ R[X] são mônicos.
(b)

1 + 2X X 3 + 4X 2 + X + 2
X 3 + 4X + 2


0
X2 + X
X2
3
2
3
2
1 − 2X X + 3X − 3X − 1 X − X + 4X − 2

(c) A matriz caracterı́stica da matriz

0 0 0
 1 0 0

 0 1 0
0 0 1

−α0
−α1 

−α2 
−α3
onde αi ∈ R.
(12) Usando a teoria dos fatores invariantes da matriz carateristica associada, demonstrar
os seguintes fatos:
(a) uma matriz A ∈ Mn×n (k) é semelhante a At ;
(b) Sejam A, B ∈ M2×2 (R) (resp. M2×2 (C)). Então A e B são semelhantes se e só se
mA (X) = mB (X).
(c) Sejam A, B ∈ M3×3 (R) (resp. M3×3 (C)). Então A e B são semelhantes se e só se
cA (X) = cB (X) e mA (X) = mB (X).
(d) Construir duas matrizes A, B ∈ M3×3 (R) não semelhantes e com mA (X) =
mB (X).
(e) Para cada n ≥ 4 construir exemplos de matrizes A, B ∈ Mn×n (R) não semelhantes
e tais que cA (X) = cB (X) e mA (X) = mB (X).
(13) Encontrar o polinômio minimo de


2 1 1
A =  2 3 2 ,
1 1 2
calculando os fatores invarientes de XI − A.
44
2. Mn×n (k[X]) E FATORES INVARIANTES
(14) Seja


2 −1 1 −1
 1 0 1 −1 

A=
 0 0 1 0  ∈ M4×4 (C).
0 0 0 1
Encontrar a forma canônica racional de A.
(15) Mostrar que se por A ∈ Mn×n (k), temos mA (X) = cA (X), então A é semelhante a
C(det(XI − A)) = C(cA (X)).
CAPı́TULO 3
Forma canônica de Jordan
3.1. Forma canônica de Jordan para operadores nilpotentes
Introduzimos a definição de operador nilpotênte e de matriz nilpotênte.
3.1.1. Definição. (Operador e matriz nilpotênte) Seja T : V → V uma aplicação linear
de V . O operador T se diz nilpotênte se existir um inteiro p ≥ 1 tal que
Tp = T
· · ◦ T} = 0End(V ) .
| ◦ ·{z
p
O menor inteiro r ≥ 1 com a propriedade que T r = 0V se diz ı́ndice de nilpotência de T .
Uma matriz A ∈ Mn×n (k) se diz nilpotênte se existir p ≥ 1 tal que
Ap = A
· · A} = 0
| ·{z
p
e o ı́ndice de nilpotência de A ó menor inteiro r ≥ 1 com a propriedade que Ar = 0.
Enunciamos algumas propriedades dos operadores nilpotentes que são consequencias diretas
da definição.
(i) Se r é o ı́ndice de nilpotência de T , então mT (X) = X r e o polinômio minimo de
um operador nilpotênte é portanto completamente redutivel em k[X]. Claramente se
n = dim(V ), cT (X) = X n .
(ii) λ = 0 é o único auto-valor de uma aplicação linear nilpotente T .
(iii) Se T : V → V é nilpotente, os auto-vetores de T são exatamente os elementos do núcleo
ker (T ) (todos associados ao auto-valor único 0)
Vamos considerar agora casos particulares dos resultados demonstrados anteriormente.
3.1.2. Proposição. Seja T : V → V um operador nilpotente de ı́ndice de nilpotência r e
seja U ⊆ V um subespaço T -ciclico de dimensão m ≥ 1.
Então
i) U tem uma base B da forma B = {u, T (u), . . . , T m−1 (u)}.
ii)


0 0 0 ... 0
 1 0 0 ... 0 




B
[T ]B =  0 1 0 . . . 0  .
 .. .. .. . . .. 
 . . .
. . 
iii) O polinomio minimo de T|U é
0 0 0 1
e m ≤ r.
0
Xm
Demonstração. O polinômio minimo de T|U é da forma X l , 1 ≤ l ≤ r e as afirmações
seguem por exemplo do Lema 2.8.2.
45
46
3. FORMA CANÔNICA DE JORDAN
Estamos agora na posição para mostrar o Teorema da forma canônica de Jordan para operadores nilpotentes. Precisamos só de uma definição. .
3.1.3. Definição. (Bloco elementar de Jordan de tamanho n). Definimos como bloco
elementar de Jordan de tamanho n a matriz Jn ∈ Mn×n (k) da forma


0 0 0 ... 0
 1 0 0 ... 0 




Jn =  0 1 0 . . . 0  .
 .. .. .. . . .. 
 . . .
. . 
0 0 0 1 0
3.1.4. Teorema. (Forma canônica de Jordan para operadores nilpotentes) Seja
T : V → V uma aplicação linear nilpotente de ı́ndice de nilpotência r, i.e. mT (X) = X r . Então
i) V = U1 ⊕ U2 ⊕ . . . ⊕ Up com Ui subespaço T -ciclico.
ii) O polinômio minimo da restrição de T a Ui é da forma X ri com r = r1 ≥ r2 ≥ . . . ≥ rp
para cada i = 1, . . . , p, onde dim(Ui ) = ri .
iii) Existe uma base B de V tal que


Jr


Jr2


[T ]B
=

,
..
B


.
Jrp
onde cada Jri é um bloco elementar de Jordan de tamanho ri , r = r1 ≥ . . . ≥ rp .
iv) A forma da matriz no ponto iii) se diz forma canônica de Jordan de T e é unicamente
determinada.
Demonstração. Pelo teorema de decomposição ciclica sabemos che existem U1 , . . . Up subespacos T -ciclicos tais que V = U1 ⊕U2 ⊕. . .⊕Up . Se dim(Ui ) = ri , podemos supor r1 ≥ . . . ≥ rp .
Sendo T nilpotênte podemos aplicar a Proposição 3.1.2 para deduzir que o polinômio minimo
da restrição de T a Ui seja X ri . É claro que T r1 = 0V e que T r1 −1 6= 0V (se ui ó gerador de Ui ,
T r1 (ui ) = 0V mas T r1 −1 (u1 ) 6= 0V ). Portanto r1 = r.
Sendo mT (X) = X r , aplicando o teorema de unicidade da decomposição T -ciclica, obtemos
a demonstração do ponto iv), o ponto iii) sendo claro.
3.1.5. Definição. (ı́ndices de nilpotência sucessivos de um operador nilpotênte)
Os inteiros {r1 , . . . , rp } se dizem ı́ndices de nilpotência sucessivos de T .
3.1.6. Corolário. (Forma canônica de Jordan de matrizes nilpotentes) Seja A ∈
Mn×n (k) uma matriz nilpotente de ı́ndice de nilpotência r. Então
i) existe uma unica matriz semelhante a A, dita a forma canônica de Jordan de A, da
forma


Jr


Jr2



,
..


.
Jrp
onde cada Jri bloco elementar de Jordan de tamanho ri , com r = r1 ≥ . . . ≥ rp . Os
interiro {r1 , . . . , rp } se dizem ı́ndices de nilpotência sucessivos de A.
3.2. FORMA CANÔNICA DE JORDAN
47
ii) Duas matrizes nilpotentes A, B ∈ Mn×n (k) são semelhantes se e só se têm a mesma
forma canônica de Jordan se e só se têm os mesmos ı́ndices de nilpotência successivos.
3.2. Forma canônica de Jordan para operadores com polinômio minimo
completamente redutivel sobre k
Nessa seção vamos estudar as aplicações lineares T : V → V por quais o polinômio minimo
de T seja completamente redutivel em k[X], i.e. mT (X) = (X − λ1 )e1 · · · (X − λr )er com
λi ∈ k distintos, i = 1, . . . , r. Essa condição é satisfeita para qualquer T : V → V se por
exemplo o corpo k é algebricamente fechado (e.g. k = C!). Observamos que temos cT (X) =
(X − λ1 )s1 · · · (X − λr )sr com si ≥ ei para cada i = 1, . . . , r.
Nessa hipotese, aplicando o teorema de decomposição primária e o teorema da forma canônica
de Jordan para operadores nilpotentes, vamos obter uma forma canônica para operadores quaisquer.
Precisamos introduzir uma definição.
3.2.1. Definição. (Bloco elementar de Jordan de tamanho n relativo ao autovalor
λ ∈ k) Dados n ≥ 1 e λ ∈ k definimos o bloco elementar de Jordan de tamanho n relativo ao
autovalor λ como a matriz J(λ)n ∈ Mn×n (k) da forma:


λ 0 0 ... 0
 1 λ 0 ... 0 




J(λ)n =  0 1 λ . . . 0  .
 .. .. .. . .
. 
 . . .
. .. 
0 0 0 1 λ
Claramente J(0)n = Jn , i.e. os blocos elementares relativos ao autovalor 0 são os blocos
elementares de Jordan.
3.2.2. Teorema. (Forma canônica de Jordan) Seja T : V → V um operador tal que
= (X − λ1 )s1 · · · (X − λr )sr , com λi ∈ k distintos, i = 1, . . . r, e seja mT (X) = (X −
e
1
λ1 ) · · · (X − λr )er , ei ≤ si , o polinômio minimo de T . Então
i) V = V1 ⊕ . . . ⊕ Vr , onde Vi = ker ((T − λi IV )ei ) e’ um subespaço T -invariante de
dimensão si para cada i = 1, . . . , r.
ii) Para cada i = 1, . . . , r, se Ti é a restrição de T a Vi , então Ti = λi IVi + Si com
Si : Vi → Vi operador nilpotênte de ı́ndice de nilpotência ei .
iii) Se ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi , i = 1, . . . , r, são os ı́ndices de nilpotência sucessivos de
Si , então existe uma base B de V tal que


A1


A2


[T ]B
=

,
.
B
.


.
Ar
onde cada Ai ∈ Msi ×si (k) tem a forma


J(λi )ei


J(λi )ei,2


Ai = 
.
..


.
cT (X)
J(λi )ei,pi
48
3. FORMA CANÔNICA DE JORDAN
iv) A forma da matriz no ponto iii) se diz forma canônica de Jordan de T e é unica modulo
uma permutação dos blocos Ai .
Demonstração. O teorema de decomposição primária, teorema 1.5.1, mostra que V =
V1 ⊕ . . . ⊕ Vr (lembramos que cada Vi é claramente T -invariante), que dim(Vi ) = si e que se
Ti = T|Vi , então mTi (X) = (X − λi )ei . Seja Si : Vi → Vi o operador Ti − λi IVi . Por definição
temos que Si é nilpotênte e que o ı́ndice de nilpotência dele é esatamente ei . Aplicando o
Teorema da forma canônica de Jordan para operadores nilpotêntes a Si deduzimos a existencia
i
de uma bade Bi de Vi tal que [Si ]B
Bi seja composta de blocos elementares de Jordan de tamanhos
ei = ei,1 , . . . , ei,pi , i = 1, . . . , r, onde ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi são os ı́ndices de nilpotência
i
sucessivos de Si . Segue imediatamente que [Ti ]B
Bi = Ai . Tomando come base de V a base
B obtidas como união das bases Bi por i = 1, . . . r, obtemos que [T ]B
B é exatamente como
especificado no ponto iii). A unicidade modulo permutações das Ai segue da unicidade da forma
canônica de Jordan para operadores nilpotentes.
Vamos fazer algumas observações e comentarios.
(1) Caracterı́sticas de Segre. Da interpretação matricial acima, deduzimos a seguinte
tabela de números inteiros positivos
λ1 , s1 , e1,1 , e1,2 , . . . , . . . , e1,p1
λ2 , s2 , e2,1 , e2,2 , . . . , e1,p2 ,
0
..
.
λr , sr , er,1 , er,2 , . . . ,
...,
er,pr
(cujas linhas têm comprimento diferentes, em geral). Estes inteiros são chamados caracterı́sticas de Segre. Por hipótese, eles determinam completamente a forma canônica
de Jordan, logo são invariantes da classe de semelhança das matrizes representativas de
T . Se T for nilpotênte as caracterı́sticas de Segre são a dimensão do espaço e os ı́ndices
de nilpotência sucessivos.
Ppj
Pr
(2) Observemos as relações óbvias
j=1 sj = n e
l=1 ej,l = sj (1 ≤ j ≤ r). A segunda relação mostra que, esencialmente, as caracterı́sticas de Segre dependem só do
polinômio minimo de T e das ı́ndices de nilpotência sucessivos de Si e não do polinômio
caracterı́stico.
(3) Para cada j = 1, . . . , r, a multiplicidade de λj como raı́z do polinômio mı́nimo mT (X)
é a caracterı́stica de Segre ej,1 (o primeiro, maior por hipótese).
(4) A dimensão do auto-espaço Vλj = ker (T − λj I) associado ao auto-valor λj é ainda dado
Ppj
(ej,l − 1)) = −(−pj ) = pj .
por dim(ker (Tj − λj I)) = sj − rank (Tj − λj I) = sj − ( l=1
Assim, há um total de pj auto-vetores linearmente independentes associados a λj ,
portanto um para cada sub-bloco elementar de Jordan daquele auto-valor.
Embora a segunda observação mostre que não todas as caracterı́sticas de Segre sejam necessarias para determinar a classe de semelhanca de uma matriz (podemos por exemplo eliminar
a segunda coluna de inteiros na matriz que define as caracterı́sticas de Segre), enunciamos o
seguinte corolario nessa forma.
3.2.3. Corolário. (Forma canônica de Jordan de matrizes) Seja A ∈ Mn×n (k) uma
matriz com polinômio minimo completamente redutivel em k[X]. Então
EXERCISIOS DO CAPÍTULO
49
i) existe uma matriz semelhante a A, dita a forma canônica de Jordan de A, da forma


A1


A2



,
.
.


.
Ar
onde cada Ai ∈ Msi ×si (k) tem a forma

J(λi )ei

J(λi )ei,2

Ai = 


..


,

.
J(λi )ei,pi
com ei = ei,1 ≥ ei,2 ≥ . . . ≥ ei,pi , i = 1, . . . , r.
ii) A forma canônica de Jordan de A única modulo permutações dos blocos Ai .
iii) Duas matrizes A, B ∈ Mn×n (k) com polinômios minimos completamente redutiveis em
k[X] são semelhantes se e só se têm a mesma forma canônica de Jordan se e só se têm
as mesmas caracterı́sticas de Segre.
Exercisios do capı́tulo
Download