Manual Álgebra 2011.2012

Propaganda
Manual de Álgebra Linear
Cursos: LMAC, MEBiom, MEFT
1o Semestre 2011/2012
Prof. Paulo Pinto
http://www.math.ist.utl.pt/∼ppinto/
Conteúdo
1 Sistemas lineares e Matrizes
1
2 Determinantes
6
3 Espaços lineares
8
4 Valores e vectores próprios para matrizes
14
5 Transformações lineares
16
6 Produtos internos
19
7 Tópicos adicionais e aplicações
24
8 Notação usada
28
Índice alfabético
29
1
Sistemas lineares e Matrizes
1. Uma matriz A = [aij ]m×n , do tipo m × n (m por n), é
n colunas:

a11 a12
 a21 a22

A= .
..
 ..
.
am1 am2
uma tabela de mn números dispostos em m linhas e

· · · a1n
· · · a2n 

..  .
···
. 
···
amn
O conjunto de todas as matrizes reais m × n designa-se por Mm×n (R); ou Mm×n (C), no caso dos complexos.
Matriz diagonal é uma matriz quadrada (i.e. m = n) cujas entradas fora da diagonal principal são todas
nulas; as entradas a11 , a22 , ..., ann formam a diagonal principal de A. A matriz identidade I é a matriz
diagonal cuja diagonal principal é toda igual a 1. Matriz nula 0 do tipo m × n é a matriz com todas as
entradas iguais a zero. A matriz quadrada A diz-se triangular superior se as entrada abaixo da diagonal
principal de A forem todas nulas (i.e. aij = 0 se i > j).
2. Operações algébricas
• A entrada (i, j) da matriz soma A + B é dada por aij + bij sendo A = [aij ] e B = [bij ] matrizes do mesmo
tipo m × n.
1 4 −1
0 −3 2
1 1 1
Exemplo:
+
=
.
−3 2 6
4 −1 −5
1 1 1
• O produto de uma matriz A = [aij ] do tipo m × n por escalar α é a matriz αA = [αaij ].
• O produto matricial A = [aij ] do tipo m × p com outra matriz B = [bij ] do tipo p × n é uma matriz
C = [cij ] do tipo m × n, designada por AB, cuja entrada (i, j) é dada por
p
X
cij = ai1 b1j + ai2 b2j + ... + aip bpj =
aik bkj .
k=1
1 2
1 3
5
3
1 3
1 2
7 −19
Exemplo:
=
,
=
3 −7
2 0
−11 9
2 0
3 −7
2
4
Assim, o produto de matrizes não é comutativo!
1
• A transposta da matriz A = [aij ] de tipo m × n é a matriz AT = [aji ] de tipo n × m.
• tr(A) = a11 + .... + ann é o traço da matriz A = [aij ]



T
1 −3
1 4 −1
2  e tr
Exemplo:
= 4
−3 2 6
−1 6
do tipo n × n.

1 −3 0
4
2
7  = −6.
−1 6 −9
3. Sempre que as operações sejam possı́veis temos:
• (Comutatividade da soma) A + B = B + A.
• (Associatividade da soma) A + (B + C) = (A + B) + C.
• (Elemento neutro da soma) A + 0 = 0 + A = A, para toda a matriz A do tipo m × n.
• (Simétrico) Para cada matriz A existe uma única matriz B tal que A + B = 0. (B é −A).
• (Associatividade do produto por escalares) α (βA) = (αβ) A, com α, β escalares.
• (Distributividade) (α + β) A = αA + βA.
• (Distributividade) α (A + B) = αA + αB.
• (Associatividade do produto de matrizes) A (BC) = (AB) C.
• (Distributividade) A (B + C) = AB + AC
e (B + C) D = BD + CD.
• (Elemento neutro para a multiplicação matricial) AI = IA = A.
T
• α (AB) = (αA) B = A (αB), AT = A, (A + B)T = AT + B T , (αA)T = αAT , (AB)T = B T AT .
• tr(AB) = tr(BA).
Em geral: AB = 0 não implica que A = 0 ou B = 0.
Dada A matriz quadrada, define-se A2 = AA, A3 = A(AA), ..., Ak = AAk−1 (com k ∈ N).
Sejam A, B, C matrizes: define-se a soma A + B + C := (A + B) + C, caso exista. Defines o ABC := A(BC),
caso exista (e por recorrência podemos definir A1 + ... + As e A1 ....As ).
4. Uma matriz n × n diz-se invertı́vel se existe outra matriz B tal que AB = BA = I.
Caso exista a matriz inversa de A é única e designa-se por A−1 .
Teorema: Sendo A, B invertı́veis então AB, αA, AT são invertı́veis, para qualquer escalar não nulo α e
(A−1 )−1 ,
(AB)−1 = B −1 A−1 ,
(αA)−1 = α−1 A−1 ,
(AT )−1 = (A−1 )T .
Teorema: • A matriz n × n A é invertı́vel sse car(A) = n.
• Se A é invertı́vel, então o sistema linear Ax = b é possı́vel e determinada para cada b. A solução é x = A−1 b.
5. Operações elementares numa matriz qualquer A:
• Li ↔ Lj , para representar que se efectuou a troca das linhas Li e Lj
• αLi → Li , para representar que a linha Li foi multiplicada pelo escalar α 6= 0.
• αLi + Lj → Lj , para representar que a nova linha Lj é obtida somando à linha Lj a linha Li previamente
multiplicada por um escalar α. Para α = 1, esta operação elementar designa-se por operação de Jacobi.
Se a matriz A foi transformada na matriz B usando uma operação elementar, então usamos a seguinte notação:
A −−−−→ B,
Li ↔Lj
A −−−−−→ B,
αLi →Li
A −−−−−−−−→ B.
αLi +Lj →Lj
6. Podemos usar sucessivamente as operações elementares e transformar a matriz A num matriz em escada em
linha U = [uij ], onde por baixo do primeiro elemento não nulo (= pivô) de cada linha (e na mesma coluna)
todos os elementos são nulos (uij = 0 para i > j); e as linhas nulas (caso existam) estão todas na parte inferior
de U . Este é o método de eliminação de Gauss1 . Chama-se caracterı́stica de A, e designa-se por car(A), ao
1
Johann Carl Friedrich Gauss 1777–1855
2
número de linhas não nulas de U . No capı́tulo 3 prova-se que car(A) está bem definida e que car(A) = car(AT ).


1 1 1
Exemplo: Seja A =  2 1 4 . Assim car(A) = 3, porque:
2 3 5






1 1 1
1 1 1
1 1 1
A −−−−−−→  0 −1 2  −−−−−−→  0 −1 2  −−−−→  0 −1 2  = U.
−2L1 +L2
−2L1 +L3
L2 +L3
2 3 5
0 1 3
0 0 5
7. Uma matriz elementar do tipo n × n é uma matriz obtida da matriz identidade I através de uma única
operação elementar.
(i) A matriz Pij , chamada matriz de permutação, é a matriz elementar obtida por troca da linha i com a
linha j da matriz I (i 6= j).
(ii) A matriz Ei (α) é a matriz elementar obtida da matriz I através do produto do escalar α 6= 0 pela linha i.
(iii) A matriz Eij (α) é a matriz elementar obtida da matriz I por soma da linha j com um múltiplo α da linha i.
Exemplo: Algumas matrizes elementares 3 × 3:






0 1 0
α 0 0
1 0 0
P12 =  1 0 0  , E1 (α) =  0 1 0  , E2 (α) =  0 α 0  ,
0 0 1
0 0 1
0 0 1




1 0 0
1 α 0
E12 (α) =  α 1 0  , E21 (α) =  0 1 0  .
0 0 1
0 0 1
Se a matriz A foi transformada na matriz B usando uma operação elementar, então usamos a seguinte notação:
Pij
A −−−−→ B,
Li ↔Lj
Eij (α)
Ei (α)
A −−−−−→ B,
A −−−−−−−−→ B.
αLi →Li
αLi +Lj →Lj
(1)
Teorema: • As matrizes elementares são invertı́veis, tendo-se
Pij−1 = Pij ,
1
Ei (α)−1 = Ei ( ),
α
e Eij (α)−1 = Eij (−α).
• Se A −→ B usando uma operação elementar cuja matriz elementar é E. Então EA = B.
E
• (Decomposição triangular) Se a matriz triangular superior U é obtida por sucessivas operações elementares na matriz A, em que nenhuma das operações é do tipo permutação, então existe uma matriz
triangular inferior L tal que
A=LU.
E
E
E
1
2
k
Se A −→
A1 −→
A2 −→ · · · −−→
U então (Ek · · · E2 E1 )A = U . Assim, L = (E1−1 E2−1 · · · Ek−1 ).




1 1 1
1 1 1
Exemplo: Seja A =  2 1 4 . Tem-se: E23 (1)E13 (−2)E12 (−2)A =  0 −1 2  . Logo,
2 3 5
0 0 5




1 1 1
1 1 1
A = (E12 (−2))−1 (E13 (−2))−1 (E23 (1))−1  0 −1 2  = E12 (2)E13 (2)E23 (−1)  0 −1 2  ,
0 0 5
0 0 5




1 0 0
1 1 1
ou ainda, A = LU com L = E12 (2)E13 (2)E23 (−1) =  2 1 0  e U =  0 −1 2  .
2 −1 1
0 0 5
3
8. (1o algoritmo para o cálculo da inversa) Teorema: Sendo A invertı́vel, podemos transformar a matriz
A na matriz identidade I usando operações elementares:
E
E
E
E
s
1
2
k
I,
A −→
A1 −→
A2 −→ · · · −−→
U −→ Ak+1 −→ · · · −→
Ek+1
isto é (Es ...Ek ...E1 )A = I, e portanto
A−1 = Es · · · Ek · · · E1 .
(2)


0 0 π
Exemplo: Seja A =  2 3 1 . Tem-se
1 1 0







1 1 0
1 1 0
1
1
0
1
1
0
1
E3 ( π )
E12 (−2)
E21 (−1)
E32 (−1)
P
A −−−13−→  2 3 1  −−−−−−→  0 1 1  −−−−−
−→  0 1 1  −−−−−→  0 1 0  −−−−−→ I.
1
−2L1 +L2
L1 ↔L3
−L2 +L1
−L3 +L2
L →L3
π 3
0 0 π
0 0 π
0 0 1
0 0 1

Assim, A−1 = E21 (−1)E32 (−1)E3 ( π1 )E12 (−2)P13 =



1 −1 0
1 0 0
1 0
=  0 1 0   0 1 −1   0 1
0 0 1
0 0 1
0 0


  1
1 0 0
0 0 1
0
π
0   −2 1 0   0 1 0  =  − π1
1
1
0 0 1
1 0 0
π
π

−1 3
1 −2  .
0
0
Além disso, se um das linhas de uma matriz for toda nula, então essa matriz não é invertı́vel.
Teorema: A ∈ Mn×n invertı́vel se e só se car(A) = n.
9. Equação linear nas variáveis x1 , x2 , ..., xn é toda a equação na forma a1 x1 + a2 x2 + ... + an xn = b onde
a1 , a2 , ..., an , b são escalares (reais ou complexos).
10. Um sistema de m equações lineares com n incógnitas é um conjunto de equações lineares da forma

a11 x1 + a12 x2 + ... + a1n xn = b1



a21 x1 + a22 x2 + ... + a2n xn = b2
...



am1 x1 + am2 x2 + ... + amn xn = bm
(3)
em que aij e bk são escalares, para i, k = 1, ..., m e j = 1, ..., n. Se nada for dito em contrário, estaremos a
estudar sistemas lineares com variáveis reais (e coeficientes reais).
11. Conjunto solução do sistema (3) é o conjunto, designado por SAx=b ou simplesmente S, de todas as soluções
de (3), isto é
n
o
S = (x1 , ..., xn ) ∈ Rn : (x1 , ..., xn ) é solução de todas as equações de (3) .
12. Escrita Matricial Ax = b do sistema linear (3) onde


a11 a12 · · · a1n
 a21 a22 · · · a2n 


A= .
..
..  ,
.
 .
.
···
. 
am1 am2 · · · amn



x=

x1
x2
..
.






e


Matriz aumentada do sistema linear (3) é a matriz: [A|b] = 

a11
a21
..
.



.

bm
a12
a22
..
.
am1 am2
4


b=

xn

b1
b2
..
.
···
···
···
···
a1n
a2n
..
.
amn

b1
b2 

.

bn
13. Teorema: Se a matriz aumentada [A|b] é transformada numa matriz aumentada [U |c] usando operações
elementares então SAx=b = SU x=c .
Note que [A|b] → [A1 |b1 ] usando uma operação elementar então é claro que SAx=b ⊂ SA1 x=b1 . Por outro lado,
podemos escolher outra operação elementar tal que [A1 |b1 ] → [A|b]. Assim, temos SAx=b = SA1 x=b1 e podemos
escrever os dois passos efectuados como se segue:
[A|b] −−−−→ [A1 |b1 ] −−−−→ [A|b],
Li ↔Lj
[A|b] −−−−−→ [A1 |b1 ] −−−−−→ [A|b],
Lj ↔Li
αLi →Li
1
L →Li
α i
[A|b] −−−−−−−−→ [A1 |b1 ] −−−−−−−−−→ [A|b].
αLi +Lj →Lj
−αLi +Lj →Lj
14. Se [A|b] −→ [U |c] com [U |c] em escada de linhas, então podemos escolher para variáveis livres (caso existam)
do sistema Ax = b as que correspondem às colunas de U sem pivô.







x
0 0
3
−9
6
 3z − 9w = 6
 y 
 

5x + 15y − 10z + 40w = −45 na forma matricial é  5 15 −10 40  
Exemplo:
 z  = −45 .

x + 3y − z + 5w = −7
1 3 −1
5
−7
w
Consideremos então a matriz aumentada e o consequente método de eliminação de Gauss:




6
1 3 −1 5 −7
0 0
3
−9
 5 15 −10 40 −45  −→  1 3 −2 8 −9 
−→
L1 ↔L3
−L1 +L2 →L2
1 3 −1
5
−7
0
0
3
−9
6
1
L →L2
5 2




1 3 −1 5 −7
1 3 −1 5 −7
 0 0 −1 3 −2  .
−→
−→  0 0 −1 3 −2 
3L2 +L3 →L3
0 0 3 −9 6
0 0 0 0 0
x = −3y − 2w − 5
x + 3y − z + 5w = −7
. Podemos considerar y e w como as incógnitas
⇔
Logo,
z = 3w + 2.
−z + 3w = −2
livres (isto é podem tomar valores arbitrários) e as incógnitas x e z as não livres. O conjunto solução é:
S = {(−3y − 2w − 5, y, 3w + 2, w) : y, w ∈ R} .
(4)
Neste exemplo o sistema tem infinitas soluções
15. Teorema: Se x0 e x1 são duas soluções distintas x0 6= x1 do sistema Ax = b, então para cada escalar α,
x0 + α(x1 − x0 ) é uma solução de Ax = b. Mais, α 6= µ sse x0 + α(x1 − x0 ) 6= x0 + µ(x1 − x0 ).
Assim, p.ex., não há nenhum sistema linear com precisamente 2 soluções.
16. Classificação dos sistemas lineares:
• Impossı́veis (os que têm o conjunto-solução vazio),
• Possı́veis e Determinados (os que têm uma única solução),
• Possı́veis e Indeterminados (os que têm um número infinito de soluções).
Teorema: • Sistema Ax = b impossı́vel ⇐⇒ car(A) 6= car([A|b]),
• Sistema Ax = b determinado ⇐⇒ car(A) = car([A|b]) = número de colunas de A,
• Sistema Ax = b possı́vel e indeterminado ⇐⇒ car(A) = car([A|b]) 6= número de colunas de A.
Exemplos: O sistema linear associado

1 1
 1 1
0 0
a cada matriz aumentada seguinte





1
1 1 1
1 1 1
 1 1 1 ,
 1 2 1 
1 ,
1
0 0 0
0 0 0
é impossı́vel, possı́vel e indeterminado, possı́vel e determinado (respectivamente).
17. Sistema homogéneo é todo o sistema da forma Ax = 0, cuja matriz dos coeficientes (independentes) é a
matriz nula. Claro que qualquer sistema homogéneo é possı́vel, em que (x1 , ..., xn ) = (0, ..., 0) é uma solução.
5
18. Teorema: Seja S o conjunto solução do sistema Ax = b e x1 ∈ S. Seja ainda S0 o conjunto solução dos
sistema homogéneo associado Ax = 0. Então temos
S = x1 + S0 .
Exemplo: Na equação (4) obtivemos S = {(−3y − 2w − 5, y, 3w + 2, w) : y, w ∈ R}. Note que
(−3y − 2w − 5, y, 3w + 2, w) = (−5, 0, 2, 0) + (−3y − 2w, y, 3w, w).
O ponto x1 = (−50, 2, 0) é uma solução particular de Ax = b e S0 = {(−3y − 2w, y, 3w, w) : y, w ∈ R} é o
conjunto solução do sistema homogéneo.
19. Método de Gauss-Jordan:2 Sendo A invertı́vel, podemos aplicar operações elementares à matriz aumentada [A|I] de modo a transforma-la numa matriz na forma [I|B] (cf. (2)). Teorema: A−1 = B.




1 1 1
1 1 1 1 0 0
Exemplo: Seja A =  2 1 4 . Tem-se [A | I] =  2 1 4 0 1 0 
−→
−2L1 +L2 −→L2
2 3 5
2 3 5 0 0 1 −2L1 +L3 −→L3



1 1 1 1 0 0
1 1 1 1 0 0
 0 −1 2 −2 1 0 
 0 −1 2 −2 1 0  −→
−→
1
L2 +L3 −→L3
L −→L3
5 3
0 1 3 −2 0 1
0 0 5 −4 1 1



1 1
1
0
0
1 1 0 9/5 −1/5 −1/5
 0 −1 0 −2/5 3/5 −2/5 
−1 2 −2
1
0 
−→
−→
−2L3 +L2 −→L2
L2 +L1 −→L1
−4/5
1/5
1/5
0 1 −4/5 1/5 1/5
0
0
1
−L3 +L1 −→L1




1 0 0 7/5 2/5 −3/5
2/5 −3/5
1 0 0 7/5
 0 −1 0 −2/5 3/5 −2/5  −→  0 1 0 2/5 −3/5 2/5  .
−L2 −→L2
0 0 1 −4/5 1/5 1/5
0 0 1 −4/5 1/5
1/5


7/5
2/5 −3/5
−1

2/5 −3/5 2/5  .
é invertı́vel e A =
−4/5 1/5
1/5


1
 0
0
Portanto A
2
Determinantes
1. Dados os números naturais 1, 2, ..., n chama-se permutação desses n números a qualquer lista em que os mesmos
sejam apresentados por ordem arbitrária. Seja Sn o conjunto de todas as permutações dos números 1, 2, ..., n.
Assim, o conjunto Sn tem n! elementos. Seja (i1 i2 ...in ) uma permutação dos números naturais 1, 2, ..., n.
Diz-se que um par (ij ik ) é uma inversão quando ij e ik aparecerem na permutação por ordem decrescente.
Uma permutação (i1 i2 ...in ) diz-se par (ı́mpar) quando o no máximo de inversões incluı́das fôr par (ı́mpar).
Exemplos: S2 = {(12), (21)} cujo no de inversões é 0 e 1, respectivamente. Para n = 3 temos a seguinte tabela:
(123) (132) (213)
(231)
(312)
(321)
inversões
∅
(32)
(21) (21), (31) (31), (32) (32), (31), (21)
paridade par ı́mpar ı́mpar
par
par
ı́mpar
Seja A = [aij ] matriz quadrada n × n. Determinante3 de A é o escalar que se associa à matriz A e que
denotamos por det(A) ou |A| definido por:

 +1 se (j1 j2 ...jn ) é par
X
det(A) = |A| =
sign(σ)a1j1 a2j2 ...anjn ,
onde sign(σ) =

−1 se (j1 j2 ...jn ) é ı́mpar.
σ=(j1 j2 ...jn )∈Sn
Note que sign(σ1 ◦ σ2 ) = sign(σ1 )sign(σ2 ), onde ◦ designa a composição de permutações. Dado σ = (j1 ...jn )
existe uma única permutação (k1 ...kn ) tal que a1j1 a2j2 ...anjn = ak1 1 ak2 2 ...akn n e designa-se por σ −1 (inversa);
2
3
Marie Ennemond Camille Jordan 1838–1922
O Determinante de uma matriz foi pela primeira vez considerado por Talakazu Seki 1642–1708
6
mais, sign(σ −1 ) = sign(σ). Uma transposição τ é uma permutação que se obtém da trivial por troca de 2
posicões i e j; assim τ (k) = k para qualquer k ∈
/ {i, j}, τ (i) = j, τ (j) = i (é facil verificar que sign(τ ) = −1).
Exemplos:
a11
det
a21

a11
det  a21
a31

a11
 0

det  .
 ..
a12
a22
0
= a11 a22 − a12 a21 .

a12 a13
a22 a23  = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 .
a32 a33

a12 · · · a1n
a22 · · · a2n 

..
..  = a11 a22 ....ann (A matriz triangular superior).
. ···
. 
0
···
ann
Para matrizes elementares, temos
det(Pij ) = −1,
det(Ei (α)) = α,
det(Eij (α)) = 1.
2. Sejam A, B matrizes n × n e α um escalar. Então:
• Se B fôr obtida de A multiplicando uma linha de A por α então det B = α det A, i.e. para α 6= 0
det(A)
=
αLi →Li
α−1 det(B).
• Se B fôr obtida de A somando a uma linha de A um múltiplo α de uma outra linha de A então det B = det A:
det(A)
=
αLi +Lj →Lj
det(B).
• Se B fôr obtida de A trocando duas linhas de A então det B = − det A, i.e. para i 6= j
det(A)
=
Li ↔Lj
− det(B).
• det AT = det(A).
• Se A fôr invertı́vel det A−1 =
1
.
det(A)
• det (αA) = αn det(A).
• A invertı́vel se e só se det(A) 6= 0.
• det (AB) = det(A) det(B).
• Em geral, det(A + B) 6= det(A) + det(B).
Exemplo:
Aplicando
elementares

 operações

 tem-se: 
0 1 3
1 4 7
1





0 1 3
0
A= 1 4 7
−→
−→
L1 ↔L2
−2L1 +L2 →L2
2 1 −1
2 1 −1
0
pelo que det(A) = − det(U ) = −6. A matriz A é invertı́vel



4
7
1 4 7
 0 1 3  = U,
1
3 
−→
7L2 +L3 →L3
−7 −15
0 0 6
pois det(A) 6= 0.
3. Seja A = [aij ] matriz n × n. Seja Aij a matriz do tipo (n − 1) × (n − 1) que se obtém de A suprimindo a linha
i e a coluna j de A. Chama-se a Aij o menor-(i, j) da matriz A.
Fórmula de Laplace:
4
det A =
n
X
i+j
aij (−1)
det Aij
e
j=1
Exemplo: 4
7 0
0
3
2 1
0
4
0 −1 0 −2
1 0 −2 −3
7 0
0
= +2 2 1
4
0 −1 −2
det A =
n
X
aij (−1)i+j det Aij .
i=1
4
= 14 1
−1 −2
Pierre-Simon Laplace 1749–1827
7
= 14(−2 + 4) = 28.
4. Cálulo da matriz inversa usando os cofactores: A entrada (i, j) da matriz dos cofactores cof A de uma
matriz A é dada por: (cofA)i,j = (−1)i+j det(Aij ). A matriz adjunta de A é a matriz cofA)T e designa-se
por adj(A).
T
(−1)i+j
det(A )
ji
Teorema: (cofA)AT = A(cofA)T = det(A)I. Se A é invertı́vel então
(A−1 )i,j = (cofA)
.
det(A) =
det(A)
a b
Exemplo: Seja A =
∈ M2×2 (R). Então A é invertı́vel se e só se det A = ad − bc 6= 0 e nesse caso
c d
1
d −b
−1
A =
.
ad − bc −c a


−1
7 0
0
3
 2 1

0
4 


Exemplo: 
 0 −1 0 −2  =
1 0 −2 −3
1,4

− det

−1 det(A4,1 )
28
=
0 0 3
1 0 4
−1 0 −2
28




=
0
28
= 0.
5. (Regra de Cramer5 .) Seja A ∈ Mn×n (R) invertı́vel. Então a única solução do sistema de equações lineares
Ax = b é dada por
1
(cofA)T b.
x = A−1 b =
det A
T
T
Isto é, sendo x = x1 . . . xn
e b = b1 . . . bn
tem-se
xj =
det Bj
,
det A
onde Bj é a matriz obtida de A substituindo a coluna j de A pela matriz coluna b dos termos independentes.

 2x + y = 8
−x + 2y + 4z = 7 pode ser resolvido usando a regra de Cramer:
Exemplo: O sistema de equações lineares

−x + z = 1
2 8 0 2 1 8 8 1 0 −1 7 4 −1 2 7 7 2 4 −1 1 1 −1 0 1 1 0 1 = 13,
= −18
= 14.
y= e
z= x= 2 1 0 2 1 0 2 1 0 −1 2 4 −1 2 4 −1 2 4 −1 0 1 −1 0 1 −1 0 1 3
Espaços lineares
1. Seja V um conjunto não vazio munido com duas operações: soma entre elementos de V e produto de escalares
com elementos de V . Munido com estas operações, V é um espaço linear (ou vectorial) se os seguintes 10
axiomas forem satisfeitos:
(a) (Fecho da soma). Para quaisquer u, v ∈ V tem-se u + v ∈ V .
(b) (Fecho do produto por escalares). Para quaisquer α ∈ R e u ∈ V tem-se αu ∈ V .
(c) (Comutatividade da soma). Para quaisquer u, v ∈ V , u + v = v + u.
(d) (Associatividade da soma). Para quaisquer u, v, w ∈ V , u + (v + w) = (u + v) + w.
(e) (Elemento neutro da soma). Existe um elemento de V designado por 0 tal que, para qualquer u ∈ V ,
u + 0 = u.
(f) (Simétrico). Para cada (qualquer) u ∈ V existe v ∈ V tal que u + v = 0. A v chama-se o simétrico de u
e denota-se por −u.
5
Gabriel Cramer 1704–1752
8
(g) (Associatividade do produto por escalares). Para quaisquer α, β ∈ R e u ∈ V , α (βu) = (αβ) u.
(h) (Distributividade em relação à soma de vectores). Para quaisquer α ∈ R e u, v ∈ V , α (u + v) = αu + αv.
(i) (Distributividade em relação à soma de escalares). Para quaisquer α, β ∈ R e u ∈ V , (α + β) u = αu + βu.
(j) Para qualquer u ∈ V , 1u = u.
Se os escalares forem os reais, então dizemos que V é um espaço linear sobre R.
Se os escalares forem os complexos, então dizemos que V é um espaço linear sobre C.
Por defeito, estaremos a trabalhar com espaços lineares reais.
2. Seja U um subconjunto, não vazio, de um espaço linear V . Dizemos que U é um subespaço linear de V se U
é um espaço linear, munido pelas mesmas operações de V .
Teorema: U é um subespaço linear de V se e só se:
• 0 ∈ U,
• u, v ∈ U =⇒ u + v ∈ U ,
• α escalar, u ∈ U =⇒ αu ∈ U .
Exemplos: • V = Rn é um espaço linear munido com a soma vectorial e multiplicação usuais.
• V = Cn é um espaço linear munido com a soma vectorial e multiplicação por reais usuais.
• V = Cn é um espaço linear munido com a soma vectorial e multiplicação por complexos usuais.
• O conjunto dos polinómios Pn com coeficientes reais de grau menor ou igual a n é um espaço linear.
• O conjunto dos polinómios P com coeficientes reais.
• O conjunto V = {f : R → R} das funções reais de variável real é um espaço linear munido com a soma de
funções e multiplicação de escalares por funcções usuais (i.e., (f + g)(t) = f (t) + g(t), (αf )(t) = αf (t)).
• O conjunto Mm×n (R) das matrizes reais m × n é um espaço linear com a soma matricial e multiplicação
por escalares definidas no Capı́tulo 1.
Exemplos de subespaços lineares: • Se V é um espaço linear, então V e {0} são subespaços lineares de V .
• U = {(x, y, z) ∈ R3 : x − y + 4z = 0, x + 3y = 0} é subsespaço linear de R3 .
• U = {p(t) ∈ P2 : p(2) = 0} é um subespaço linear de P2 .
• Seja A matriz real 2 × 2. Então U = {X ∈ M2×2 (R) : AX = XA} é um subespaço linear de M2×2 (R).
3. Núcleo de uma matriz: Seja A ∈ Mm×n (R). O núcleo de A é o conjunto de solução do sistema homogéneo
associado à matriz A e designa-se por N (A), i.e.
N (A) = {u ∈ Rn : Au = 0}.
Teorema: N (A) é um subespaço linear de Rn .
Exemplo: Seja U = {(x, y, z, w) ∈ R4 : x
− 2y + 3z + 4w =
0, 7x − w = 0}. Então U é um subespsço linear de
1
−2
3
4
R4 , uma vez que U = N (A) onde A =
.
7 0 0 −1
4. Combinação linear: Um vector v ∈ V é combinação linear de uma lista de vectores v1 , ..., vk se existirem
escalares α1 , ..., αk tais que
α1 v1 + α2 v2 + ... + αk vk = v.
O conjunto de todas as combinações lineares de v1 , ..., vk é designado por L({v1 , ..., vk }). Teorema: L({v1 , ..., vk })
é um subespaço linear de V . Mais, é o menor subespaço linear de V que contém os vectors v1 , ..., vk e que
também é designado por subespaço gerado (ou expansão linear) por v1 , ..., vk .
P.ex., v1 ∈ L({v1 , ..., vk }), pois v1 = 1v1 + 0v2 + ... + 0vk . O vector nulo 0 ∈ L({v1 , ..., vk }).
Se vk+1 ∈ L({v1 , ..., vk }), então L({v1 , ..., vk }) = L({v1 , ..., vk , vk+1 }).
Se v1 6= 0, L({v1 }) é uma recta. Se v1 e v2 não são colineares em R3 , L({v1 , v2 }) é um plano.
9
Exemplo: • Se V = Rn , então v ∈ L({v1 , ..., vk }) se e só se o sistema Ax = b é possı́vel onde as colunas de A
são formadas pelas vectores v1 , ..., vk e b é o vector v escrito em coluna (A é do tipo n ×k).

−1 1 0 −1
2 1 2 
• (−1, 2, 7) ∈ L({(−1, 1, 6), (1, 2, −3), (0, 1, 1)}) pois o sistema cuja matriz aumentada é  1
6 −3 1 7
é possı́vel. Analogamente, podemos verificar que (1, 2, 7) ∈
/ L({(−1, 1, 6), (1, 2, −3), (0, 1, 1)}).
• Como (0, 1, 1) = 13 (−1, 1, 6)+ 31 (1, 2, −3), temos L({(−1, 1, 6), (1, 2, −3), (0, 1, 1)}) = L({(−1, 1, 6), (1, 2, −3)}).
5. Espaço das colunas e das linhas de uma matriz: Seja A matriz m × n. O subespaço linear de Rn
gerado pelas linhas de A é o espaço linhas de A e designado por L(A) ou LA . O subespaço linear de Rm
gerado pelas colunas de A é o espaço colunas de A e designado por C(A) ou CA . Note que v ∈ C(A) se
v = Au para algum vector u, pois









a11 a12 · · · a1n 
a1n
a11
v1
 a21 a22 · · · a2n  u1
 . 
 . 
 . 

 .. 
 .  = Au =  ..
..
..   ..  = u1  ..  + ... + un  ..  .
 .
.
···
. 
amn
am1
un
vm
am1 am2 · · · amn
Assim, CAT = LA e LAT = CA .
−1 1 0
Exemplo: • A =
, temos LA = L({(−1, 1, 0), (1, 2, 1)}) e CA = L({(−1, 1), (1, 2), (0, 1)}).
1 2 1
• Se V = L({v1 , ..., vk }) subespaço de Rn , então V = C(A) onde as colunas de A são os vectores v1 , ..., vk .
6. Intersecção e soma de subespaços lineares: Se V1 , V2 são subespaço lineares de V , sejam
V1 ∩ V2 = v ∈ V : v ∈ V1 e v ∈ V2 ,
V1 + V2 = v ∈ V : v = v1 + v2 com v1 ∈ V1 , v2 ∈ V2 .
Teorema: V1 ∩ V2 e V1 + V2 são subespaços lineares de V .
Dizemos que V1 e V2 estão em soma directa se V1 ∩ V2 = {0}; e escrevemos V1 ⊕ V2 para designar V1 + V2 .
Se V1 = L(S1 ) e V2 = L(S2 ) então V1 + V2 = L(S1 ∪ S2 ).
Note que a união de subespaços lineares, em geral, não é subespaço linear.
Exemplos: • Se V1 = L({(−1, 1, 0), (1, 2, 1)}) e V2 = {(x, y, z) ∈ R3 : y + z = 0, −x − y + 3z = 0}. Vamos
descrever V1 através de equações lineares homogéneas e descrever V2 como a expansão linear de vectores. Ora
v = (x, y, z) ∈ V1 sseexistirem escalares
α1 , α2 tais que α1 (−1, 1, 0) + α2 (1, 2, 1) = v, i.e. se o sistema cuja

−1 1 x
matriz aumentada é  1 2 y  for possı́vel. Usando o método de eliminação de Gauss temos:
0 1 z







−1 1
x
−1 1
x
−1 1
x
−1 1 x
 1 2 y  −→  0 3 x + y  −→  0 1
.
z  −→  0 1
z
0 1 z
0 1
z
0 3 x+y
0 0 x + y − 3z

(5)
Portanto (x, y, z) ∈ V1 se e só se x + y − 3z = 0; pelo que V1 = {(x, y, z) ∈ R3 : x + y − 3z = 0}. Relativamente
a V2 , em primeiro lugar temos que encontrar as variáveis livres do sistema homogéneo associado. Podemos
considerar z como livre e vem y = −z e x = −y +3z = 4z. Portanto v = (x, y, z) ∈ V2 se e só se v = (4z, −z, z);
como (4z, −z, z) = z(4, −1, 1) podemos concluir que V2 = L({(4, −1, 1)}). Assim
V1 ∩ V2 = {(x, y, z) ∈ R3 : x + y − 3z = 0, y + z = 0, −x − y + 3z = 0} e
V1 + V2 = L({(−1, 1, 0), (1, 2, 1), (4, −1, 1)}).
• Em R3 , considere os subespaços:
U = L ({(1, −1, 1), (1, 2, 2)})
e V = L ({(2, 1, 1), (−1, 1, 3)}) .
Seja v ∈ U , então
v = α(1, −1, 1) + β(1, 2, 2) = (α + β, −α + 2β, α + 2β),
10
com α, β ∈ R. Para que v esteja também em V é preciso que:
v = (α + β, −α + 2β, α + 2β) = λ(2, 1, 1) + µ(−1, 1, 3) = (2λ − µ, λ + µ, λ + 3µ) ,

 α + β = 2λ − µ
−α + 2β = λ + µ Considerando a matriz aumentada tem-se
com λ, µ ∈ R. Deste modo,

α + 2β = λ + 3µ.






1 1 2λ − µ
1 1
2λ − µ
1 1 2λ − µ
 −1 2 λ + µ 
 0 3


 0 3
3λ
3λ
−→
−→
L1 +L2 →L2
− 13 L2 +L3 →L3
1 2 λ + 3µ −L1 +L3 →L3 0 1 −λ + 4µ
0 0 −2λ + 4µ
Logo,


 α=µ
 α + β = 2λ − µ
β = 2µ
β=λ
⇐⇒


λ = 2µ.
0 = −2λ + 4µ.
Assim, v = α(1, −1, 1) + β(1, 2, 2) = µ(1, −1, 1) + 2µ(1, 2, 2) = (3µ, 3µ, 5µ) = µ(3, 3, 5). Logo,
U ∩ V = {(3µ, 3µ, 5µ) : µ ∈ R} ={µ(3, 3, 5) : µ ∈ R} = L ({(3, 3, 5)}) .
7. Vectores geradores: S = {v1 , ..., vk } gera V se qualquer vector de V for combinação linear de vectores de
S, i.e. se V = L({v1 , ..., vk }).
Teorema: Sejam S1 ⊂ S2 subconjuntos de um espaço linear V . Então S2 gera V se S1 gera V .
Se S = {v1 , ..., vk } são vectores de Rn então S gera V se e só se o sistema Ax = b for possı́vel para todo o
vector (coluna) b ∈ V , onde as colunas de A são formadas pelos vectors de S.
2
Exemplos:
• Os vectores v1 = (1, 0), v2 = (0, 1) geram R , porque o sistema cuja matriz aumentada é
1 0 x
é possı́vel para qualquer b = (x, y) ∈ R2 !
0 1 y
1 2 x
2
• Os vectores v1 = (1, 1), v2 = (2, 2) não geram R , porque o sistema cuja matriz aumentada é
1 2 y
não é possı́vel para qualquer b = (x, y) ∈ R2 ! Os vectores geram o subespaço definido pela equação x − y = 0,
i.e.
1), (2, 2)}) = {(x, y) ∈ R2 : x − y = 0} uma vez que o sistema cuja matriz aumentada é
V = L({(1,
1 2 y
é possı́vel para qualquer b = (y, y) ∈ V !
1 2 y


−1 2 x
• Os vectores v1 = (−1, 1, 0), v2 = (1, 2, 1) não geram R3 pois o sistema  1 2 y  não é possı́vel para
0 1 z
qualquer b = (x, y, z) ∈ R3 . Os vectores geram o subespaço linear {(x, y, z) ∈ R3 : x + y − 3z = 0}; ver (5).
8. Independência linear: v1 , ..., vk dizem-se linearmente independentes se:
α1 v1 + α2 v2 + .... + αk vk = 0 =⇒ α1 = α2 = ... = αk = 0.
Caso contrário, os vectores dizem-se linearmente dependentes.
Teorema: Se S1 ⊂ S2 subconjuntos de um espaço linear V . Então os vectores de S1 são linearmente
independentes se os de S2 o forem.
Se v1 , ..., vk ∈ Rn então os vectores v1 , ..., vk são linearmente independentes sse o sistema homogéneo Ax = 0
for determinado, i.e. car(A) = k, onde as colunas de A são os vectores de v1 , ..., vk .
1 0
Exemplos: • (1, 0), (0, 1) são linearmente independentes pois car
= 2 (neste caso k = 2).
0 1
1 0 2
• (1, 0), (0, 1), (2, 2) são linearmente dependentes pois car
= 2 (neste caso k = 3).
0 1 2
11


1 0
• (1, 1, 1), (0, 1, 1) são linearmente independentes pois car 1 1  = 2 (neste caso k = 2).
1 1


1 0 0
• (1, 1, 1), (0, 1, 1), (0, 0, 1) são linearmente independentes pois car 1 1 0  = 3 (neste caso k = 3).
1 1 1


1 0 0 1
• (1, 1, 1), (0, 1, 1), (0, 0, 1), (1, 2, 3) são linearmente dependentes pois car 1 1 0 2  = 3 (k = 4).
1 1 1 3
9. Base e Dimensão: v1 , v2 , ..., vk é uma base de V se:
• v1 , v2 , ..., vk geram V e
• v1 , v2 , ..., vk são linearmente independentes.
Teorema: • Sejam B1 e B2 duas bases de V , então o número de vectores de B1 é igual ao número de vectores
de B2 (eventualmente infinito).
• Dado um espaço linear sobre os reais ou complexos, então existe uma base de V .
A dimensão, dim(V ), de V é o número de vectores de uma base de V , p.ex. se B = {v1 , ..., vk } é uma sua base,
dim(V ) = k.
Teorema: Se U é um subespaço de V , então dim(U ) ≤ dim(V ).
Teorema: Seja U = L({v1 , v2 , ..., vk }). Se v1 , v2 , ..., vk são linearmente independentes, então dim(V ) = k e
{v1 , v2 , ..., vk } é uma base para U .
Exemplos: • dim (Rn ) = n, dim(Mm×n (R)) = mn, dim (Pn ) = n + 1, dim (P) = +∞.
• {(1, 0), (0, 1} é uma base de R2 (designada base canónica de R2 ).
• {(1, 1), (1, −1} é uma base de R2 .
• {(1, 1), (1, 1} não é uma base de R2 .
• {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é uma base de R3 (designada base canónica de R3 ).
• {(1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 1)} não é uma base de R3 .
• {1, t, t2 , t3 } é uma base de P3 (designada base canónica de P3 ).
• C2 é um espaço linear usando C como os escalares. Neste caso dim(C2 ) = 2 e {(1, 0), (0, 1)} é base de C2 .
• C2 é um espaço linear usando R como os escalares. Neste caso dim(C2 ) = 4 e {(1, 0), (0, 1), (i, 0), (0, i)} é
uma base de C2 .
10. Teorema de Steinitz: Sejam v1 , ..., vk um conjunto de vectores linearmente independentes num espaço linear
V de dimensão finita. Então existe uma base de V que inclui os vectores v1 , ..., vk .
Para vectores em Rn , considere u1 , ..., up uma base para V e seja A a matriz cujas colunas são formadas pelos
vectores v1 , ...., vk , u1 , .., up (escritos por esta ordem e em coluna). Então V = C(A) e uma base para C(A)
inclui os vectores v1 , ..., vk pois as colunas na matriz final em escada de linhas tem pivôs nas primeiras k
colunas (pois v1 , ..., vk são linearmente independentes).
11. Identidade de Grassman6 ou Teorema das Dimensões: Sejam V1 e V2 subespaços lineares de dimensão
finita de um espaço linear V . Então temos:
dim(V1 + V2 ) = dim(V1 ) + dim(V2 ) − dim(V1 ∩ V2 ).
Para subespaços de Rn podemos considerar uma base {u1 , ..., up } de V1 ∩V2 . Em seguida completamos, usando
o teorema de Steinitz, esta base e assim obtém-se {u1 , ..., up , v1 , ...vk } base W1 e {u1 , ..., up , w1 , ...wr } base de
V2 . Considerando a matriz A cujas linhas são os vectores u1 , ..., up v1 , ...vk , w1 , ...wr , facilmente se conclui que
car(A)=dim(V1 + V2 ) e portanto a identidade de Grassman.
12. Bases e dimensão para núcleo, espaço linhas e espaço colunas de uma matriz: Seja A uma matriz
m × n e vamos supor que é transformada numa matriz em escada de linhas U usando o método de Gauss.
6
Hermann Grassmann 1809–1877
12
Teorema:
N (A) = N (U ), L(A) = L(U ) e
car(A) = dim(C(A)) = dim(L(A)),
car(A) + dim(N (A) = no de colunas de A e car(A)=car(AT ).
É óbvio que L(A) = L(U ) e N (A) = N (U ). Além disso, se U é uma matriz em escada de linhas então as
suas linhas não nulas são vectores linearmente independentes, pelo que car(A) =dimL(A) e que car(A) +
dim(N (A)) = n. Vamos provar que dim(C(A)) = dim(L(A)). Seja k = car(A), R1 , ...Rk as linhas não nulas
de U e L1 , ..., Lm as linhas de A. Como L(A) = L(U ), existem escalares cij tais que
L1 = c11 R1 + ... + c1k Rk ,
..., Lm = cm1 R1 + ... + cmk Rk .
Para i = 1, ..., m, sejam aij e rij as componentes j das linhas Li e Ri respectivamente. Assim tem-se,
a1j = c11 r1j + ... + c1k rkj ,
ou matricialmente
...,
amj = cm1 r1j + ... + cmk rkj ,






a1j
c11
c1k
 .. 
 . 
 . 
 .  = r1j  ..  + ... + rkj  ..  .
amj
cmk
cmk


a1j


Como  ...  é a coluna j de A, a última igualdade prova que dimC(A) ≤ dimL(A). Aplicando esta desigualamj
dade à matriz AT obtém-se dimC(AT ) ≤ dimL(AT ), i.e. dimL(A) ≤ dimC(A). Portanto dimC(A) = dimL(A).
Também podemos concluir que car(A)=car(AT ).
Teorema: N (A) ∩ L(A) = {0}, L(A) + N (A) = Rn .
• Uma base para L(A) = linhas não nulas de U .
• Uma base para C(A) = colunas da matriz inicial A que correspondem às colunas de U com pivô.
• Uma base para N (A) = vectores envolvidos na escrita do vector geral do conjunto solução do sistema
homogéneo U x = 0 (escolhendo para variáveis livres aquelas que correspondem às colunas de U sem pivô).
Para provar N (A) ∩ L(A) = {0} basta ver que N (AT ) ∩ C(A) = {0}. Seja v ∈ N (AT ) ∩ C(A) (uT e v T são
uma matrizes coluna). Então AT v T = 0 existe u tal que v T = AuT . Logo
X
0 = u(AT v T ) = (uAT )v T = vv T =
vi2 ,
pelo que v1 = ... = vm

1
Exemplo: A =  −1
1
= 0, i.e. v = 0.





1
1 −1
1 1 1 −1
1 1 1 −1
−1 −1 1  −→  0 0 0 0  −→  0 0 1 2  = U.
1
2
1
0 0 1 2
0 0 0 0
Como car(A) = 2 temos dim(L(A)) = C(A) = 2 e dim(N (A)) = n − 2 = 2.
Assim, {(1, 1, 1, −1), (0, 0, 1, 2)} é uma base para L(A) e {(1, −1, 1), (1, −1, 2)} é uma base para C(A).
Finalmente, N (A) = N (U ) e podemos considerar as variáveis y e w livres, obtendo z = −2w, x = −y −z +w =
−y + w. Portanto N (A) = {(−y + w, y, −2w, w) ∈ R4 : y, w ∈ R} e como
(−y + w, y, −2w, w) = y(−1, 1, 0, 0) + w(1, 0, −2, 1)
temos que {(−1, 1, 0, 0), (1, 0, −2, 1)} é uma base para N (A).
13. Coordenadas de um vector numa base: Seja B = {v1 , v2 , ..., vk } uma base ordenada de V (i.e. uma
base de V onde se fixou uma ordem nos vectores dessa base) e seja v ∈ V . As coordenadas do vector v na
base B são os (únicos) escalares α1 , α2 , ..., αk da combinação linear:
v = α1 v1 + α2 v2 + ... + αk vk .
13
Designamos por vB = (α1 , ..., αk ) as coordenadas de v em B.
Exemplos: • Seja B = {(1, 0), (0, 1)} a base canónica de R2 . As coordenadas vB do vector v = (x, y) em B
coincidem com v, pois (x, y) = x(1, 0) + y(0, 1).
x−y
• Seja B = {(1, 1), (1, −1)} base de R2 . As coordenadas vB de um vector v = (x, y) em B são vB = ( x+y
2 , 2 ),
x−y
x+y
pois (x, y) = 2 (1, 1) + 2 (1, −1).
• Seja B = {(1, 1, 0), (1, −1, 0)} uma base para o subespaço V de R3 . As coordenadas vB de v = (3, −1, 0) na
base B são vB = (1, 2), porque v = 1(1, 1, 0) + 2(1, −1, 0).
Matriz mudança de base: Sejam B1 = {v1 , v2 , . . . , vn } e B2 = {w1 , w2 , . . . , wn } duas bases ordenadas de
V . Seja SB1 →B2 a matriz cujas colunas são as coordenadas dos vectores de B1 em relação à base B2 . Isto é,
SB1 →B2 = [sij ]n×n
com
vj =
n
X
sij wi
para todo o j = 1, ..., n.
i=1
A matriz SB1 →B2 é invertı́vel e chama-se matriz de mudança de base (da base B1 para B2 ). Se
v = α1 v1 + ... + αn vn ,
isto é, se (α1 , ..., αn ) forem as coordenadas do vector u na base B1 então as coordenadas (β1 , ..., βn ) de v na
base B2 são dadas por








β1
α1
α1
β1
 .. 
 . 
 . 
 . 
−1
−1
 .  = SB1 →B2  ..  ,  ..  = SB2 →B1  ..  , SB1 →B2 = SB2 →B1 , SB2 →B1 = SB1 →B2 .
βn
αn
αn
βn
Exemplo: Sejam B1 = {(1, 0), (0, 1)} e B2 = {(1, 1), (1, −1)} duas bases ordenadas de R2 . Temos
−1
1 1 1
1 1
1 1
.
SB2 →B1 =
e SB1 →B2 =
=
1 −1
1 −1
2 1 −1
Finalmente, para v = (x, y), temos vB1 = (x, y) e para calcular vB2 podemos usar SB1 →B2 :
x+y x + y x − y
x
2
,
i.e. vB2 =
,
.
SB1 →B2
= x−y
y
2
2
2
4
Valores e vectores próprios para matrizes
1. Valores e vectores próprios: Seja A matriz quadrado n × n. Um vector u não nulo tal que
Au = λu
(para algum escalar λ)
diz-se vector próprio de A e λ diz-se o valor próprio associado.
p(λ) = det(A − λI) é o polinómio caracterı́stico de A; p(λ) é de facto um polinómio de grau n, em que
det(A) e o coeficiente do termo independente e (−1)n é o coeficiente do termo de grau n.
Espectro de A é o conjunto de todos os valores próprios de A e designa-se por σA .
Teorema: λ é valor próprio de A se e só se λ for zero do polinómio caracterı́stico.
Multiplicidade algébrica, ma (λ), de um zero λ de p(λ) é o número de vezes que λ é zero do polinómio.
A soma das multiplicidades algébricas de todos os valores próprios de A é igual a n.
Se A for matriz real, os coeficientes de p(λ) são todos reais, mas os zeros de p(λ) são números complexos.
Exemplos: • Se

1
• Se A =  1
1
próprios λ1 = 0
A é do tipo 2 × 2, então p(λ) = λ2 − tr(A)λ + det(A).



1 1
1−λ
1
1
1 1 ; p(λ) = det  1
1−λ
1  = −λ2 (λ − 3). Portanto A tem dois valores
1 1
1
1
1−λ
e λ2 = 3; ma (λ1 ) = 2 (zero duplo) e ma (λ2 ) = 1 (zero simples).
14
2. λ = 0 valor próprio de A se e só se A não invertı́vel.
3. Espaço próprio associado ao valor próprio λ é Eλ = N (A − λI). Os vectores não nulos de Eλ são os vectores
próprios de A associados ao valor próprio λ.
Mutliplicidade geométrica, mg (λ), de λ é igual à dim(Eλ ). Então
λ valor próprio de A ⇐⇒ det(A − λI) = 0 ⇐⇒ A − λI não invertı́vel ⇐⇒ dim(Eλ ) 6= 0 ⇐⇒ λ ∈ σA .
Teorema: Em geral temos 1 ≤ mg (λ) ≤ ma (λ).


1 1 1
Exemplo: A =  1 1 1 ; Eλ1 = N (A − 0I) =
1 1 1

−2

1
uma base para Eλ1 . Eλ2 = N (A − 3I) = N
1
base para Eλ2 . Assim, mg (λ1 ) = 2 e ma (λ2 ) = 1.

1 1 1
N (A) = N  0 0 0
0 0 0


1
1
1


−2 1
=N 0
1 −2
0

, portanto {(−1, 1, 0), (−1, 0, 1)} é

1 −2
1 −1 , portanto {(1, 1, 1)} é uma
0 0
Teorema: Se A tiver valores próprios distintos λ1 , ..., λr e se u1 , ..., ur forem vectores próprios associados,
então u1 , ..., ur são linearmente independentes.
4. A e B dizem-se semelhantes se existir uma matriz S invertı́vel tal que B = SAS −1 .
A diz-se diagonalizável se existir uma matriz diagonal D e uma matriz P invertı́vel: D = P AP −1 .
Teorema: A diagonalizável sse mg (λ) = ma (λ) para cada valor próprio λ de A.
Teorema: A diagonalizável sobre os reais sse existe uma base de Rn formada por vectores próprios de A.



Nestas condições D = 

λ1
0
..
.
0
0
λ2
..
.
0
···
···
···
···
0
0
..
.
λn

 em que λ1 , ..., λn são os valores próprios de A, incluindo as respec
tivas multiplicidades algébricas, e as colunas de P −1 são os vectores de bases dos espaços próprios associados.
Assim, temos:
Teorema: P = SBvp →Bc , P −1 = SBc→Bvp onde Bc é a base canónica e Bvp é uma base formada por vectores
próprios de A e P −1 D = AP −1 , i.e:
D = P AP −1 .
Note que se D = P AP −1 ,

1 1
Exemplos: • A =  1 1
1 1
então A = P −1 DP , A2 = P −1 D2 P, ..., Ak = P −1 Dk P para cada k ∈ N.

1
1 ; A diagonalizável pois mg (λ1 ) = ma (λ1 ) e mg (λ2 ) = ma (λ2 ). Mais,
1




0 0 0
−1 0 1
D =  0 0 0  , S −1 =  1 −1 1  .
0 0 3
0
1 1
4 1
0 1
2
•A=
; p(λ) = (λ − 4) , λ1 =4 valor próprio com ma (λ1 ) = 2 e Eλ1 = N (A − 4I) = N
, pelo
0 4
0 0
que {(1,
0)} é uma
base para Eλ1 e mg (λ1 ) = 1. Assim, mg (λ1 ) 6= ma (λ1 ) e portanto A não é diagonalizável.
0 −1
•A=
; p(λ) = λ2 + 1, pelo λ1 = i e λ2 = −i são os valores próprios (complexos) de A. Assim, A
1 0
não é diagonalizável enquanto matriz real. A matriz A é diagonalizável enquanto matriz complexa.
Teorema: Se ma (λ) = 1 para todos os valores próprios λ de A, então A é diagonalizável.
15
5
Transformações lineares
1. Sejam V1 , V2 espaços lineares. Uma função T : V1 → V2 é uma transformação linear se
• T (u + v) = T (u) + T (v) para quaisquer u, v ∈ V1 e
• T (αu) = αT (u) para qualquer u ∈ V1 e escalar α.
Exemplos: • T : R2 → R3 tal que T (x, y) = (2x − y, x, 4y) é uma transformação linear.
• Seja A matriz real m × n. Então T : Rn → Rm definida por T (u) = Au é uma transformação linear.
• Seja T : R2 → R2 transformação linear tal que T (1, 1) = (3, 4) e T (1 − 1) = (0, 0). Vamos determinar
T (x, y) para um vector (x, y) qualquer. Em primeiro lugar determine-se as coordenadas de (x, y) na base
x−y
{(1, 1), (1, −1)}. Temos (x, y) = x+y
2 (1, 1) + 2 (1, −1); por outro lado usando o facto de T ser uma transformação linear, temos
T (x, y) = T
x+y
x+y
x−y
x−y
(1, 1) +
(1, −1) =
T (1, 1) +
T (1, −1) =
2
2
2
2
=
x+y
x−y
3x + 3y 4x + 4y
(3, 4) +
(0, 0) = (
,
).
2
2
2
2
• T (p(t)) = p(1) + t(p(t)0 ) é uma transformação linear T : P5 → P5 .
• T(X) =
X+X T
2
é uma transformação linear T : Mn×n (R) → Mn×n (R).
2. N (T ) = {u ∈ V1 : T (u) = 0} é o núcleo da transformação linear T e I(T ) = {T (u), u ∈ V1 } é a imagem (ou
contradomı́nio) de T .
Teorema: N (T ) subespaço linear de V1 e I(T ) subespaço linear de V2 .
Exemplo: Se T : Rn → Rm é dada por T (u) = Au. Então N (T ) = N (A) e I(T ) = C(A).
Teorema: Dada T : V1 → V2 transformação linear, tem-se
• T injectiva se e só se N (T ) = {0}.
• T sobrejectiva se e só se I(T ) = V2 .
Se T for injectiva e sobrejectiva então dizemos que T é um isomorfismo entre V1 e V2 . Escrevemos V1 ' V2
se existir um isomorfismo entre V1 e V2 .
3. Sejam U e V espaços lineares de dimensões finitas, dim U = n e dim V = m. Sejam B1 = {u1 , u2 , . . . , un }
e B2 = {v1 , v2 , . . . , vm } bases ordenadas de U e V respectivamente. Seja T : U → V uma transformação
linear. Considere-se a matriz A = (aij )m×n ∈ Mm×n (R) cuja coluna j, para cada j = 1, ..., n, é formada pelas
coordenadas de T (uj ) na base B2 . Isto é,
T (uj ) =
m
X
aij vi .
i=1
Chama-se a esta matriz A a representação matricial de T em relação às bases B1 e B2 e escreve-se
A = M (T ; B1 ; B2 ).
Teorema: Sendo α1 , α2 , ..., αn as coordenadas de um vector u ∈ U na base ordenada B1 então as coordenadas
β1 , β2 , ..., βm de T (u) ∈ V na base ordenada B2 são dadas por




β1
α1
 β2 
 α2 




 ..  = M (T ; B1 ; B2 )  ..  .
 . 
 . 
βm
αn
Exemplos: • Para a transformação identidade I : V → V tal que I(u) = u, tem-se M (I; B1 ; B2 ) = SB1 →B2 .
16
3
2
• T : R3 → R2 tal que T
(x, y, z) = (2x − y, x + 3y − z); B1 a base canónica de R e B2 a base canónica de R ;
2 −1 0
então M (T ; B1 ; B2 ) =
pois T (1, 0, 0) = (2, 1), T (0, 1, 0) = (−1, 3) e T (0, 0, 1) = (0, −1).
1 3 −1
• Fixando uma matriz Am×n , seja T : Rn → Rm definida por T (u) = Au. Então M (T ; B1 , B2 ) = A onde B1
e B2 são as bases canónicas de Rn e Rm , respectivamente.
• Seja T : R2 → R2 definida por T (x, y) = (4x − 2y, 2x + 6y). Vamos fixar a mesma base no espaço de partida
e no espaço de chegada, B = {(1, 1), (1, −1)}. Assim,
T (1, 1) = (2, 8) = 5(1, 1) − 3(1, −1),
5 1
e portanto M (T ; B; B) =
.
−3 5
T (1, −1) = (6, −4) = 1(1, 1) + 5(1, −1)
4. Teorema: • Se T1 : V1 → V2 e T2 : V2 → V2 são transformações lineares e α é um escalar, então T1 + T2 e
αT1 também s ao transformações lineares e
M (T1 + T2 ; B1 ; B2 ) = M (T1 ; B1 ; B2 ) + M (T2 ; B1 ; B2 ),
M (αT1 ; B1 ; B2 ) = αM (T1 ; B1 ; B2 ).
• Se T1 : V1 → V2 e T2 : V2 → V3 são transformações lineares; B1 , B2 , B3 bases de V1 , V2 , V3 respectivamente,
e A1 = M (T1 ; B1 ; B2 ), A2 = M (T2 ; B2 ; B3 ). Então a composição T2 ◦ T1 é uma transformação linear e
M (T2 ◦ T1 ; B1 ; B3 ) = A2 A1 .
Se T : V → V transformação linear e B1 , B2 bases de V , A = M (T ; B1 ; B1 ), B = M (T ; B2 ; B2 ) e S = SB1 →B2 .
Então T = I ◦ T ◦ I −1 e
B = SAS −1 .
(6)
2
Exemplo: Seja T : R2 → R2 definida por T (x, y) = (4x − 2y, 2x + 6y) e B1 a base canónica
de R e
4 −2
B2 = {(1, 1), (1, −1)}. Como T (1, 0) = (4, 2) e T (0, 1) = (−2, 6), temos A = M (T ; B1 ; B1 ) =
.
2 6
Mais,
−1
1 1 1
1 1
1 1
−1
S := SB2 →B1 =
, S = SB1 →B2 =
=
.
1 −1
1 −1
2 1 −1
5 1
1 1
4 −2
1 1
1
−1
.
=
Portanto B = M (T ; B2 ; B2 ) = SAS = 2
−3 5
1 −1
2 6
1 −1
• Seja T1 : R2 → R2 definida por T1 (x, y) = (4x−2y, 2x+6y), T : R2 → R3 definida por T2 (x, y) = (x−2y,
2x+
4
−2
2
3
3y, x) e B1 = B2 a base canónica de R e B3 a base canónica de R . Então A1 = M (T1 ; B1 ; B2 ) =
2 6


1 −2
e A2 = M (T2 ; B2 ; B3 ) =  2 3 . Assim
1 0




1 −2 0 −14
4 −2
M (T2 ◦ T1 ; B1 ; B3 ) = A2 A1 =  2 3 
=  14 14  .
2 6
1 0
4 −2
Em particular, temos (T2 ◦ T1 )(x, y) = (−14y, 14x + 14y, 4x − 2y).
5. Sejam U e V dois espaços lineares de dimensões finitas. Seja T : U → V uma transformação linear. Sejam S1
e S10 duas bases ordenadas de U . Sejam S2 e S20 duas bases ordenadas de V . Seja M (T ; S1 ; S2 ) a matriz que
representa T em relação às bases S1 e S2 .
Então, a matriz M (T ; S10 ; S20 ) que representa T em relação às bases S10 e S20 , é dada por
−1
M (T ; S10 ; S20 ) = SS2 →S20 M (T ; S1 ; S2 ) SS1 →S10
,
17
(7)
onde SS2 →S20 e SS1 →S10 são as matrizes de mudança das bases S2 para S20 e de S1 para S10 respectivamente.
Note que (6) é um caso muito particular de (7). Assim, o diagrama seguinte é comutativo.
(U, S1 )
M (T ;S1 ;S2 )
−→
T
SS1 →S10 ↓ I
(U, S10 )
(V, S2 )
I ↓ SS2 →S20
T
−→
M (T ;S10 ;S20 )
(V, S20 )
6. Teorema: Se T : V1 → V2 é um isomorfismo e A = M (T ; B1 ; B2 ), então T −1 é uma transformação linear e
M (T −1 ; B2 ; B1 ) = A−1 .
2
Exemplo: Seja T : R2 → R2 definida
por
T (x, y) = (4x−2y, 2x+6y) e B a base canónica de R (B =B1 = B2).
4 −2
3 1
1
Temos A = M (T ; B; B) =
, e A é invertı́vel e portanto M (T −1 ; B; B) = A−1 = 14
.
2 6
−1 2
−x+2y
Assim, T −1 (x, y) = ( 3x+y
14 ,
14 ).
7. Teorema: Seja T : V1 → V2 uma transformação linear.
• Se v1 , .., vk geram V1 , então T (v1 ), ..., T (vk ) geram I(T ).
• Se T é injectiva e v1 , .., vk são linearmente independentes, então T (v1 ), ..., T (vk ) também são linearmente
independentes.
Teorema: T : V1 → V2 e A = M (T ; B1 ; B2 ). Então
•
dim N (T ) = dim N (A),
•
u ∈ N (T ) sse uB1 ∈ N (A), onde uB1 são as coordenadas de u em B1 .
•
v ∈ I(T ) sse vB2 ∈ C(A), onde vB2 são as coordenadas de v em B2 .
dim I(T ) = dim C(A) = car(A),
dim N (T ) + dim I(T) = dim(V1 ).


1 1
Exemplo: Seja T : R2 → R3 tal que A = M (T ; B1 ; B2 ) =  0 −1 , onde B1 = {(1, 1), (1, −1)} e
3 3
B2 = {(1, 2, 3), (1, 2, 0), (1, 0, 0)}. Temos car(A) = 1, pelo que dim(C(A)) = 2 (logo T não é sobrejectiva)
e dim(N (A)) = 0 (logo T é injectiva). Além disso, {(1, 0, 3), (1, −1, 3)} é uma base para C(A). Como
1(1, 2, 3) + 0(1, 2, 0) + 3(1, 0, 0) = (3, 2, 3),
1(1, 2, 3) − 1(1, 2, 0) + 3(1, 0, 0) = (3, 0, 3),
logo {(3, 2, 3), (3, 0, 3)} é uma base para o contradomı́nio de T .
8. Teorema: Se B = {v1 , ..., vn } é uma base de V , então T : V → Rn definida por T (v) = vB é um isomorfismo.
Seja U subespaço linear de V de dimensão k, então U é isomorfo a um subespaço de Rn de dimensão k.
Assim, Pn ' Rn+1 ,
Mm×n (R) ' Rmn .
9. Equação linear é qualquer equação que pode ser escrita na forma T (u) = v para alguma transformação
linear T : V1 → V2 entre espaços lineares. Resolver, em V1 , a equação linear T (u) = v (com v ∈ V2 fixo) é
descrever o conjunto
S = {u ∈ V1 : T (u) = v}.
Teorema: • T (u) = v tem soluções sse v ∈ I(T ).
• T (u) = v tem uma única solução sse v ∈ I(T ) e T for injectiva.
• Se v ∈ I(T ), então S = u1 + N (T ), com u1 solução particular em S.
Exemplos: • Dada uma matriz Am×n e T : Rn → Rm tal que T (u) = Au. Então a equação linear T (u) = v é
igual ao sistema linear Au = v!
18
• Seja B = {p1 , p2 , p3 } base de P2 onde p1 (t) = 1 + 2t + 3t2 , p2 (t) = 2 + 3t, p3 (t) = 1. Seja T : P2 → P2 a
transformação linear definida por:
T (p1 (t)) = p2 (t),
T (p2 (t)) = p3 (t),
T (p3 (t)) = 0.


0 0 0
Então a matriz M (T ; B; B) que representa T na base B é  1 0 0 .
0 1 0
Como N (M (T ; B; B)) = L ({(0, 0, 1)}), então N (T ) = L ({0p1 (t) + 0p2 (t) + 1p3 (t)}) = L ({p3 (t)}). O conjunto {1} é uma base de N (T ) pois gera N (T ) e é linearmente independente.
Quanto ao contradomı́nio, como B = {p1 , p2 , p3 } gera P2 :
I(T ) = L ({T (p1 (t)) , T (p2 (t)) , T (p3 (t))}) = L ({p2 (t), p3 (t)}) = L ({2 + 3t, 1}) .
O conjunto {2 + 3t, 1} é uma base de I(T ) pois gera I(T ) e é linearmente independente.
Finalmente vamos resolver, em P2 , a equação linear T (p(t)) = 3 + 3t.
Como T (p(t)) = 3 + 3t = (2 + 3t) + 1 = T (p1 (t)) + T (p2 (t))
=
T é linear
T (p1 (t) + p2 (t)) = T 3 + 5t + 3t2 , logo
3 + 5t + 3t2 é uma solução particular de T (p(t)) = 3 + 3t, pelo que a solução geral de T (p(t)) = 3 + 3t é dada
por:
3 + 5t + 3t2 + N (T ) = α + 3 + 5t + 3t2 com α ∈ R.
10. T : V → V transformação linear; u ∈ V vector não nulo é vector próprio de T se existe um escalar λ tal
que T (u) = λu (λ é o valor próprio associado a u). Eλ = N (T − λI) é o espaço próprio de T associado a λ.
Se dim(V ) < +∞, seja A = M (T ; B; B) onde B uma base de V .
Teorema • λ valor próprio de T se e só se λ valor próprio de A.
• u vector próprio de T se e só se uB vector próprio de A (uB designa as coordenadas de u em B).
Dizemos que T é diagonalizável se existir uma base de V formada por vectores próprios de T .
Teorema: T diagonalizável se e só se A diagonalizável.
Exemplo: Seja T : P2 → P2 tal que T (a0 + a1 t + a2 t2) = (a0 + a1 + a2 ) + (a0 + a1 + a2 )t + (a0 + a1 + a2 )t2 .
1 1 1
Com B = {1, t, t2 } base canónica de P2 , temos A =  1 1 1  cujos valores próprios são λ1 = 0 e λ2 = 3
1 1 1
pois p(λ) = −λ2 (λ − 3); Temos {(−1, 0, 1), (0, −1, 1), (1, 1, 1)} é uma base de R3 formada por vectores próprios
da matriz A, pelo que {−1 + t2 , −t + t2 ), 1 + t + t2 } é uma base de P2 formada por vectores próprios de T .
Portanto A é diagonalizável e assim T também o é.
6
Produtos internos
1. Seja V um espaço linear real. Uma aplicação h, i : V × V → R é um produto interno (p.i.) em V se:
• (Linearidade) hu + αv, wi = αhu, wi + hv, wi para todo o escalar α e todos u, v, w ∈ V ,
• (Simetria) hu, vi = hv, ui para todos u, v ∈ V e
• (Positividade) hu, ui > 0 para qualquer u ∈ V , u 6= 0.
Espaço euclidiano é um espaço linear munido com um produto interno.
Exemplos: • h(x1 , ..., xn ), (y1 , ..., yn )i = x1 y1 + x2 y2 + ... + xn yn é um produto interno (usual) em Rn .
• h(x1 , x2 ), (y1 , y2 )i = 2x1 y1 x1 y2 + x2 y1 + x2 y2 define um produto interno (diferente do usual) em R2 .
Note que h(x1 , x2 ), (x1 , x2 ) = x21 + (x1 + x2 )2 > 0 para qualquer (x1 , x2 ) 6= (0, 0).
2. Se V um espaço linear complexo, h, i : V × V → C é um produto interno em V se os axiomas da linearidade
e positividade forem satisfeitos e o axioma da simetria é substituı́do por hu, vi = hv, ui, com u, v ∈ V .
O produto interno usual em Cn é h(x1 , ..., xn ), (y1 , ..., yn )i = x1 y1 + x2 y2 + ... + xn yn .
19
3. Seja h, i um produto interno num espaço linear (real) V de dimensão finita e {v1 , ..., vn } uma base ordenada
de V . Seja u = α1 v1 + ... + αn vn e v = β1 v1 + ... + βvn .
Seja A = [aij ] a matriz da métrica, definida por aij = hvi , vj i.

Teorema: A matriz A é simétrica A = AT e hu, vi =
α1 α2 . . . αn


A

β1
β2
..
.



.

βn
Exemplos: • Considerando a base canónica de
• Com a base canónica de
R2
Rn
e o produto interno usual tem-se A = I.
e o p.i. h(x1 , x2 ), (y1 , y2 )i = 2x1 y1 x1 y2 + x2 y1 + x2 y2 , tem-se A =
2 1
.
1 1
4. Fixando um produto interno em V , então
p
• ||v|| = hv, vi é a norma de v ∈ V .
• u e v dizem-se ortogonais se hu, vi = 0.
• projuv =
hu,vi
hv,vi
v é a projecção ortogonal de u sobre v.
• Desigualdade de Cauchy-Schwarz: |hu, vi| ≤ kuk kvk.
• arcos∠(u, v) =
hu,vi
||u||||v||
é o ângulo entre u e v.
5. Bases ortogonais: Seja B1 = {u1 , ..., un } base de V . Dizemos que B2 = {v1 , ..., vn } é base ortogonal
de V se B2 é uma base de V e os vectores de B2 forem ortogonais hvi , vj i = 0, para i 6= j. Dizemos que
B3 = {w1 , ..., wn } é base ortonormada de V se B3 é uma base ortogonal de V e ||vi || = 1 para i = 1, ..., n.
Exemplo: • A base canónica de Rn é uma base ortonormada (para o produto interno usual).
• {(1, 0), (0, 2)} é uma base ortogonal de R2 , no entanto não é ortonormada.
• {(1, 1), (0, 1)} é uma base de R2 , que não é ortogonal.
• {(1, 1, 1), (1, 1, −2)} não é uma base ortogonal de R3 ; mas sim, uma base ortogonal para o subespaço linear
U = {(x, y, z) ∈ R3 : x − y = 0}.
Teorema: Conjunto de vectores não nulos ortogonais 2 a 2 é um conjunto linearmente independente.
Método de ortogonalização de Gram-Schmidt
uma base B1 de V :
7
permite-nos construir a base ortogonal B2 a partir de
v1 = u1 ,
v2 = u2 − projv1 u2 = u2 −
hu2 , v1 i
v1 ,
hv1 , v1 i
v3 = u3 − projv2 u3 − projv1 u3 = u3 −
...
hu3 , v1 i
hu3 , v2 i
v1 −
v2 ,
hv2 , v1 i
hv2 , v2 i
vn = un − projv1 un − ... − projvn−1 un .
Dada uma base ortogonal B2 podemos construir uma base ortonormada de V normalizando cada vector de
B2 , i.e. w1 = ||vv11 || , w2 = ||vv22 || , ..., wn = ||vvnn || .
6. Teorema: Se {v1 , ..., vn } é base ortogonal de V , então
v=
hv,v1 i
hv1 ,v1 i
v1 +
hv,v2 i
hv2 ,v2 i
v2 + ... +
hv,vn i
hvn ,vn i vn .
7. Teorema: Seja B = {w1 , w2 , ..., wn } uma base de Rn . Então, existe um único produto interno em Rn para o
qual esta base é ortonormada.
7
Jorgen Pedersen Gram 1850–1916. Erhard Schmidt 1876–1959
20

β1
 . 
αn
I  ..  . Como
βn

Se uB = (α1 , ..., αn ), vB = (β1 , ..., βn ) então teremos que ter hu, vi =

 
u1

 
SBc→B  ... =
un
α1 · · ·


 

α1
v1
β1
 .   . 
..  e S
T
T
T
T
Bc→B  .. = ..  temos hu, vi = u(S IS)v = u(S S)v com S = SBc→B .
. 
αn
vn
βn
8. Complemento ortogonal Seja V um espaço euclidiano e U subconjunto de V , não vazio. O complemento
ortogonal de U em V denota-se por U ⊥ e é definido como:
U ⊥ = {v ∈ V : hv, ui = 0, para todo o u ∈ U }.
Teorema: • U ⊥ é subespaço linear de V . Temos V ⊥ = {0} e {0}⊥ = V .
• Se U1 ⊂ U2 então U2⊥ ⊂ U1⊥ .
• Se dim(V) < ∞ e U1 , U2 subespaços lineares de V . Então temos
(U1⊥ )⊥ = U1 ,
(U1 + U2 )⊥ = U1⊥ ∩ U2⊥ , (U1 ∩ U2 )⊥ = U1⊥ + U2⊥ .
• Se U = L{u1 , ..., uk }, então U ⊥ = {v ∈ V : hv, ui i = 0, para i = 1, ..., k}.
Teorema: Se U é subespaço linear de V então
• U ∩ U ⊥ = {0}.
• U + U⊥ = V .
Teorema: Se V = Rn munido com o produto interno usual e U = L({u1 , ..., uk }), então:
• U ⊥ = N (A) onde as linhas de A são os vectores u1 , ..., uk .
• dim(U ) + dim (U ⊥ ) = n.
• N (A)⊥ = L(A), L(A)⊥ = N (A).
1 0 0 0
1 0 0 0
⊥
.
e U = N
Exemplo: Seja U = L({(1, 0, 0, 0), (1, 1, 1, 2)}). Então U = L
1 1 1 2
1 1 1 2
Assim, {(1, 0, 0, 0), (0, 1, 1, 2)} é uma base para U e {(0, −1, 1, 0), (0, −2, 0, 1)} é uma base para U ⊥ .
9. Projecões ortogonais
Seja V Seja V um espaço euclidiano de dimensão finita e U subespaço de V . Seja {u1 , ..., uk } uma base
ortogonal de U e {v1 , ..., vr } uma base ortogonal de U ⊥ . Assim, k + r = dim(V ).
Projecção ortogonal de V sobre U é a transformação linear PU : V → V definida por
PU (w) =
hw, u1 i
hw, u2 i
hw, uk i
u1 +
u2 + ... +
uk .
hu1 , u1 i
hu2 , u2 i
huk , uk i
Projecção ortogonal de V sobre U ⊥ é a transformação linear PU ⊥ : V → V definida por
PU ⊥ (w) =
hw, v1 i
hw, v2 i
hw, vk i
v1 +
v2 + ... +
vr .
hv1 , v1 i
hv2 , v2 i
hvr , vr i
Teorema: • PU (w) ∈ U , PU ⊥ (w) ∈ U ⊥ para qualquer w ∈ V .
• PU ◦ PU = PU , PU ⊥ ◦ PU ⊥ = PU ⊥ .
• PU ◦ PU ⊥ = PU ⊥ ◦ PU = 0.
• PU + PU ⊥ = I.
Em particular, dado w ∈ V , podemos decompor w = u + v em que u ∈ U e v ∈ U ⊥ .
De facto: u = PU (w) e v = PU ⊥ (w).
Exemplo: Seja V = L (1, 1, 0, 0), (1, 0, 1, −1) . Vamos determinar u ∈ U e v ∈ U ⊥ tais que (1, 1, 1, 1) = u + v.
Os vectores u1 = (1, 1, 0, 0), u2 = (1, 0, 1, −1) formam uma base de V . Seja {v1 , v2 } a base ortogonal de
21
V que se obtém aplicando o processo de ortogonalização de Gram-Schmidt aos vectores u1 e u2 . Portanto,
v1 = u1 = (1, 1, 0, 0) e
v2 = u2 −
hu2 , u1 i
1
1 1
u1 = (1, 0, 1, −1) − (1, 1, 0, 0) = ( , − , 1, −1).
hu1 , u1 i
2
2 2
Assim, u = PV (1, 1, 1, 1) =
h(1, 1, 1, 1), v1 i
h(1, 1, 1, 1), v2 i
2
0 1 1
v1 +
v2 = (1, 1, 0, 0) +
( , − , 1, −1) = (1, 1, 0, 0)
hv1 , v1 i
hv2 , v2 i
2
5/2 2 2
e v = PV ⊥ (1, 1, 1, 1) = (1, 1, 1, 1) − PV (1, 1, 1, 1) = (0, 0, 1, 1).
10. Distância entre um ponto e um espaço linear: Seja u ∈ V e U subespaço linear de V .
A distância entre v e U é d(v, U ) = ||PU ⊥ (v)||.
A distância entre v e U ⊥ é d(v, U ⊥ ) = ||PU (v)||.
Exemplo: Seja U = L({(1, 0, 1), (1, 1, 0)}) e v = (1, 1, 3). Portanto
U⊥
=N
1 0 1
1 1 0
e {(−1, 1, 1)} é uma
base de U ⊥ . Assim,
√
h(1, 1, 3), (−1, 1, 1)i
(−1, 1, 1)|| = ||(−1, 1, 1)|| = 3,
h(−1, 1, 1), (−1, 1, 1)i
√
d(v, U ⊥ ) = ||PU (v)|| = ||v − PU ⊥ (v)|| = ||(1, 1, 3) − (−1, 1, 1)|| = 8.
d(v, U ) = ||PU ⊥ (v)|| = ||
Note que {(1, 0, 1), (1, 1, 0)} nã é uma base ortogonal de U .
Teorema de Pitágoras:
8
||PU (v)||2 + ||PU ⊥ (v)||2 = ||v||2 .
11. Equações cartesianas de planos, rectas, etc.:
k-plano é todo o subconjunto de Rn da forma p+U com p ∈ Rn e U um subespaço de dimensão k. (U = p+U .)
U subespaço linear de Rn se e só se p ∈ U . Note que U é paralelo a U.
A distância entre v e U é d(v, U) = ||PU ⊥ (v − p)||.
Dado U subespaço linear de R, podemos construir uma matriz A tal que U = N (A); as equações lineares
homogéneas são as equações cartesianas de U .
As equações cartesianas de U obtêm-se a partir das de U usando o facto de p ∈ U.
0 −1 1 0
Exemplo: Seja p = (0, 1, 2, −3) e U = L({(1, 0, 0, 0), (1, 1, 1, 2)}). Então U = N
, e portanto
0 −2 0 1
−y + z = 0, −2y + w = 0 são equações cartesianas de U . Assim para encontrar as equações cartesianas
de U, temos que calcular b1 , b2 tais que −y + z = b1 , −2y + w = b2 . Como p = (0, 1, 2, −3) ∈ U temos
−1 + 2 = b1 , −2 − 3 = b2 , isto é −y + z = 1, −2y + w = −5 são as equações cartesianas de U.
12. Diagonalização de matrizes reais simétricas:
• Uma matriz real Q diz-se matriz ortogonal se Q−1 = QT . (Q ortogonal sse QT ortogonal). Assim, Q
matriz ortogonal se as colunas de Q forem uma base ortonormada de Rn .
• A ortogonalmente diagonalizável se existir base ortonormada de Rn formada por vectores próprios de A.
• A ortogonalmente diagonalizável =⇒ A diagonalizável.
• Se A = AT matriz real simétrica, então os valores próprios de A são todos reais, e vectores próprios associados
a valor próprios diferentes são ortogonais.
Teorema: A ∈ Mn×n (R) ortogonalmente diagonalizável se e só se A = AT .
8
Pitágoras 570 a.C– 496 a.C (aprox.)
22
Nesta caso, podemos construir D matriz diagonal real e Q matriz ortogonal tais que:
D = QAQT .
Algoritmo para determinar D e Q:
(a) Calcular o polinómio caracterı́stico de A e os respectivos valores próprios.
(b) Encontar uma base para cada espaço próprio de A.
(c) Apliquar o processo de ortogonalização de Gram-Schmidt a cada base de cada espaços próprio (obtendo
uma base ortogonal de Rn constituı́da por vectores próprios de A). Normalizar esta base (construindo
assim, uma base {v1 , ..., vn } ordenada e ortonormal de Rn constituı́da por vetores próprios de A).
(d) Seja QT a matriz cujas colunas são formadas pelos vectores {v1 , ..., vn } colocados em coluna e D a matriz
diagonal cuja entrada (i, i) é o valor próprio de A associado ao vector próprio vi , com i ∈ {1, ..., n}.
(e) A teoria garante que D = QAQT .


4 2 2
Exemplo: • Seja A =  2 4 2 . Com A é simétrica sabemos que existe uma matriz ortogonal Q e uma
2 2 4
matriz diagonal D tais que D = QAQT . Vamos então construir QT , D e naturalmente Q = (QT )T .
(a) o polinómio caracterı́stico de A é

4−λ
2
2
4−λ
2  = ... = (λ − 2)2 (λ − 8),
p(λ) = det(A − λI) = det  2
2
2
4−λ

pelo que os valores próprios de A são λ1 = 2 (raiz dupla) e λ2 = 8 (raiz simples).
(b) O espaço próprio associado a λ1 é Eλ1 = N (A − 2I) e os vectores u1 = (−1, 1, 0), u2 = (−1, 0, 1) formam
uma base de Eλ1 . O espaço próprio associado a λ2 é Eλ2 = N (A − 8I) e o vector u3 = (1, 1, 1) é uma sua
base.
(c) Aplicando o processo de Gram-Schmidt às bases {u1 , u2 } e {u3 } e depois normalizando, obtém-se a seguinte
base ortonormada de R3 :
1 1 w1 = − √ , √ , 0 ,
2 2
1
1 2 1 1 1 w2 = − √ , − √ , √ , w3 = √ , √ , √ .
6
6 6
3 3 3




− √12 − √16 √13
2 0 0


(d) Então temos D =  0 2 0 , QT =  √12 − √16 √13  e podemos verificar que D = QAQT .
√2
√1
0 0 8
0
6
3
1 1
• A matriz A =
não é ortogonalmente diagonalizável porque A 6= AT ; contudo, A é diagonalizável
0 0
porque tem 2 valores próprios distintos.
13. Teorema Seja B uma base ordenada de uma espaço linear real V e (u)B as coordenadas de u em B. Então
hu, vi = (u)B A (v)TB é um produto interno no espaço linear real V se e só se
A matriz simétrica A = AT e os valores próprios de A são todos estritamente positivos.
14. Diagonalização de matrizes normais
T
T
Para matrizes complexas, A é a matriz transconjugada de A = [aij ], onde A = [aij ]. Notação: A∗ := A .
Uma matriz A diz-se matriz hermitiana se A = A∗ .
Uma matriz A diz-se matriz normal se AA∗ = A∗ A.
U ∈ Mn×n (C) matriz unitária se U for invertı́vel e U −1 = U ∗ .
Teorema: Dada um matriz A ∈ Mn×n (C), temos hAu, vi = hu, A∗ vi, para todos os vectores u, v ∈ Cn .
23
Os valores próprios de uma matriz hermitiana são números reais. Além disso, vectores próprios associados a
valores próprios distintos são ortogonais.
Se λ for um valor próprio de uma matriz unitária U , então |λ| = 1.
Se A é uma matriz ortogonal, então AT e A−1 são matrizes ortogonais.
Se A é uma matriz unitária, então A∗ e e A−1 são matrizes unitárias.
Se A e B são duas matrizes ortogonais então AB é uma matriz ortogonal.
Se A e B são duas matrizes unitárias então AB é uma matriz unitária.
Se A e B são duas matrizes simétricas então AB é uma matriz simétrica se e só se A e B comutarem.
Se A e B são duas matrizes hermitianas então AB é uma matriz hermitiana se e só se A e B comutarem.
Dizemos que que a matriz A é unitariamente diagonalizável se existir uma base ortonormada de Cn constituı́da
por vectores próprios de A.
Teorema: A ∈ Mn×n (C) unitariamente diagonalizável se e só se A é uma matriz normal.
Nestes casos, podemos construir uma matriz diagonal D e uma matriz unitária U tais que
D = U AU ∗ .
Assim A = U ∗ DU , pelo que em geral A∗ 6= A, pois A∗ = U ∗ D∗ U . Conclusão: A pode ser unitariamente
diagonalizável sem ter de ser necessariamente hermitiana.
0 −1
Exemplos: • A matriz real A =
é normal, pois AA∗ = I = A∗ A, no entanto A não é simétrica
1 0
(nem hermitiana).
1 1
não é normal nem simétrica, pelo que A não é unitariamente nem ortogonal• A matriz real A =
0 2
mente diagonalizável. Todavia A é diagonalizável, pois os seus valores próprios são todos distintos.
A prova do último teorema pode basear-se no seguinte
Lemma de Schur: 9 Seja A ∈ Mn×n (C) qualquer. Então existe uma matriz unitária U tal que U AU ∗ é
uma matriz triangular superior.
7
Tópicos adicionais e aplicações
1. Formas quadráticas é uma função Q : Rn → R que pode ser escrita na forma
Q(u) =
n
X
aij xi xj ,
com u = (x1 , ..., xn ), aij ∈ R.
(8)
i,j=1
Classificação das formas quadráticas Seja Q forma quadrática; Q é
• definida positiva se Q(u) > 0, ∀u ∈ Rn , u6= 0,
• definida negativa se Q(u) < 0, ∀u ∈ Rn , u6= 0,
• semidefinida positiva se Q(u) ≥ 0, ∀u ∈ Rn ,
• semidefinida negativa se Q(u) ≤ 0, ∀u ∈ Rn ,
• indefinida se existem u e v tais que Q(u) > 0 e Q(v) < 0.
A equação (8) pode ser escrita na forma Q(u) = uAuT , com A = [aij ]; mas podemos também escrever
T
T
Q(u) = u A+A
uT com a vantagem de A+A
ser uma matriz simétrica.
2
2
9
Issai Schur 1875–1941
24
Exemplo: Q : R2 → R tal que Q(x1 , x2 ) = a11 x21 + a12 x1 x2 + a21 x2 x1 + a22 x22 . Temos
a12 +a21
a11 a12
a11
x1
x1
2
= x1 x2
Q(x1 , x2 ) = x1 x2
.
a12 +a21
a21 a22
x2
a22
x2
2
Teorema: Seja Q(u) = uAuT forma quadrática com A simétrica. Então:
• Q definida positiva se e só se todos os valores próprios de A forem positivos.
• Q definida negativa se e só se todos os valores próprios de A forem negativos.
• Q semidefinida positiva se e só se todos os valores prṕrios de A forem não negativos.
• Q semidefinida negativa se e só se todos os valores prṕrios de A forem não positivos.
• Q indefinida se e só se A tiver pelo menos um valor próprio positivo e outro negativo.
Supondo que A é uma matriz real e simétrica, então Q(u) = uAuT é uma forma quadrática definida positiva
se e só hu, vi = uAv T define um produto interno em Rn .
Exemplo: Seja Q(x1 , x2 ) =
2x21 + 4x1 x2 + 2x22 .
Então A =
2 2
, cujos valores próprios são λ1 = 0 e λ2 = 4.
2 2
Assim, Q é uma forma quadrática semidefinida positiva.
2. Equações diferenciais ordinárias com coeficientes constantes
• Se f : R → R é solução da equação diferencial f 0 (t) = λf (t) (com λ escalar fixo), então existe um escalar c
tal que f (t) = c eλt .
• Considere funções x1 (t), x2 (t), · · · , xn (t) diferenciáveis na variável real t. O sistema da forma

a11 x1 (t) + a12 x2 (t) + ... + a1n xn (t) = x01 (t)



a21 x1 (t) + a22 x2 (t) + ... + a2n xn (t) = x02 (t)
...



am1 x1 (t) + am2 x2 (t) + ... + amn xn (t) = x0m (t)
(9)
chama-se sistema linear de equações diferenciais de primeira ordem, em que aij é uma constante e x0i (t) designa
a derivada de xi (t) (i = 1, ..., m, j = 1, ..., n).
O sistema (9) pode escrever-se na forma matricial: x0 (t) = Ax(t) onde A = [aij ] ∈ Mn×n (R),


 0

x1 (t)
x1 (t)
 x2 (t) 
 x0 (t) 


 2

0
x(t) =  .  ,
x (t) =  .  .
 .. 
 .. 
x0n (t)
xn (t)
• Resolução de x0 = Ax com A diagonalizável
Se a matriz A = [aij ] ∈ Mn×n (R) é diagonalizável, para resolver x0 (t) = Ax(t) em primeiro lugar encontra-se
uma matriz mudança de base
S = SBc→Bvp ,
S −1 = SBvp →Bc
onde Bvp = {v1 , v2 , · · · , vn } é uma base de Rn formada por vectores próprios de A tal que o valor próprio
associado a vi é λi , i = 1, 2, · · · , n, Bc é a base canónica de Rn e matriz diagonal
D = diag(λ1 , λ2 , · · · , λn )
(formada pelos valores próprios de A) tais que D = SAS −1 . Depois, usa-se a mudança de variável Sy = x
e e transforma-se
o sistema x0 = Ax no sistema y 0 (t) = Dy(t) com as funções separadas, cuja solução geral

c1 eλ1 t
 c2 eλ2 t 


é y(t) = 
 onde λ1 , · · · , λn são os valores próprios de A e c1 , · · · , cn são constantes. Finalmente, a
..


.
cn eλn t
solução geral do sistema inicial x0 (t) = Ax(t) é
25

 |
x(t) = S −1 y(t) = 
 v1
|
..
.
···
..
.
  c eλ1 t
1
|   c eλ2 t
 2
vn 
..


.
|
cn eλn t





porque x0 (t) = Ax(t) ⇐⇒ x0 (t) = S −1 DSx(t) ⇐⇒ Sx0 (t) = DSx(t) ⇐⇒ y 0 (t) = Dy(t).
Exemplo: Vamos determinar a solução geral do seguinte sistema de equações diferenciais:
2x1 (t) + x2 (t) = x01 (t)
−2x1 (t) + 5x2 (t) = x02 (t)
(10)
2 1
Claro que A =
, cujas valores próprios são λ1 = 3 e λ2 = 4, pelo que A é diagonalizável, {(1, 1)} é
−2 5
uma base para o espaço próprio para Eλ1 e {(1, 2)} é uma base para o espaço próprio para Eλ1 . Assim,
3 0
1 1
−1
D=
,
S =
0 4
1 2
e portanto a solução geral do sistema de equações diferenciais (10) é
c1 e2t + c2 e4t
c1 e2t
1 1
c1 e2t
x1 (t)
−1
.
=
=
=S
x(t) =
c1 e2t + 2c2 e4t
c2 e4t
1 2
c2 e4t
x2 (t)
Vamos calcular a única solução de (10) sujeita às condições iniciais x1 (0) = 1, x2 (0) = −1. Ora (x1 (0), x2 (0)) =
(c1 + c2 , c1 + 2c2 ), pelo que c1 = 3c2 = −2 e a única soluçã de (10) é (x1 (t), x2 (t)) = (3e2t − 2e4t , 3e2t − 4e4t ).
3. Mı́nimos quadrados
Seja A ∈ Mm×n (R) e b ∈ Mm×1 (R).
• O sistema linear Ax = b é impossı́vel se e só se b 6∈ C(A) (i.e. SAx=b = ∅).
• Vamos procurar vectores b
x que tornem mı́nima a distância entre Ab
x e b, isto é ||Ab
x − b|| = minx {||Ax − b||}.
Dizemos que tal b
x é uma solução de mı́nimos quadrados associado aos sistema linear Ax = b.
Assim, ||Ab
x − b|| ≤ ||Ax − b|| para todo x; Ab
x − b o vector erro e ||Ab
x − b|| erro de mı́nimos quadrados.
• Claro que Ax ∈ C(A) para todo o x, pelo que ||Ax − b|| é minimizado se
Ax = projC (b),
(11)
onde projC (b) designa a projecção ortogonal de b sobre C(A). Temos Ax = projC (b) é sempre um sistema
possı́vel e as suas soluções são as soluções de mı́nimos quadrados do sistema inicial Ax = b.
Teorema: b
x solução de mı́nimos quadrados de Ax = b sse b
x é solução do sistema linear Ax = projC (b).
Teorema: Existe uma única solução de mı́nimos quadrados do sistema Ax = b sse car(A) = n.
• Como resolver o sistema linear (11)?
Podemos usar a decomposição b = projC(A) (b) + projC(A)⊥ (b) (note que C(A)⊥ = L⊥
= N (AT )) e concluir
AT
que
Teorema: b
x uma solução do sistema linear Ax = projC (b) sse b
x é uma solução do sistema linear (AT A)b
x = AT b.
A equação (AT A)b
x = AT b é designada por equação normal.
Teorema: • N (A) = N (AT A).
• SAT Abx=AT b 6= ∅, SAx=b ⊂ SAT Abx=AT b .
• Se SAx=b 6= ∅, então SAx=b = SAT Abx=AT b .
• Se car(A) = n, b
x = (AT A)−1 AT b é a única solução da equação normal AT Ab
x = AT b.
26
1
2
1
Exemplo: Sejam A=
, b=
. O sistema linear Ax = b é impossı́vel. Por outro lado car(A) 6= 2
−2 −4
2
pelo que a solução de mı́nimos quadrados não é única. Podemos
verificar
isso mesmo,
determinando o con−3
−6
−3
junto solução de AT Ab
x = AT b. Calculando temos AT A =
e AT b =
, pelo que o conjunto
−6 −12
−6
solução de AT Ab
x = AT b é {(x, y) ∈ R2 : x + 3y = 1} (o conjunto solução de mı́nimos quadrádros de Ax = b).
• Ajusto de curvas a uma tabela
Pretende-se encontrar uma função y = f (x) que se ajuste a um conjunto de dados experimentais (p.e. em R2 )
P1 = (x1 , y1 ), P2 = (x2 , y2 ), ..., Pn = (xn , yn )
da melhor maneira possı́vel.
Seja R a recta 
y = α + βx

α + βx1 = y1



 α + βx2 = y2

Para Pi ∈ R temos o sistema linear
nas variáveis α, β, para o qual A=
..

.



α + βxn = yn
Modelo Linear:
Se Pi 6∈ R para algum i, então o sistema linear é impossı́vel. Nesse caso, procuramos
aproxima dos pontos, cuja solução é
α
= (AT A)−1 AT b.
b
x=
β



1 1
Exemplo: Sejam P1 = (1, 3/2), P2 = (2, 1/2), P3 = (3, 3). Assim A= 1 2 , b=
1 3
1/6
e a recta pretendida é: y = 61 + 34 x.
(AT A)−1 AT b =
3/4
Modelo quadrático:


1 x1
.. .. , b=

. . 
1 xn

y1
..  .
. 
yn
a recta que melhor se

3/2
1/2 , cuja solução é
3
y = α + βx + γx2 ,

 
1 x1 x21
α

..   β  = 
originando o sistema  ... ...

. 
2
γ
1 xn xn


y1
..  nas variáveis α, β, γ.
. 
yn


e1 e2 e3
4. Produto externo: Seja e1 , e2 , e3 a base canónica de R3 ; o produto externo é u × v = det  u1 u2 u3  =
v1 v2 v3
u2 u3
u1 u3
u1 u2
= det
e1 − det
e2 + det
e3 = u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 .
v2 v3
v1 v3
v1 v2
• u × v = −v × u,
u × u = 0,
hu, u × vi = hv, u × vi = 0,
• Se u, v são ortogonais e não nulos, então {u, v, u × v} é uma base ortogonal de R3 ,
• ||u × v|| = ||u|| ||v||sen(θ) onde θ é o ângulo entre u e v,
• ||u × v|| é a área do paralelogramo de lados adjacentes u e v.


u1 v1 w1
• Produto misto é hu, v × wi = det  u2 v2 w2 .
u3 v3 w3
• hu, u × vi = hu, v × ui = 0,
hu, v × wi = hu × v, wi.
• V = |hu, v × wi| é o volume do paralelipı́pedo formado pelos vectores u, v e w. Note que
V =
||u × v||
| {z }
área da face determinada por u e v
27
||w|| |cos(θ)| .
|
{z
}
altura
8
Notação usada
N
Z
Q
R
C
A = [aij ]
Mm×n (K)
car(A)
AT
A∗
Tr(A)
A−1
S ou SAx=b
det(A) ou |A|
cofA
adj(A)
L(S)
dim(V )
V1 ⊕ V2
N (A)
C(A)
L(A)
V1 ' V2
vB
SB1 →B2
p(λ) = det(A − λI)
σA
Eλ = N (A − λI)
ma (λ)
mg (λ)
M (T ; B1 ; B2 )
N (T )
I(T ) ou C(T )
hu, vi
||u||
∠(u, v)
U⊥
PU ou projU
d(u, U)
u×v
(AT A)b
x = AT b
números naturais
números inteiros
números racionais
números reais
números complexos
matriz com entrada aij
conjunto das matrizes m × n com entradas em K
caracterı́stica da matriz A
transposta da matriz A
matriz transconjugada de A
traço da matriz A
inversa de A (caso exista)
conjunto solução do sistema Ax = b
determinante de A
a matriz dos cofactores de A
a matriz adjunta de A
espaço gerado pelo conjunto de vectores S (expansão linear de S)
dimensão do espaço linear V
(subsespaços em) soma directa de subespaços
núcleo de A
espaço colunas de A
espaço linhas de A
isomorfismo entre V1 e V2
coordenadas do vector v na base ordenada B
matriz mudança de base da base B1 para a base B2
polinómio caracterı́stico de A
espectro de A
espaço próprio associado ao valor próprio λ
multiplicidade algébrica do valor próprio λ
multiplicidade algébrica geométrica do valor próprio λ
matriz que representa a transformação linear T nas bases B1 e B2
núcleo da transformação linear T
imagem (ou contradomı́nio) de T
produto interno entre u e v
norma do vector u
ângulo entre u e v
complemento ortogonal do subespao̧ linear U
projecção ortogonal de V sobre U
distância entre u e o k-plano U := v + U
produto externo entre os vectores u e v (de R3 )
equação normal associada ao sistema Ax = b
28
Índice
k-plano, 22
ângulo entre vectores, 20
ajusto de curvas a uma tabela, 27
base
base
base
base
base
canónica, 12
e dimensão, 12
ordenada, 13
ortogonal, 20
ortonormada, 20
caracterı́stica de uma matriz, 2
combinação linear, 9
complemento ortogonal, 21
conjunto solução, 4
contradomı́nio de uma transformação linear, 16
coordenadas de um vector numa base, 13
decomposição triangular, 3
determinante de uma matriz, 6
diagonalização de matrizes simétricas, 22
distância entre um ponto e um subespaço linear, 22
eliminação de Gauss, 2
equação linear, 4, 18
equação normal, 26
equações cartesianas, 22
espaço colunas de uma matriz, 10
espaço euclidiano, 19
espaço linear, 8
espaço linhas de uma matriz, 10
espaço próprio, 15, 19
espectro de uma matriz, 14
expansão linear, 9
fórmula de Laplace, 7
forma quadrática, 24
Gauss-Jordan, 6
identidade de Grassman, 12
imagem de uma transformação linear, 16
independência linear, 11
intersecção e soma de subespaços lineares, 10
isomorfismo, 16
mı́nimos quadrados, 26
método de ortogonalização de Gram-Schmidt, 20
matriz adjunta, 8
matriz aumentada, 4
matriz da métrica, 20
matriz diagonal, 1
matriz diagonalizável, 15, 19, 22
matriz dos cofactores, 8
matriz elementar, 3
matriz hermitiana, 24
matriz identidade, 1
matriz mudança de base, 14
matriz normal, 23
matriz ortogonal, 22
matriz ortogonalmente diagonalizável, 22
matriz simétrica, 22
matriz transposta, 2
matriz triagular superior, 1
matriz unitária, 23
matriz unitariamente diagonalizável, 24
matrizes invertı́veis, 2
matrizes semelhantes, 15
multiplicidade algébrica/geométrica, 14
núcleo, 9, 16
operação elementar, 2
pivô, 2
polinómio caracterı́stico, 14
produto externo, 27
produto interno, 19
produto misto, 27
projecção ortogonal, 20, 21
regra de Cramer, 8
representação matricial de transformações lineares, 16
sistema de equações diferenciais ordinárias, 25
sistema de equações lineares, 4
sistema homogéneo, 5
sistemas impossı́veis, 5
sistemas possı́veis e determinados, 5
sistemas possı́veis e indeterminados, 5
subespaço linear, 9
subespaços em soma directa, 10
teorema de Steinitz, 12
traço de uma matriz, 2
transformação diagonalizável, 19
Transformação injectiva, 16
transformação linear, 16
Transformação sobrejectiva, 16
valor próprio, 14, 19
variáveis livres, 5
vector próprio, 14, 19
vectores geradores, 11
vectores linearmente dependentes, 11
vectores ortogonais, 20
29
Download