GEOMETRIA ANALÍTICA E ´ALGEBRA LINEAR NOTAS DE AULAS

Propaganda
GEOMETRIA ANALÍTICA E
ÁLGEBRA LINEAR
NOTAS DE AULAS
Faculdade de Filosofia, Ciências e Letras de Ribeirão
Preto
Universidade de São Paulo
Departamento de Computação e Matemática
Prof. Dr. Jair Silvério dos Santos
Sumário
1 MATRIZES
1.0.1 Adição de Matrizes . . . . . . . . . . . . . . . . . .
1.0.2 Multiplicação de Número (Escalar) por Matrizes . .
1.0.3 Propriedades da Multiplicação de Número (Escalar)
1.1 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . .
1.1.1 Matriz Inversa . . . . . . . . . . . . . . . . . . . . .
1.1.2 Matriz Adjunta Clássica e Inversa . . . . . . . . . .
1.2 Sistemas de Equações Lineares . . . . . . . . . . . . . . . .
1.2.1 Operações Elementares . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
por Matrizes
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
2
3
5
8
10
11
2 GEOMETRIA
2.0.2 Segmentos Orientados . . . . . . . . . . . . . . .
2.0.3 Equipolência de Segmentos Orientados . . . . . .
2.1 Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Multiplicação de Número Real (escalar) Por Vetor
2.1.2 Soma de Ponto com Vetor . . . . . . . . . . . . .
2.1.3 Dependência e Independência Linear . . . . . . .
2.1.4 Bases e Dimensão . . . . . . . . . . . . . . . . . .
2.2 Produto Escalar . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Projeção Ortogonal de Vetores . . . . . . . . . . .
2.2.2 Bases Ortogonais . . . . . . . . . . . . . . . . . .
2.2.3 Bases Ortonormais . . . . . . . . . . . . . . . . .
2.2.4 Produto Vetorial . . . . . . . . . . . . . . . . . .
2.3 Geometria Analı́tica . . . . . . . . . . . . . . . . . . . .
2.3.1 Retas . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Planos . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
20
21
24
26
29
35
37
38
38
39
42
43
43
44
3 ÁLGEBRA LINEAR
3.1 Espaço Vetorial . . . . . . . . . . . . . .
3.1.1 Propriedades . . . . . . . . . . .
3.1.2 Subespços vetoriais . . . . . . . .
3.1.3 Geradores . . . . . . . . . . . . .
3.1.4 Conjunto de Geradores . . . . . .
3.1.5 Dependência Linear . . . . . . . .
3.1.6 Soma e Intercecção de Subespaços
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
47
53
54
55
57
57
60
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
SUMÁRIO
3.1.7
3.1.8
Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
64
4 Espaços Euclidianos
4.1 Produto Esalar . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Projeção Ortogonal de Vetores . . . . . . . . . . . . .
4.1.2 Bases Ortogonais . . . . . . . . . . . . . . . . . . . .
4.1.3 Bases Ortonormais . . . . . . . . . . . . . . . . . . .
4.1.4 Ortogonalização de Gram-Schmidt . . . . . . . . . .
4.1.5 Projeção Ortogonal de um Vetor sobre um Subespaço
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
69
69
72
73
74
76
79
5 TRANSFORMAÇÕES LINEARES
5.1 Kernel e Imagem de uma Transformação Linear . . . . . . .
5.1.1 Transformação Linear Injetora, Sobrejetora, Bijetora
5.1.2 Teorema do Núcleo e da Imagem . . . . . . . . . . .
5.2 Matriz de uma Transformação Linear . . . . . . . . . . . . .
5.2.1 Tranformações Singulares e Não Singulares . . . . .
5.3 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . .
5.3.1 Semelhança de Matrizes . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
81
82
83
86
87
89
90
97
Capı́tulo 1
MATRIZES
Professor Doutor: Jair Silvério dos Santos
Matrizes Reais
Uma matriz real é o seguinte arranjo de números

a11 a12 a13
 a21 a22 a23

An×m =  ..
..
..
 .
.
.
an1 an2 an3
reais :

· · · a1m
· · ·a2m 

..  ,
. 
· · ·amm
onde, cada entrada (elemento) aij ∈ R, i = 1, 2, · · · , n e j = 1, 2, · · · , m.
Definição 1.1. Chama-se Matriz Nula, a matriz cujas entradas são zero, ou seja aij = 0,
para i = 1, 2, · · · , n e j = 1, 2, · · · , m. Escolhemos a letra O para representá-la, isto é


0 0 0 ···0
0 0 0 · · ·0


On×m =  .. .. ..
..  .
. . .
. 
0 0 0 · · ·0
Seja Mn×m (R) o conjunto de todas as matrizes reais An×m . Note que O ∈ Mn×m (R).
1.0.1
Adição de Matrizes
Definição 1.2. Dadas An×m e Bn×m , a adição de matrizes é uma função + : Mn×m (R) ×
Mn×m (R) −→ Mn×m (R) dada por
+(A, B) = A + B,
onde An×m = (aij )n×m , Bn×m = (bij )n×m , A + B = (cij )n×m e cij = aij + bij , i =
1, 2, · · · , n e j = 1, 2, · · · , m.
1
2
CAPÍTULO 1. MATRIZES
1.0.2
Multiplicação de Número (Escalar) por Matrizes
Definição 1.3. Dados α ∈ R e An×m a multiplicação de número real (escalar) por matriz é
uma função • : R × Mn×m (R) −→ Mn×m (R) dada por
•(α, A) = α · A,
onde An×m = (aij )n×m , α · B = (cij )n×m e cij = α · aij , i = 1, 2, · · · , n e j = 1, 2, · · · , m.
Exemplo 1.1. Considremos as matrizes
(
)
1 −1 3
A2×3 =
,
0 −2 2
B2×3
(
)
3 −2 0
=
2 2 1
Calcule A + B e (−1) · A.
Começamos por determinar a matriz A + B,
(
) (
) (
)
1 −1 3
3 −2 0
c11 c12 c13
=
A2×3 + B2×3 =
+
=
c21 c22 c23
0 −2 2
2 2 1
)
) (
(
4 −3 3
1 + 3 −1 + (−2) 3 + 0
= A + B.
=
2 0 3
0+2
−2 + 2
2+1
A multiplicação de número por matriz (−1) · A,
(
) (
) (
)
1 −1 3
(−1)1 (−1) − 1 (−1)3
−1 1 −3
(−1) ·
=
=
= (−1) · A.
0 −2 2
(−1)0 (−1) − 2 (−1)2
0 2 −2
Propriedades da Adição de Matrizes
Dadas An×m , Bn×m e Cn×m , são verdadeiras as afirmações abaixo:
A1 : A + (B + C) = (A + B) + C).
Associativa
A2 : A + B = B + A.
Comutativa
A3 : A + O = A.
Elemento Neutro
A4 : A + (−B) = O.
Elemento Simétrico
• O elemento −A ∈ Mn×m (R) é o Elemento Simétrico de A em relação à Adição de
Matrizes
1.0.3
Propriedades da Multiplicação de Número (Escalar) por
Matrizes
Dados α, β ∈ R, An×m e Bn×m , são verdadeiras as afirmações abaixo:
M1 : (α + β) · A = α · A + β · A.
1.1. MULTIPLICAÇÃO DE MATRIZES
3
M2 : α · (A + B) = α · A + α · B.
M3 : 1 · A = A
M4 : α · (β · A) = (αβ) · A = β · (α · A).
• Observe que o conjunto Mn×m (R) com as operações de Adição e Multiplicação por
Escalar, que aqui indicamos por (Mn×m (R), +, ·) tem estruturas especiais com as propriedades listadas em A1, A2, A3 e A4; M1, M2, M3 e M4 o que dá ao conjunto (Mn×m (R), +, ·)
um nome diferenciado, que é o de ESPAÇO VETORIAL.
1.1
Multiplicação de Matrizes
Definição 1.4. Dadas An×p e Bp×m , a multiplicação de matrizes é uma função ∗ : Mn×p (R)×
Mp×m (R) −→ Mn×m (R) dada por
∗(A, B) = A · B,
onde An×p = (aij )n×p , Bp×m = (bjk )p×m , A · B = (cik )n×m e cik =
p
∑
(aij · bjk ).
j=1
Exemplo 1.2. Considere as matrizes


(
)
1 −1
−1 1 −3


e B=
.
A = 0 −2
0 2 −2
3 2
Calcule A · B.
Podemos utilizar umaa regra prática que consiste de posicionar as matrizes A e B e
realizar a multiplicação como segue,
c11
c12
c21
c22
= a11 b11 + a12 b21 + a13 b31
= a11 b12 + a12 b22 + a13 b32
= a21 b11 + a22 b21 + a23 b31
= a21 b12 + a22 b22 + a23 b32
(
)
−1 1 −3
0 2 −2

 c11
1
−1
c12
0 −2
c21
3 2
c22
(
)
c11 c12
c21 c22
= (−1)1 + 1(0) + (−3)3
= (−1)(−1) + 1(−2) + (−3)2
= 0(1) + 2(0) + (−2)3
= 0(−1) + 2(−2) + (−2)2
Matriz Produto
Assim, obtemos a matriz A · B dada por
(
)
−10 −7
A·B=
.
−6 −8
Definição 1.5. Dada uma matriz An×p = (aij )n×p chama-se Matriz Transposta de
An×p , outra matrix Bp×n == (bij )n×n tal que bij = aji , para i = 1, 2 · · · n, j = 1, 2 · · · p e
escrevemos B = At .
4
CAPÍTULO 1. MATRIZES
Propriedade da Transposição de Matrizes
Dados α ∈ R e matrizes quadradas A e B tem-se
T1 (At )t = A.
T2 (A + B)t = At + Bt .
T3 (A · B)t = Bt · At .
T3 (αA)t = αAt .
Exercı́cio 1.1. Dadas as matrizes




1 2 −3
−2 1 0
3 0
A= 3 4 0  e B= 0
−1 2 0
5 −4 0
Calcule A · B, (A · B)t e Bt · At .
∗ Dizemos que uma matriz quadrada A é SIMÉTRICA se A = At . A é ANTISIMÉTRICA se A = −At .
Exercı́cio 1.2. Mostre que se A e B forem semétricas então A + B e αA são simétricas.
• Mostre que se A e B forem semétricas então A · B é simétrica se e somente se
A · B = B · A.
Propriedades da Multiplicação de Matrizes
À partir deste momento, estaremos considerando apenas as Matrizes Quadradas, isto
é, matrizes An×n ∈ Mn×n (R). Faremos isto somente por que nossos propósitos estarão
satisfeitos com com matrizes quadradas.
• Chama-se Matriz Identidade a matriz An×n = (aij )n×n tal que
{
1, se i = j,
aij =
0, se i ̸= j,
esta matriz será denotada por In e então
In = In×n

1
0

=  ..
.
0

0 ···0
0 · · ·0

..
..  .
.
. 
0 0 · · ·1
0
1
..
.
∗ Dadas duas matrizes An×n e Bn×n , dizemos que as matrizes A e B Comutam se
A · B = B · A.
Observe que a comutatividade do produto de matrizes não é sempre verdadeira, veja
exemplo abaixo.
Exemplo 1.3. Consideremos as matrizes
(
)
(
)
1 −1
−1 1
A=
e B=
.
0 −2
2 0
Verifique que A · B ̸= B · A.
1.1. MULTIPLICAÇÃO DE MATRIZES
5
Aplique a definição 1.4 (m = n = p) e verá que
(
) (
) (
)
(
) (
) (
)
1 −1
−1 1
−3 1
−1 1
1 −1
−1 −1
A·B=
·
=
e B·A=
·
=
.
0 −2
2 0
−4 0
2 0
0 −2
2 −2
Note que A · B ̸= B · A.
⋆ Não é dificil ver que a matriz In comuta com qualquer An×n = (aij )n×n .
1.1.1
Matriz Inversa
Definição 1.6. Dada uma matriz quadrada An×n ∈ Mn×n (R) chama-se Matriz Inversa
A à uma outra matriz Bn×n ∈ Mn×n (R) tal que
A · B = In
e
B · A = In .
Denotaremos a Matriz Inversa de A por A−1 .
∗ A matriz A−1 é o elemento simétrico de A em relação à Multiplicação de Matrizes.
Exemplo 1.4. Considere as matrizes
)
(
−2 1
A=
0 3
e
1
B=
6
(
)
−3 1
.
0 2
Não é dificil ver que,
(
)
(
) (
)
1 −3 1
−2 1
1 0
·
=
0 3
0 1
6 0 2
1
e que
6
(
) (
) (
)
−3 1
−2 1
1 0
·
=
0 2
0 3
0 1
Portanto, A · B = In e B · A = In . Ou seja B é a matriz inversa de A em relação à
Multiplicação de Matrizes.
Propriedades da Multiplicação de Matrizes
Dadas An×n , Bn×n e Cn×n , são verdadeiras as afirmações abaixo:
MM1 : A · (B · C) = (A · B) · C).
MM2 : A · In = A, e In · A = A .
MM3 : A · (A−1 ) = In .
Associativa
Elemento Neutro
Elemento Simétrico
Propriedades de Distributividade
Dadas An×n , Bn×n e Cn×n , são verdadeiras as afirmações abaixo:
DM1 A · (B + C) = A · B + A · C) e (B + C) · A = B · A + C · A).
n−vezes
• A notação An significa A ·A · · · A.
6
CAPÍTULO 1. MATRIZES
Exemplo 1.5. Dadas as matrizes


(
)
1 3
1 2 −3
A=
e B = At =  2 4 .
3 4 0
−3 0
Uma Aplicação das Matrizes
Exemplo 1.6. Uma industria produz três produtos, X, Y , e Z, utilizando dois tipos de
insumos, A e B. Para a manufatura de cada kg de X são utilizados 1 grama do insumo A
e 2 gramas do insumo B; para cada kg de Y são utilizados 1 grama do insumo A e 1 grama
do insumo B, e cada kg de Z são utilizados 1 grama do insumo A e 4 gramas do insumo B.
Usando matrizes o esquema de produção pode ser descrito da seguinte forma:
 
(X Y Z)
x kg de X produzidos
gramas de A por kg 1 1 1 = A, W =
y  kg de Y produzidos
gramas de B por kg 2 1 4
z kg de Z produzidos
(
x+y+z
2x + y + z
AW =
)
gramas de A usadas
gramas de B usadas.
Exercı́cio 1.3. Dadas as matrizes




1 2 −3
−2 1 −1
3
1
A = 3 4 0  e B =  0
2 3 −1
5 −4 0
Verifique se A · B = B · A.
Exercı́cio 1.4. Mostre que as matrizes
(
A=
1 y1
y 1
)
onde 0 ̸= y ∈ R, satisfazem X 2 = 2X. (X 2 = X · X).
Encontre os valores de y ∈ R tais que A · B = B · A.
Nós definimos a Matriz Inversa (ver definição 1.6) e não dissemos que tipo de matriz
quadrada pode ter inversa, e também, não sabemos o que fazer para determinar a inversa
de uma matriz. Uma ajuda importante é dada por uma função chamada determinante.
Determinantes de Uma Matrizes
Ressaltamos que apenas as matrizes quadradas serão utilizadas neste momento.
1.1. MULTIPLICAÇÃO DE MATRIZES
7
Definição 1.7. Seja An×n = (aij )n×n , n ≥ 2. Chamamos Menor do elemento aij , denotado
por Mij , a sub-matriz de ordem (n − 1) × (n − 1) obtida de A suprimindo da matriz A a
i-ésima linha e j-ésima coluna.
Definição 1.8. O determinante de uma matriz An×n = (aij )n×n ; é uma função que a cada
matriz quadrada associa um número real, isto é, Det : M (R)n×n → R dada por
∗ Se n = 1 então o Det(A) = a11 .
∗ se n ≥ 2 então
Det(A) =
n
∑
(−1)
i=1
(i+j)
aij Det(Mij ) =
n
∑
(−1)(i+j) aij Det(Mij ).
(1.1.2)
j=1
• Não é difı́cil ver que se
(
)
a11 a12
,
A=
a21 a22
então
Det(A) =
2
∑
(−1)(i+j) aij Det(Mij ) =
i=1
(−1)(1+1) a11 Det(M11 ) + (−1)(1+2) a12 Det(M12 ) = a11 a22 − a12 a21 .
Note que o determinante dado pela definição 1.8 pode ser desenvolvido por linhas ou
por colunas, (ver (1.1.2)). O determinante de uma matriz nos oferece um teste infalı́vel
para saber quais são as matrizes quadradas que podem ser invertı́veis ou seja que possuem
inversa com relação ao produto de matrizes.
• Uma matriz An×n = (aij )n×n , tem inversa em relação ao produto de matrizes se e
somente se Det(A) ̸= 0.
Uma pergunta ainda se apresenta. Há um mecanismo capaz de produzir a insversa de
uma matriz quadrada em relação ao produto de matriz ? Veja abaixo que o determinante
de uma matriz também nos ajuda responder esta questão.
Definição 1.9. Seja An×n = (aij )n×n , n ≥ 2. Chamamos Cofator do elemento aij , denotado por Aij , o número real dado por
Aij = (−1)(i+j) Det(Mij ), i, j = 1, 2, · · · , n,
onde Mij é o Menor do elemento aji , i, j = 1, 2, · · · , n.
À matriz formada por todos os cofatores de A chamamos Matriz dos Cofatores de
A e denotamos por Cof (A).


A11 A12 A13 · · · A1n
 A21 A22 A23 · · ·A2n 


Cof (A)n×m =  ..
..
..
..  ,
 .
.
.
. 
An1 An2 An3 · · ·Ann
8
CAPÍTULO 1. MATRIZES
Exemplo 1.7. Considere a matriz


0 1 5
A = 3 −6 9 .
2 6 1
Calcule Det(A).
Nós vamos calcular o determinante de A desenvolvendo pela primeira linha.
(
)
2
∑
−6 9
(1+j)
(1+1)
Det(A) =
(−1)
a1j Det(M1j ) = (−1)
· 0 · Det
+
6 1
j=1
(
)
(
)
3 9
3 −6
(1+2)
(1+3)
(−1)
· 1 · Det
+ (−1)
· 5 · Det
2 1
2 6
= 0 + 1 · 15 + 5 · 30 = 165.
Exercı́cio 1.5. Considere a matriz


0 1 2
A = 3 −1 1 .
2 0 1
Calcule Cof (A), [Cof (A)]t , A · [Cof (A)]t ,
1.1.2
[Cof (A)]t · A
e
1
[Cof (A)]t .
Det(A)
Matriz Adjunta Clássica e Inversa
Definição 1.10. Dada An×n = (aij )n×n , chama-se Adjunta Clássica de A à matriz
[Adj(A)] = [Cof (A)]t .
Teorema 1.1. Dada An×n = (aij )n×n , se DetA ̸= 0, então
1
1
· A · [Adj(A)] = In e
· [Adj(A)] · A = In
Det(A)
Det(A)
Segue facilmente da definição 1.6 que
(1.1.3)
1
· [Adj(A)] = A−1 ( Inversa de A).
Det(A)
Exemplo 1.8. Considere a matriz


1 2 3
A = 0 3 2  .
0 0 −2
Use (1.1.3) e calcule a martiz inversa (elemento inverso) de A em relação ao produto de
matriz.
Vamos calcular os cofatores dos elementos de A.
(
)
(
)
3 2
0 2
(1+1)
(1+2)
A11 = (−1)
Det
= −6; A12 = (−1)
Det
= 0;
0 −2
0 −2
1.1. MULTIPLICAÇÃO DE MATRIZES
(
0
A13 = (−1)
Det
0
(
1
A22 = (−1)(2+2) Det
0
(
2
(3+1)
A31 = (−1)
Det
3
(1+3)
A33
9
(
)
2 3
= 0; A21 = (−1)
Det
= 4;
0 −2
(
)
)
3
1 2
(2+3)
= −2; A23 = (−1)
Det
= 0;
−2
0 0
)
(
)
3
1 3
(3+2)
= −5; A32 = (−1)
Det
= −2;
2
0 2
(
)
1 2
(3+3)
= (−1)
Det
= 3.
0 3
3
0
)
(2+1)
Assim, a matriz cofatora de A será dada por


−6 0 0
Cof (A) =  4 −2 0 .
−5 −2 3
A matriz Adjunta Clássica é a transposta de matriz cofatora de A, ou seja


−6 4 −5
Adj(A) =  0 −2 −2 .
0
0
3
O teorema 1.1 nos dá a matriz procurada que é
A−1


−6 4 −5
1
1 
0 −2 −2 .
=
Adj(A) =
DetA
−6
0
0
3
Exemplo 1.9. Uma industria produz três produtos, X, Y , e Z, utilizando dois tipos de
insumos, A e B. Para a manufatura de cada kg de X são utilizados 1 grama do insumo A e
2 gramas do insumo B; para cada kg de Y s ao utilizados 1 grama do insumo A e 1 gramas
do insumo B e, cada kg de Z s ao utilizados 1 grama do insumo A e 4 gramas do insumo
B. O preço de venda de um kg de cada um dos produtos X, Y e Z é R$ 2,00 R$ 3,00 e R$
5,00 respectivamente. Com a venda de toda produção de X, Y e Z manufaturada com 1 kg
de A e 2 kg de B, essa industria arrecadou R$ 2500,00. Vamos determinar quantos kg de
cada produto X, Y e Z foram vendidos.
Como já vimos no exemplo 1.6 usando matrizes o esquema de produção pode ser descrito
da seguinte forma:
X Y Z 
 
gramas de A por kg 1 1 1
x kg de X produzidos
gramas de B por kg 2 1 4= A, W = y  kg de Y produzidos
preço por kg
2 3 5
z kg de Z produzidos

 

x+y+z
1000
gramas de A usadas
(S) AW =  2x + y + z  =  2000  gramas de B usadas.
arrecadação
2x + 3y + 5z
25000
10
CAPÍTULO 1. MATRIZES
Veja que a resposta à pergunta que foi formulada no exemplo 1.6 será dada pelo conjunto
solução para o Sistema de Equações (S).
1.2
Sistemas de Equações Lineares
Uma Equação Linear em n variáveis x1 , x2 , · · · , xn reais é uma equação da forma
a1 x1 + a2 x2 + · · · + an xn = b,
onde a1 , a2 , · · · , an e b são números reais que não dependem das variáveis envolvidas na
equação e são conhecidos. Um Sistema de Equações Lineares ou simplesmente Sistema
Linear é um conjunto de equações lineares, ou seja


a11 x1 + a12 x2 + · · · a1n xn = b1


 a21 x1 + a22 x2 + · · · a2n xn = b2
(S) ≃
(1.2.4)
..
..
..
..
..
..
..
..

.
.
.
.
.
.
.
.


 a x + a x + ··· a x = b
m1 1
m2 2
mn n
m
onde os aij e bi i = 1, 2, · · · m, j = 1, 2, · · · n são todos números reais conhecidos.
Usando o produto de matrizes (ver definição 1.4) o sistema 1.2.12 pode ser escrito como
uma equação matricial,
AX = B,
onde,

An×m

 
 
a11 a12 a13 · · · a1m
x1
b1
 a21 a22 a23 · · ·a2m 
 x2 
 b2 


 
 
=  ..
..
..
..  , X =  ..  e B =  ..  .
 .
.
.
.
.
. 
an1 an2 an3 · · ·amm
xn
bn
(1.2.5)
Uma Solução para o sistema 1.2.12 é uma matriz
 
s1
 s2 
 
S =  ..  ,
.
sn
tal que as equações do sistema 1.2.12 são satisfeitas quando substituimos x1 = s1 , x2 = s2 ,
· · · , xn = sn .
Exemplo 1.10. Considere o sistema linear de duas equações e duas incógnitas
{
x + 2y = 1
(S) ≃
2x + y = 0
1.2. SISTEMAS DE EQUAÇÕES LINEARES
11
O sistema (S) pode ser escrito na forma matricial
(
) ( ) ( )
1 2
x
0
(S) ≃
·
=
.
2 1
y
1
−1
2
Ainda, podemos verificar facilmente que x =
e y =
formam uma solução para o
3
3
sistema (S), ou seja
( −1 )
S=
3
2
3
é o conjunto solução de (S).
Um Sistema Linear que tem solução é denominado SISTEMA POSSÍVEL. Se um
Sistema Linear que não tem solução é denominado SISTEMA IMPOSSÍVEL. Mas dentre
os SISTEMAS POSSÍVEIS, há aqueles que possuem mais que uma solução .
Exemplo 1.11. O sistema linear de duas equações e quatro incógnitas
{
x + 3y + 0z + 2w = −5
(S) ≃
0x + 0y + z − 3w = 2
tem mais que uma solução .
Note que S1 = [−5 0 2 0]t e S2 = [−7 0 5 1]t são soluções para o sistema (S).
Mas afinal dado um Sistema Linear (S) o que devemos fazer para decidirmos entre
as três possibilidades; Sistema Possı́vel com mais que uma solução , Sistema Possı́vel
apenas uma solução e Sistema Impossı́vel.
1.2.1
Operações Elementares
Definição 1.11. Uma Operação Elementar sobre as linhas de uma matriz é uma das
seguintes operações com outra linha da mesma matriz:
(i) Trocar a posição de uma das linhas da matriz.
(ii) Multiplicar uma linha por uma constante (escalar) diferente de zero.
(iii) Somar a uma linha da matriz, um múltiplo escalar de outra linha da mesma matriz.
Dado um Sistema Linear (S) como em (1.2.12) temos a Matriz A e B associada à (S).
∗ Chama-se Matriz Aumentada associada à (S) a Matriz


..
 a11 a12 a13 · · · a1m .. b1 


a
a
· · ·a2m .. b1 
a
[A|B] =  .21 .22 .23
.
..
..

 ..
..
..
.
.
b
1

.
an1 an2 an3 · · ·amm .. b1
Exemplo 1.12. Considere o sistema linear de duas equações e duas incógnitas
{
x + 2y = 1
(S) ≃
2x + y = 0
12
CAPÍTULO 1. MATRIZES
A Matriz Aumentada associada ao sistema
(
1 2
[A|B] =
2 1
(S) é a matriz
.. )
. 1
.
..
. 0
Teorema 1.2. Dados dois Sistemas Lineares AX = B e CX = D tais que a Matriz
Aumentada [C|D] pode ser obtida da Matriz Aumentada [A|B] aplicando-se apenas
uma Operação Elementar (ver definição 1.11), então os dois sistemas lineares possuem o
mesmo Conjunto Solução .
Agora vamos utilizar o teorema 1.2 e apresentar uma maneira eficiente para encontrarmos o conjunto solução para um Sistema Linear.
Método de Gauss-Jordan
O método que vamos apresentar aqui para resolver Sistemas Lineares, consiste na
aplicação das operações elementares às linhas da Matriz Aumentada associada ao sistema
linear em estudo.
Primeiro procuramos através de operações elementares obter a Matriz Aumentada de
forma que na primeira linha o primeiro elemento seja não nulo, este elemento será chamado
de Pivô. Vejamos um exemplo.
Exemplo 1.13. Considere o sistema linear (S)

 x + y
2x + y
(S) ≃

3x + 2y
dado por
+ z = 1
+ 4z = 0
+ 5z = −2
A Matriz Aumentada associada à S é
A=


.
1 1 1 .. 1
L = l1

 1
.
2 1 4 .. 0  L = 2l − l
1
2

 2
..
3 2 5 . −2 L3 = 3l1 − l3




.
.
1 1 1 .. 1 L1 = l1
1 1 1 .. 1




0 1 −3 ... 2 L = l
0 1 −2 ... 2 
2

 2


..
..
0 1 −2 . 5 L3 = l2 − l3 0 0 1 . −3
(1.2.6)
Note que as linhas L1 , L2 e L3 são linhas da matriz aumentada obtida da outra matriz
aumentada (anterior) cujas linhas são l1 , l1 e l3 elas operações elementares indicadas (ver
figura 1.2.6).
EXERCÍCIOS
1.2. SISTEMAS DE EQUAÇÕES LINEARES
13
1. De cada uma das matriz se abaixo Calcule a matriz cofatora, adjunta clássica e com
a Definição 1.7 calcule o determinante. Em seguida calcule a matriz inversa caso ela
exista.


1 3 1
A = 1 0 1 ,
2 1 4

B=

−1
0 −2
1 −1
2 ,
0
1 −1


−1 −1
0 −2
 −2
1 −1
2 
,
C=
 0
1 −1
1 
2 −2 −1
0
Para cada uma das matrizes acima calcule a sua inversa usando escalonamento de
matriz.
Agora usando o teorema 1.2 vemos facilmente que


1
 x + y + z = 1
 x + y + z =
0x + y − 3z = 2 ≃
0x + y − 3z =
2
(S) ≃


0x + y − 2z = 5
0x + 0y + z = −3
Mas o Sistema

1
 x + y + z =
0x + y − 3z =
2
(S3 ) ≃

0x + 0y + z = −3
tem como conjunto solução S3 = [11, −7, −3]t , portanto pelo teorema 1.2, o conjunto solução
para o Sistema (S) é S = S3 = [11, −7, −3]t ,
Sistemas Escalonados
Dada uma matriz
An×m


a1r1 a1r1 +1 a1r1 +2 · · · a1m
 0
a2r2 a2r2 +1 · · ·a2m 


=  ..
..
..
..  ,
 .
.
.
. 
0
0
0
· · ·anrm
(1.2.7)
onde, a1r1 ̸= 0, a1r2 ̸= 0, · · · a1rm ̸= 0. Se tivermos 1 ≤ r1 < r2 < · · · < rm ≤ m diremos que
a matriz A está escalonada.
Um Sistema Linear (S) está escalonado se a matriz aumentada associada à (S) estiver
na forma .


.
a1r1 a1r1 +1 a1r1 +2 · · · a1n .. β1


..

 0
a
a
·
·
·
a
.
β
2r2
2r2 +1
2n
2 



..
..
..
..
..
(1.2.8)
[A|B] =  ...
,
.
.
.
.
.


.


0
0
· · · amrm .. βk 
 0
..
0
0
0
···
0
. βk+1
14
CAPÍTULO 1. MATRIZES
ou seja


a1r1 x1




 0x1
..
(S) ≃
.



0x1


 0x
1
+ a1r1 +1 x2 + · · ·
+ a2r2 +1 x2 + · · ·
..
..
..
..
.
.
.
.
+
0x2
+ ···
+
0x2
+ ···
a1n xn
a2n xn
..
.
=
=
..
.
β1
β2
..
.
(1.2.9)
amrm xn = βk
0xn
= βk
onde, a1r1 ̸= 0, a1r2 ̸= 0, · · · a1rm ̸= 0.
Discussão e Resolução de Um Sistema Linear
Discutir um Sistema Linear (S) significa efetuar um estudo de (S) visando classificá-lo
segundo a definição a seguir.
Definição 1.12. Dizemos que um Sistema Linear (S) é Incompatı́vel se (S) não admite
solução . Um Sistema Linear (S) que admite uma única solução é chamado Compatı́vel
Determinado. Se um sistema admitir mais do que uma solução então ele é denominado
Compatı́vel e Indeterminado
(I) No processo de escalonamento,

 ··· ···
0x1 +
(S) ≃

··· ···
numa certa etapa, obtém-se
··· ···
0x2 +
··· ···
···
···
···
··· ···
0xn =
··· ···
···
βk
···
(1.2.10)
com βk ̸= 0, o Sistema Linear será Imcompatı́vel ou Impossı́vel e denoteremos por (SI)
ou o conjunto solução para (S) é o conjunto vazio (ver difinição 1.12) .
(II) No processo de escalonamento, numa certa etapa, obtém-se


x1 + a1r1 x2 + · · · a1n xn = β1


 0x1 +
x2
+ · · · a2n xn = β2
(S) ≃
(1.2.11)
..
..
..
..
..
..
..
..

.
.
.
.
.
.
.
.


 0x + 0x
+ ···
xn
= βn ,
1
2
o sistema (S) é Compatı́vel e Determinado (o sistema linear está
de equações é igual ao número de incógnitas)
(III) No processo de escalonamento, numa certa etapa, obtém-se


x1 + a1r1 x2 + · · · a1rp xrp + · · · a1n xn =


 0x1 +
x2
+ · · · a2rp xrp + · · · a2n xn =
(S) ≃
..
..
..
..
..
..
..
..
..

.
.
.
.
.
.
.
.
.


 0x + 0x
+ ···
xrp
+ · · · apn xn =
1
2
escalonado e número
β1
β2
..
.
(1.2.12)
βp ,
onde, p < n o sistema (S) é Compatı́vel e Indeterminado (o sistema linear está escalonado
e número de equações é menor ao número de incógnitas)
• Se um Sistema Linear tiver mais que uma solução , então o sistema terá infinitas
soluções .
1.2. SISTEMAS DE EQUAÇÕES LINEARES
15
Exemplo 1.14. Considere o Sistema

 x − 2y − z = 1
2x + y − 3z = 0
(S) ≃

x + 7y + 0z = 3

 x − 2y − z = 1
2x + y − 3z = 0
(S) ≃

x + 7y + 0z = 3

L1 = l1
 x − 2y − z = 1
L2 = −2l1 + l2 ≃
0x + 5y − z = −2

L3 = −l1 + l3
0x − 5y + z = 2

L1 = l1
 x − 2y − z = 1
L2 = l2
0x + 5y − z = −2
≃

L3 = l2 + l3
0x + 0y + 0z = 0
{
L 1 = l1
x − 2y − z = 1
L 2 = l2
≃ S3 ≃
0x + 5y − z = −2
L3 pode ser eliminada
O teorema 1.2, garante que o conjunto solução do Sistema (S) é igual aoconjunto solução
para o Sistema (S3 ), que é
2 1
1 7
S = {( + z, − + z, z) z ∈ R}.
5 5
5 5
Note que o Sistema (S) tem uma quantidade infinita de soluções .
Exemplo 1.15. Considere o Sistema

 x + y + z = 1
2x + y + 5z = 0
(S) ≃

3x + 2y + 5z = −2
Precedomos ao escalonamento de (S),

L1 = l1
 x
0x
(S) L2 = 2l1 − l2 ≃

L3 = 3l1 − l3
0x

L 1 = l1
 x
0x
L 2 = l2
≃ (S3 ) ≃

L3 = l2 − l3
0x
+ y + z = 1
+ y − 3z = 2
+ y − 2z = 5
+ y + z =
1
+ y − 3z =
2
+ 0y − z = −3
como conjunto solução para o sistema (S3 ) é S3 = [−14 11 3]t , pelo teorema 1.2, o conjunto
solução para o Sistema (S) é S = S3 = [−14 11 3]t . Note que o Sistema (S) tem uma única
solução e portanto (S) é Compatı́vel e Determinado.
Exemplo 1.16. Considere o Sistema

 x + 2y + 3z = 1
3x + 6y + 9z = 0
(S) ≃

3x + 2y + 5z = −2
16
CAPÍTULO 1. MATRIZES
Precedomos ao escalonamento de (S),

L1 = l1
 x + y + z = 1
0x + 0y − 0z = 3
(S) L2 = 3l1 − l2 ≃

L3 = 3l1 − l3
0x + y − 2z = 5
Note que a segunda equção já é incompatı́vel, e isto torna o Sistema (S) incompatı́vel ou
seja o conjunto solução de (S) é vazio.
Capı́tulo 2
GEOMETRIA
RETA Dados dois pontos distintos no espaço P e Q, existe única reta que passa por P e
Q. Denotaremos esta reta por P Q ou será utilizado uma letra minúscula para representar a
reta, por exemplo s, t, ect... . Diremos reta P Q ou reta s por exemplo.
SEGMENTO DE RETA Dada uma reta r e dois pontos distintos sobre ela, o segmento
¯ é o conjunto dos pontos da reta r que estão entre os pontos A e B.
de reta AB
Dada uma reta r ⊂ e um ponto P fora da reta r, existe uma única reta t que passa por P
que é paralela à reta r. Ainda existe uma única reta s que passa por P que é perpendicular
à reta r.
2.0.2
Segmentos Orientados
Definição 2.1. Um segmento orientado é um par ordenado (A, B) de pontos do espaço. Se
nos for dado um segmento (A, B), tal que o ponto A seja igual ao ponto B, diremos que o
segmento (A, A) ou (B, B) é o segmento nulo.
• O segmento orientado (A, B) consiste dse todos os pontos da reta AB que estão entre
A e B, inclusive os pontos A e B, mas deve ser considerado a orientação de A para B.
• Um segmento orientado nulo é determinado por um par de pontos coincidentes.
¯ é denominada reta suporte do segmento orientado
A reta AB que contém o segmento AB
(A, B). Os pontos A e B são denominados origem e extremidade do segmento respectivamente. Geometricamente um segmento orientado será indicado por uma flexa, veja o
seguinte exemplo.
Exemplo 2.1. Dados quatro pontos A, B, C e D do espaço como abaixo, podemos considerar
os segmentos (A, B) e (C, D) como segue
C
Q
Q
A
Q
Q
QQ
s D
B.
1. Segmento Oposto
17
18
CAPÍTULO 2. GEOMETRIA
Definição 2.2. Dado um segmento orientado (A, B), chama-se segmento orientado
oposto de (A, B) o segmento orientado (B,A).
Não é difı́cil ver que a cada segmento orientado (A, B) está associado uma três conceitos
geométricas importantes que são COMPRIMENTO, DIREÇÃO e SENTIDO.
À partir deste instante, estas propriedades dos segmentos orientados passam a ser o
nosso objeto de estudo e veremos que, com argumentos detalhados elas poderão nos
oferecer uma vizualização particularmente especial do ”espaço que nos cerca”. Estes
conceitos geométricos são aqui denominados importantes por serem conhecidos como
Grandezas Vetorias e alguns dos exemplos mais populares são FORÇA, VELOCIDADE
e ACELERAÇÃO.
Note que, dois pontos quaisquer A e B do espaço, determinam os segmentos orientados
(A, B) e (B, A), que poderão ser iguais se o ponto A coincidir com o ponto B.
Igualdade de Dois Segmentos Orientados
Definição 2.3. Dois segmentos orientados (A, B) e (C, D), SERÃO IGUAIS se e
somente se, A ≡ B e C ≡ D.
2. Comprimento
Definição 2.4. Fixada uma unidade de de comprimento, a cada segmento orientado
(A, B) podemos associar um número real positivo ou zero, que será o COMPRIMENTO
de (A, B).
• Dado um segmento orientado (A, B), a distância do ponto A até o ponto B será o
comprimento do segmento orientado (A, B).
• Como a distância de um ponto qualquer até ele mesmo é zero, ao segmento orientado
(A, A) (segmento nulo) está associado o número real zero, ou seja o comprimento do
segmento orientado nulo (A, A) é exatamente zero.
3. Direção
Definição 2.5. Dados dois segmentos orientados (A, B) e (C, D), diremos que eles
têm a mesma DIREÇÃO se as retas AB e CD forem paralelas.
Se dois segmentos orientados (A, B), e (C, D) têm mesma direção, diremos que eles
são paralelos.
Note que um papalelogramo ABCD determina pelo menos um par de segmentos orientados
digamos (A, B), e (C, D)
B
C
A
D
19
Exemplo 2.2. Considere os dois segmentos orientados (A, B), e (C, D), de modo
que as retas AB e CD sejam paralelas.
B
A
C
D
Pela definção 2.5 os segmentos orientados (A, B), e (C, D) têm a mesma direção.
4. Sentido
Definição 2.6. Dados dois segmentos orientados (A, B) e (C, D) com mesma direção
a : Se as retas AB e CD forem distintas, diremos que eles têm o mesmo SENTIDO
¯ e BD
¯ tiverem interseção vazia.
se as segmentos de retas AC
b : Se as retas AB e CD forem coincidentes, tome um ponto A′ ∈
/ AB e a única
′
reta s que passa por A e que é paralela à reta AB, em seguida tome o único ponto
B ′ ∈ s de modo que os segmentos orientados (A′ , B ′ ) e (A, B) satisfaçam a parte (a)
desta definição. Diremos que os segmentos orientados (A, B) e (C, D) têm o mesmo
SENTIDO se (A′ , B ′ ) e (C, D) tiverem o mesmo sentido .
Exemplo 2.3. Considere os segmentos orientados (A, B), e (C, D) de modo que as retas
AB e CD sejam paralelas e distintas, como segue
A`
B ```
```
```
``C
D
¯ e BD
¯ têm interseção vazia, ou seja pela definição 2.6 a,
Note que os segmentos de retas AC
os segmentos orientados (A, B), e (C, D) têm o mesmo sentido.
Exemplo 2.4. Considere os segmentos orientados (A, B), e (C, D) de modo que as retas
AB e CD sejam paralelas e distintas, como segue
A
@
@
!
@
!! D
!
@
!
@!!
!
!
@
!
!!
@
!
!!
@ B !
@ C
¯ e BD
¯ têm interseção não vazia, ou seja pela definição
Note que os segmentos de retas AC
2.6a os segmentos orientados (A, B), e (C, D) têm sentidos ontrários.
20
CAPÍTULO 2. GEOMETRIA
2.0.3
Equipolência de Segmentos Orientados
Definição 2.7. Dois segmentos orientados (A, B), e (C, D) são EQUIPOLENTES se
a : os dois forem nulos.
b : os dois são não nulos e eles têm o mesmo comprimento, mesma direção e mesmo
sentido.
Notação
(A, B) ∼ (C, D) indica que os dois segmentos orientados (E, F ), e (G, H) são equipolentes,
Exemplo 2.5. Considere dois papalelogramos ABCD e EF GH suponha que eles estão
representados nas figuras abaixo:
B
A
D
C
F
G
H
E
Note que o fato de ABCD e EF GH serem um paralelogramos as definições 2.4 e 2.5 nos
garante que os pares de segmentos orientados (A, B) e (C, D); (E, F ), e (G, H) têm mesmo
comprimento, mesma direção, usando a definição 2.6 vemos que (A, B) e (C, D) têm mesmo
sentido e portanto são EQUIPOLENTES. Mas os segmentos orientados (E, F ), e (G, H)
que têm mesmo comprimento e mesma direção, usando a definição 2.6 vemos que eles não
têm o mesmo sentido, e por isto eles não são equipolentes.
Proposição 2.1. A relação de equipolência goza das seguintes propriedades:

Reflexiva
 a : (A, B) ∼ (A, B)
b : Se (A, B) ∼ (C, D), então (C, D) ∼ (A, B)
Comutativa

c : Se (A, B) ∼ (C, D) e (C, D) ∼ (E, F ) então (A, B) ∼ (E, F ) Transitiva
A demonstração será omitida.
Exemplo 2.6. Considere os segmentos orientados abaixo. Suponha que as retas AB, CD,
¯ CD,
¯ EF
¯ e F¯G tenham o
EF e F G sejam duas a duas paralelas e que os segmentos AB,
mesmo comprimento ver figura abaixo :
D
E
B H
A C F
G
2.1. VETORES
21
Usando as definições 2.4, 2.5, 2.6 e a transitividade da relação de equipolência (ver Prop. 2.1),
podemos verificar facilmente que os segmentos orientados (A, B), (C, D), (E, F ) e (G, H)
têm mesmo comprimento, mesma direção e mesmo sentido, portanto eles são equipolentes
(Note que verificamos a equipolência comparando grupos de dois apenas segmentos orientados).
Dado um segmento orientado (A, B) podemos pensar nos segmentos orientados que
são equipolentes ao segmento orientado (A, B) e estes serão muitos. Por exemplo sabe-se
ao arremessar-mos um objeto de massa não nula para o alto, este objeto passará por uma
quantidade enorme de pontos do espaço e a estes pontos denominamos de trajetória. Em
cada ponto desta trajetória o objeto estará sujeito à Força da Gravidade, ou seja ele estará
sujeito à força de atração gravitacional, que aqui em nossa linguagem o que corresponde a um
conjunto de segmentos orientados representado pela letra P⃗ (Força Peso). Podemos agora
pensar em todos os segmentos orientados que são equipolentes à um segmento orientado
fixado.
• Chama-se Classe de Equipolência de um segmento orientado (A, B), ao conjunto
de todos os segmentos orientados que são equipolentes ao segmento orientado )(A, B).
Note que o próprio (A, B) é um segmento orientado deste conjunto. Na verdade se dois
segmentos orientados (A, B) e (C, D) forem equipolentes então a Classe de Equipolência
de (A, B) coincidirá com Classe de Equipolência de (C, D).
2.1
Vetores
Definição 2.8. Um Vetor Geométrico é uma classe de equipolência.
∗ Cada segmento orientado da Classe de Equipolência ou do vetor será chamado de
representante do vetor.
• A força da gravidade é um vetor, pois ela é um conjunto de segmentos orientados
equipolentes ou seja ela é uma Classe de Equipolência.
• Representaremos os vetores por letra minúscula com uma seta sobre ela ⃗a ⃗b, ⃗u, ⃗v , w
⃗
etc... ou ainda se o segmento orientado (A, B) for um representante do vetor ⃗u, por exemplo
⃗ .
podemos indicar o vetor ⃗u por AB
Definição 2.9. À classe de equipolência do segmento orientado nulo ( (A, A) ) chamamos
Vetor Nulo.
Assim sendo podemos ver que
(i) O vetor nulo tem comprimento zero.
(ii) O vetor nulo tem a mesma direção que qualquer outro vetor.
(iii) O vetor nulo tem a mesmo sentido que qualquer outro vetor.
O vetor nulo será representado por ⃗0.
Definição 2.10. Chamamos Espaço IE 3
ao conjunto de todos os vetores geométricos.
∗ Os vetores ⃗x, ⃗y não nulos serão paralelos (indica-se ⃗x//⃗y ) se e somente se um representante (A, B) de ⃗x for paralelo a um representante (C, D) de ⃗y
∗ Chamamos Norma, Módulo ou Comprimento de um vetor ao comprimento de
qualquer um de seus representantes.
22
CAPÍTULO 2. GEOMETRIA
• Dado um vetor ⃗v podemos tomar um de seus representantes, digamos (A, B) e indi⃗
carmos ⃗v por BA.
Vetor Oposto
Definição 2.11. Se o segmento orientado (A, B) for um representante do vetor ⃗u então o
segmento orientado (B, A) será um representante do vetor −⃗u denominado Vetor Oposto
⃗ é o oposto do vetor AB.
⃗ Indicamos oposto de BA
⃗ por −AB.
⃗
de ⃗u ou seja o vetor BA
• Dado um vetor ⃗u, existe um único ponto A ∈ IE 3 tal que ⃗u tem um representante com
origem em A.
Neste instante temos um conjunto muito bem definido que é IE 3 e a partir deste momento
nosso interesse é em explorar mais este conjunto, isto é saber quais são seus elementos, como
seus elementos se relacionam com nossa vida cotidiana, particularmente algumas relações
dos elementos de IE 3 com a elementos da conhecida Geometria de Euclides.
ADIÇÃO DE VETORES
Definição 2.12. A adição de vetores é uma função que a cada par de vetores (⃗u, ⃗v ) de
IE 3 × IE 3 associa um vetor de IE 3 que é chamado SOMA de ⃗u por ⃗v e indicado por ⃗u + ⃗v .
A função age da seguinte forma sobre o par (⃗u, ⃗v ): considere um representante (A, B) de ⃗u,
e um representante de ⃗v com origem em B, e extremidade em C, a classe de equipolência
que contém o segmento orientado (A, C) é o vetor ⃗u + ⃗v .
Ver a figura abaixo:
B
⃗u
QQ
v
Q ⃗
Q
Q
Q
Q
w
⃗ = ⃗v + ⃗v
A
Q
s D
Q
-
Esta regra de adição de vetores é conhecida como regar triangular. Há outra regra que é a
conhecida como regra do paralelogramo.
B
⃗u
A
Q
Q
Q
QQ
v
Q ⃗
Q
Q
Q
w
⃗ = ⃗v + ⃗v
Q
Q
Q
Q
QQ
s
D
⃗u
Q
Q
s C
Q
Q
Q
Q
Q
Q
⃗v
Q
Q
QQ
s
Esta regra se aplica da seguinte forma : Fixamos um ponto A ∈ IE 3 e tomamos o único
ponto B ∈ IE 3 tal que o segmento orientado (A, B) seja um representante do vetor ⃗u, em
2.1. VETORES
23
seguida com o ponto B tomamos o único ponto C ∈ IE 3 tal que o segmento orientado
(B, C) seja um representante do vetor ⃗v . Analogamente, determinamos o ponto D ∈ IE 3
e em seguida um ponto C ′ que por nossa construção coincide com o ponto C. Assim teremos o paralelogramo ABCD, e a soma dos vetores ⃗u e ⃗u é a classe de equipolência do
segmento orientado (A, C). Note que o segmento AC é a diagonal principal do paralelogramo ABCD.
Exercı́cio 2.1. Mostrar que a diagonal secundária do paralelogramo ABCD nos dá a diferença dos vetores ⃗u e ⃗v .
Note que o conjunto IE 3 (ver definição ) juntamente com a definição 2.12 torna-se análogo
ao conjunto R (números reais) com a operação de adição de números, já bem conhecida nossa.
Mas a operação adição de números reais no conjunto R
•
•
•
•
TEM ELEMENTO NEUTRO (ZERO),
É ASSOCIATIVA,
É COMUTATIVA,
CADA NÚMERO REAL TEM INVERSO (a ∈ R tem inverso −a ∈ R).
Uma pergunta importante: A operação adição no conjunto IE 3 (ver definição 2.12) tem as
mesmas propriedades que operação adição de números reais no conjunto R ?
∗ A partir deste instante o espaço IE 3 será referido como (IE 3 , +) espaço IE 3 com a
operção de adição
PROPRIDADES DE ADIÇÃO DE VETORES
Dados ⃗u, ⃗v e w
⃗ em (IE 3 , +),
PA1 (⃗u + ⃗v ) + w
⃗ = ⃗u + (⃗v + w)
⃗
Associativa
PA2 ⃗u + ⃗v = ⃗v + ⃗u
PA3 ⃗u + ⃗0 = ⃗u
Comutativa
Elemento Neutro
PA4 ⃗u + (−⃗u) = ⃗u
Elemento Oposto ou Simétrico
Exercı́cio 2.2. Considere os vetores ⃗a e ⃗b cujos representantes são os segmentos orientados
(A, B) e (B, C) respectivamente (ver figura abaixo) e calcule ⃗a + ⃗b e ⃗a − ⃗b usando a regar do
triângulo e do paralelogramo.
A
C
Q
Q
Q
Q
Q
Q
Q
QQ
s B
24
CAPÍTULO 2. GEOMETRIA
Exercı́cio 2.3. Considere os vetores ⃗a, ⃗b e ⃗e cujos representantes são os segmentos orientados
(A, B), (C, D) e (E, F ) respectivamente (ver figura abaixo) e calcule
• (⃗a + ⃗b) + ⃗e; • ⃗a − ⃗b − ⃗e • ⃗a − (⃗b − ⃗e)
usando a regra do triângulo e do paralelogramo.
A
E
D
2.1.1
Q
Q
Q
-F QQ
Q
C
Q
QQ
s B
Multiplicação de Número Real (escalar) Por Vetor
Vamos definir uma operação externa em IE 3 .
Definição 2.13. Multiplicação de número real ou escalar por um vetor é uma função que a
m
cada par ordenado (α, ⃗u) ∈ R×IE 3 associa um vetor w
⃗ ∈ IE 3 denotado por α·⃗u, (α, ⃗u) → α·⃗u.
• Como a função multiplicação a associa um par ordenado, como na definição , um
vetor, se faz necessário saber informar qual é o comprimento a direção e o sentido deste
novo vetor.
m
∗ Se α = 0 então (0, ⃗u) → ⃗0 ou 0 · ⃗u = ⃗0 .
m
∗ Se ⃗u = ⃗0, então (α, ⃗0) → ⃗0 ou α · ⃗0 = ⃗0.
∗ Se α ̸= 0, e ⃗u ̸= ⃗0, então
a : ∥α · ⃗u∥ = |α|∥⃗u∥
b : α · ⃗u // ⃗u ; (os vetores α · ⃗u e ⃗u são paralelos).
c : α · ⃗u e ⃗u terão o mesmo sentido se α > 0 e terão sentidos contrários se α > 0.
Note que a multiplicação de vetor por escalar (número) pode aterar o comprimento e o
sentido do vetor, mas não altera a direção .
Exemplo 2.7. Dado um vetor ⃗v ∈ IE 3 com segmento orientado (A, B), tomemos retas
CD, EF e GH de modo que ass retas AB CD, EF e GH sejam duas à duas paralelas e os
¯ EF
¯ e GH
¯ satisfaçam a relação
comprimentos dos segmentos CD,
¯ = 2comp(AB)
¯ = comp(EF
¯ )
comp(CD)
e
¯ = 5 comp(AB).
¯
comp(GH)
2
(2.1.1)
Usando a definição 2.5 podemos ver os segmentos orientados (A, B) (C, D), (E, F ) e
(G, H) têm mesma direção, usando (2.1.1) e a definição 2.13 (Note que α ̸= 0), podemos ver
que
• segmento orientado (C, D) é representante do vetor 2⃗v (α = 2) ,
• segmento orientado (E, F ) é representante do vetor −2⃗v , (α = −2)
2.1. VETORES
25
5
5
• segmento orientado (G, H) é representante do vetor ⃗v , (α = )
2
2
e com isto construir a figura abaixo.
B
⃗v
A
D
E
5
⃗
2⃗v −2⃗v v
2
F
G
C
H
Vejamos agora como as duas operações dadas nas definições 2.12 em IE 3 × IE 3 , e 2.13
em R × IE 3 se relacionam.
PROPRIEDADES DE MULTIPLICAÇÃO POR ESCALAR
Dados ⃗u, ⃗v ∈ IE 3 , α ∈ R β ∈ R, então
M1 α(⃗u + ⃗v ) = α⃗u + α⃗v .
M2 (α + β)⃗u = α⃗u + β⃗u.
M3 1⃗u = ⃗u.
M2 α(β⃗u) = (αβ)⃗u = β(α⃗u).
∗ A partir deste instante o espaço IE 3 será indicado por (IE 3 , +, ·) onde lê-se espaço IE 3
com as operções de Adição e Multiplicação por Escalar (Número real)
∗ As quatro propriedades de adição juntamente com a quatro propriedades de Multiplicação por escalar (número real) fazem uma estrutura especial dentro do conjunto IE 3
chamada Estrutura de Espaço Vetorial e por isto de agora em diante nos referiremos ao
conjunto (IE 3 , +, ·) como um Espaço Vetorial
1
∗ Se α ∈ R e ⃗v ∈ R com α ̸= 0, será utilizado apenas a notação ⃗v , de modo algum
α
⃗v
será permitida a notação .
α
Exercı́cio 2.4. Prove a regra dos sinais
a (−α)⃗v = (−α⃗v ) para todo α ∈ R e ⃗v ∈ IE 3 .
b α(−⃗v ) = −(α⃗v ) para todo α ∈ R e ⃗v ∈ IE 3 .
c (−α)(−⃗v ) = α⃗v para todo α ∈ R e ⃗v ∈ IE 3 .
Prova a : Note que pela definição 2.11 a igualdade (a) nos diz que o vetor oposto de
(−α)⃗v é (−α⃗v ) ou seja, devemos provar que (−α)⃗v + (−α⃗v ) = ⃗0.
Mas
M2
(−α)⃗v + (−α⃗v ) = (−α + α) = 0⃗v
Def 2.13
=
Prova b: Agora devemos provar que α(−⃗v ) + −(α⃗v ) = ⃗0.
Mas
M1
α(−⃗v ) + (α⃗v ) = α(⃗v − ⃗v ) = α⃗0
A prova de c é deixada como exerı́cio.
Def 2.13
=
⃗0
⃗0.
26
CAPÍTULO 2. GEOMETRIA
Proposição 2.2. Dado α, β ∈ R e ⃗u ∈ IE 3 ,
• se α⃗u = ⃗0, então α = 0 ou ⃗u = ⃗0.
•• se ⃗u ̸= ⃗0 e α⃗u = β⃗u, então α = β.
Prova : Priemiro vamos provar •. Supponha que α ̸= 0 então existe α−1 ∈ R tal que
α−1 α = 1. Multiplicando α⃗u = ⃗0 de ambos os membros por α−1 teremos αα−1⃗u = α−1⃗0 = ⃗0,
então ⃗u = ⃗0. Vamos provar agora ••. Como
α⃗u = β⃗u ⇒ α⃗u − β⃗u = ⃗0
Def 2.13
⇒
α⃗u + ((−β⃗u)) = ⃗0,
Portanto,
P rop 2.2 •
M2
α⃗u + (−β⃗u) = ⃗0 ⇒ (α − β)⃗u =⇒ (α − β = 0) ou ⃗u = ⃗0.
Mas, por hipótese ⃗u ̸= ⃗0, portanto α = β.
Como ⃗u ̸= ⃗0 temos α = β.
Exercı́cio 2.5. Considere a figura abixo (o sólido ABCD é um tetraedro), e os vetores m,
⃗ ⃗n e
p⃗ cujos representantes são os segmentos orientados (A, B), (A, C) e (A, D) respectivamente.
K D
A
A
A
A
A
A
A
A
A
C
AA
@
@
@
@
@ +
@ B
(i) • Encontre os vetores ⃗u, ⃗v e w
⃗ cujos representantes são os segmentos orientados
(C, B), (C, D) e (B, D) respectivamente, como função de m,
⃗ ⃗n e p⃗.
(ii) • Seja M ponto médio do segmento de reta CB, exprima o vetor ⃗a com um representante dado pelo segmento orientado (A, M ) em função de m
⃗ e ⃗n.
2.1.2
Soma de Ponto com Vetor
Neste momento nós temos dois conjuntos muito bem definidos que são o espaço no qual
”vivemos”que denotaremos por IE ou o conjunto dos pontos do espaço e o conjunto de
Vetores Geométricos (ver Def. 2.1) que estamos indicando por IE 3 . Poderı́amos dizer que
o conjunto IE é o conjunto de dos pontos do espaço. Em verdade podemos definir uma
correspondência entre estes dois conjuntos que é uma função . Veja definição a seguir.
2.1. VETORES
27
Definição 2.14. Dado um ponto P em IE e um vetor ⃗v em IE 3 , seja Q o único ponto em
IE tal que o segmentos orientados (P, Q) seja um representante para o vetor ⃗v . Este ponto
Q ∈ IE é denominado a Soma do Ponto P com o Vetor ⃗v , e denotamos por Q = P + ⃗v .
Q
⃗v
P
Dados P ∈ IE e ⃗v ∈ IE 3 , Q = P + ⃗v
ou Q = P + P⃗Q
• Usaremos a notação P − ⃗v para indicar a soma do ponto P com o vetor −⃗v , e assim
teremos P − ⃗v = P + (−⃗v ).
PROPRIEDADES DA SOMA DE PONTO COM VETOR
Dados P, ∈ IE, ⃗v , ⃗u ∈ IE 3 , temos
PS1 P + ⃗0 = P ,
Esta é uma decorrência do imediata da definição 2.14, pois P⃗P = ⃗0 (ver Def. 2.9) então
P + ⃗0 = P .
PS2 Se P + ⃗v = P + ⃗u então ⃗v = ⃗u.
Note que se Q = P + ⃗v = P + ⃗u, ent ao da defnição2.14 P⃗Q = ⃗v e P⃗Q = ⃗u, portanto
⃗u = ⃗v . Esta propriedade permitem um tipo de Cancelamento do ponto P na igualdade
P + ⃗u = P + ⃗v .
PS3 (P + ⃗v ) + ⃗u = P + (⃗v + ⃗u).
Sejam Q = P + ⃗u, R = Q + ⃗v ,(ver figura abaixo) então R = (P + ⃗u) + ⃗v . Ainda,
⃗ = ⃗v . Realizando a soma de P⃗Q com QR
⃗ teremos
segue da definição 2.14 que P⃗Q = ⃗u, QR
⃗ = ⃗v + ⃗u, mas P⃗Q + QR
⃗ = P⃗R. Novamente pela definição 2.14 R = P + (⃗u + ⃗v )
P⃗Q + QR
agora pela propriedade PS3 tem-se (P + ⃗u) + ⃗v = P + (⃗u + ⃗v ).
Q
⃗u
P
QQ
v
Q ⃗
Q
Q
Q
Q
Q
w
⃗ = ⃗v + ⃗v
Q
s R
-
PS4 Se P + ⃗v = Q + ⃗v , então P = Q.
Como
P + ⃗v = Q + ⃗v ⇒ (P + ⃗v ) − ⃗v = (Q + ⃗v ) − ⃗v
P + (⃗v − ⃗v ) = Q + (⃗v − ⃗v ) ⇒ P + ⃗0 = Q + ⃗0
P S3
⇒
P S1
⇒ P =Q
PS5 (P − ⃗v ) + ⃗v = P
Esta propriedade decorre de PS3 e PS1. Pois
P S3
(P − ⃗v ) + ⃗v = =
P S1
P + (⃗v + (−⃗v ) = = P + ⃗0 = P.
28
CAPÍTULO 2. GEOMETRIA
•
Neste caso se o vetor ⃗u tem como representante o segmento orientado (A, B), é
−→
⃗ por B − A.
comum representar o vetor AB
∗ A soma de ponto com vetor é uma relação muito importante entre os conjuntos IE e IE 3 ,
porque ela relaciona o conjunto de pontos do espaço com o conjunto de Vetores Geométricos.
Esta relação será utilizada para descrever subconjuntos de pontos do espaço, por exemplo
Retas, Planos, Semi-retas, Semi-planos, e posições entre eles.
Exercı́cio 2.6. Na figura ao abaixo os pontos M , N e O são pontos médios de P Q, QR e
⃗ , QO
⃗ e P⃗N como função P⃗R e P⃗Q.
RP respectivamente. Exprima RM
Q
Q
M
Q
Q• N
Q
Q
O•
P
Q
Q
Q R
Resolução
⃗ = RP
⃗ + P⃗M , isto porque M é ponto médio de P Q, e pudemos
• É fácil ver que RM
nos valer da definição 2.12. Mas com a definição 2.13 podemos ver que e novamente que M
é ponto médio de P Q, vemos que P⃗M = 21 P⃗Q. Então,
⃗ = RP
⃗ + 1 P⃗Q.
RM
2
(2.1.2)
Encontramos a função de P⃗R e P⃗Q que procurávamos.
• Vamos escrever P⃗ N em função de P⃗R e P⃗Q.
Use a defição 2.12 e note que
P⃗N
Def.2.12
=
⃗ , N ponto médio de QR nos dá 2RN
⃗ = QR
⃗
P⃗R + RN
Def.2.12
=
⃗ + P⃗Q,
RP
Então,
P⃗N
Def.2.12,2.13
=
)
1( ⃗
1
M S1 1
⃗
P Q + RP + P⃗R = P⃗Q − P⃗R + P⃗R.
2
2
2
Portanto,
P⃗N = 12 P⃗Q + 12 P⃗R.
(2.1.3)
⃗ é função P⃗R e P⃗Q.
• Fica como exercı́cio provar que QO
A conclusão do exerı́cio 2.6 é válida mesmo quando os pontos M , N e O escolhidos não
forem pontos médios, ver o exercı́cio abaixo :
Exercı́cio 2.7. Na figura abaixo a medida de P X é a metade da medida de XR. Exprima
⃗ em função de QP
⃗ e QR.
⃗
QX
Q
Q
Q
P
X
Q
Q
Q
Q
Q
Q
Q R
2.1. VETORES
Resolução
29
⃗ então
O enunciado do exercı́cio nos diz que P⃗X = 12 XR,
)
1 ⃗
1( ⃗
1 ⃗
M S1 1 ⃗
⃗
⃗
⃗
⃗
QX − QP = P X = XR =
QR − QX = QR
− QX
2
2
2
2
Observe a primeira e última igualdade, elas no dão,
⃗ − 1 QX
⃗
⃗ − QP
⃗ = 1 QR
QX
2
2
Def. 2.11
⇒
3 ⃗
1 ⃗
⃗
QX = QR
+ QP
2
2
⃗ = 1 QR
⃗ + 3 QP
⃗ .
QX
3
2
Def. 2.13
⇒
(2.1.4)
Exercı́cio 2.8. Seja ABC um triângulo, e M e N pontos médios de AC e BC respectiva⃗
mente. Mostre que M⃗N = 12 AB.
Exercı́cio 2.9. Prove que se os pontos médios dos lados de um quadrilátero convexo forem
vétices de um segundo quadrilátero, este será um paralelogramo.
2.1.3
Dependência e Independência Linear
⃗ , P⃗N e CX,
⃗ respectivamente,
Observe que em (2.1.2), (2.1.3) e (3.1.4) temos os vetores RM
foram expressos como função de outros vetores, em verdade, a função que aparece no lado
direito de cada uma das expressões de (2.1.2), (2.1.3) e (3.1.4) é uma Função Linear dos
vetores envolvidos. Este tipo de expressão é denominado COMBINAÇÃO LINEAR ou seja,
⃗ aparece escrito como COMBINAÇÃO LINEAR dos vetores
∗ em (2.1.2) o vetor RM
⃗ e P⃗Q;
RP
∗ em (2.1.3) o vetor P⃗N aparece escrito como COMBINAÇÃO LINEAR dos vetores
P⃗Q e P⃗R;
ver em (3.1.4) qual a COMBINAÇÃO LINEAR que aparece.
Definição 2.15. Dadas (α1 , α2 , · · ·, αn ) sequência de números reais (n-upla ordenada), e
(⃗u1 , ⃗u2 , · · ·, ⃗un ) sequência de vetores (n-upla de ordenada de vetores), dizemos que um vetor
⃗u inIE 3 é COMBINAÇÃO LINEAR dos vetores ⃗u1 , ⃗u2 , · · ·, ⃗un , se
⃗u = α1⃗u1 + α2⃗u2 + · · · + αn⃗un .
⃗ + 3 QP
⃗ .
⃗ = 1 QR
Exemplo 2.8. Tome na expressão CX
3
2
(2.1.5)
30
CAPÍTULO 2. GEOMETRIA
⃗
⃗ e se ⃗u = CX,
⃗ temos a sequência
Observe que α1 = 31 , ⃗u1 = QR,
α2 = 23 e ⃗u2 = QP
1 3
⃗ QP
⃗ ) e ⃗u escrito
de números reais (α1 , α2 ) = ( 3 , 2 ) e a sequência de vetores (⃗u1 , ⃗u2 ) = (QR,
⃗ QP
⃗ ).
como COMBINAÇÃO LINEAR dos vetores (⃗u1 , ⃗u2 ) = (QR,
Exemplo 2.9. Seja P⃗N = 12 P⃗Q + 21 P⃗R como em (2.1.3).
Note que se α1 = α2 = 12 e ⃗u1 = P⃗Q, ⃗u2 = P⃗R, então se ⃗u = P⃗N teremos ⃗u escrito como
COMBINAÇÃO LINEAR de ⃗u1 e ⃗u1 .
∗ Diremos que a COMBINAÇÃO LINEAR
⃗u = α1⃗u1 + α2⃗u2 + · · · + αn⃗un .
(2.1.6)
é a COMBINAÇÃO LINEAR NULA se ⃗u = ⃗0 for o vetor nulo.
• Dada uma sequência de vetores (⃗u1 , ⃗u2 , · · ·, ⃗un ), há uma maneira muito fácil, digamos
trivial, de se obter a COMBINAÇÃO LINEAR NULA destes vetores, que é escolher todos
os elementos da sequência de números (α1 , α2 , · · ·, αn ) = (0, 0, · · ·, 0), e assim teremos a
COMBINAÇÃO LINEAR
0⃗u1 + 0⃗u2 + · · · + 0⃗un = ⃗0.
Exemplo 2.10. Considere os vetores ⃗u, ⃗v e w
⃗ com segmentos orientados (P, Q), (Q, R) e
(R, P ) respectivamente, como na figura abaixo:
Q
⃗u
P
QQ
w
⃗
v
Q ⃗
Q
Q
Q
Q
Q
Q
s R
Segue diretamente da definição 2.12 que ⃗0 = ⃗u + ⃗v + w
⃗ ou seja, o vetor ⃗0 é combinação nula
de ⃗u, ⃗v e w.
⃗
Observação 2.1. Se dois vetores ⃗u e ⃗v forem paralelos existirá um número real α tal que
⃗u = α⃗v .
Prova Como ⃗u e ⃗v são paralelos e simultaneamente não nulos, ⃗u e ⃗v têm mesma direção.
Ainda não é difı́cil ver que existe α ∈ R tal que ∥⃗u∥ = |α|∥⃗v ∥. Como
{
|α| = α, se α > 0,
|α| = −α, se α < 0,
∥⃗u∥
,. Se um dos vetores ⃗u e ⃗v for o vetor nulo, por exemplo ⃗u = ⃗0, então
∥⃗v ∥
tomamos α = 0 e poderemos escrever ⃗u = α⃗v . Note que o vetor nulo é paralelo à qualquer
outro vetor.
Nas condições da observação 2.1 podemos concluir que ⃗u e ⃗v terão mesma direção se
α > 0 e sentido contrário se α < 0.
então ⃗u = α⃗v e α =
2.1. VETORES
31
Também nas condições da observação 2.1 pode-se obter a COMBINAÇÃO LINEAR
NULA dos vetores , ⃗u e ⃗v ( ⃗u − α⃗v = ⃗0). Note que a sequência de números (1, −α) é não
nula. Vejamos qual é a relação de depenência entre α e e ⃗u e ⃗v , indnependente do valor de
α.
Cálculo do valor de α. O comprimento de α⃗v e ⃗u são iguais, então
∥⃗u∥ = ∥α⃗v ∥
Def. 2.13
=⇒
∥⃗u∥ = |α|∥⃗v ∥;
• se os dois vetores forem não nulos, então ∥⃗v ∥ ̸= 0 e assim,
α=
∥⃗u∥
,
∥⃗v ∥
ou seja α é unicamente determinado.
∗ Dada uma sequência de vetores (⃗u1 , ⃗u2 , · · ·, ⃗un ), tal que um deles é o vetor nulo, então
existirá pelo menos uma sequência de números reais (α1 , α2 , · · ·, αn ) ̸= (0, 0, · · ·, 0) que torna
possı́vel a COMBINAÇÃO LINEAR NULA de (⃗u1 , ⃗u2 , · · ·, ⃗un ). Vejamos é possı́vel encontrar
uma sequência de números reais (α1 , α2 , · · ·, αn ) ’não nula.
Suponha que ⃗u1 ̸= ⃗0. Então existe a sequência de números reais (α1 , α2 , · · ·, αn ) com α1 ̸= 0
por exemplo α1 = 2, e todos os outros αs nulos, então a sequência de números reais toma a
forma (2, α2 = 0, · · ·, αn = 0), e como ⃗u2 = ⃗0, ⃗u3 = ⃗0, · · ·, ⃗un = ⃗0 a COMBINAÇÃO LINEAR
dos vetores dados será dada por
2 · ⃗0 + α2 · ⃗u2 + · · · + αn · ⃗un = 2 · ⃗0 + 0 · ⃗u2 + · · · + 0 · ⃗un
Def. 2.13
=
⃗0.
Definição 2.16. Uma sequência de vetores (⃗u1 , ⃗u2 , · · ·, ⃗un ) será Linearmente Independente e indicaremos LI, se a única possibilidade de se obter a COMBINAÇÃO LINEAR
NULA dos vetores (⃗u1 , ⃗u2 , · · ·, ⃗un ) for escolher (α1 , α2 , · · ·, αn ) = (0, 0, · · ·, 0).
• Uma sequência com apenas vetor (⃗u), é Linearmente Independente se e somente
se ⃗u ̸= ⃗0.
Prova Devemos mostrar que a COMBINAÇÃO LINEAR NULA da sequência (⃗u) isto
é,
α⃗u = ⃗0
somente é possivel se α = 0. Mas, pela Proposição 2.2•, α⃗u = ⃗0 implica que α = 0 ou ⃗u = ⃗0,
como a ⃗u é não nulo, α = 0 ou seja a única sequência possı́vel de números reais que produz
a COMBINAÇÃO LINEAR NULA α⃗u = ⃗0, é (α) = (0). Isto prova as duas afirmações .
Definição 2.17. Note que uma sequaência de vetores (⃗u1 , ⃗u2 , · · ·, ⃗un ) LINEARMENTE
DEPENDENTE, indicaremos por LD se ela não for LI.
32
CAPÍTULO 2. GEOMETRIA
• Dada uma sequência de vetores (⃗u1 , ⃗u2 , · · ·, ⃗un ), se houver pelos menos uma maneira de
se obter a COMBINAÇÃO LINEAR NULA destes vetores utilisando-se uma n-upla ordenada
não nula isto é (α1 , α2 , ···, αn ) ̸= (0, 0, ···, 0), diremos que a sequência de vetores (⃗u1 , ⃗u2 , ···, ⃗un )
é LD.
∗ Uma sequência com dois vetores (⃗u, ⃗v ) é LD se e somente se ⃗u e ⃗v forem paralelos.
Prova Se ⃗u e ⃗v forem paralelos, os comentários logo após a Obsevação 2.1 nos assegura
que existe α ∈ R tal que ⃗u = α⃗v , ou seja ⃗u −α⃗v = ⃗0 e isto implica que a sequência (1, α) poder
ser utilizada para se obter a COMBINAÇÃO LINEAR NULA de ⃗u e ⃗v . Como (1, α) ̸= (0, 0),
a definição nos diz que a sequência (⃗u, ⃗v ) é LD. Se ⃗u e ⃗v forem LD então existe α ∈ R tal
que ⃗u − α⃗v = ⃗0, então ⃗u = α⃗v = ⃗0. A definição 2.13 assegura que ⃗u e ⃗v têm mesma direção˙
Proposição 2.3. Uma sequência de vetores ⃗v1 , ⃗v2 , . . . , ⃗vn ∈ IE 3 é LD se e somente se
algum destes vetores é combinação linear (CL) dos demais.
Prova Suponha que {⃗v1 , ⃗v2 , . . . , ⃗vn } é LD, então pela definição 2.16 existe uma n-upla
de números reais (α1 , α2 , . . . , αn ) ̸= (0, 0, . . . , 0), isto é, pelo menos um dos αi ̸= 0 para
i = 1, 2, . . . , n, tal que
α1⃗v1 + α2⃗v2 + · · · + αn⃗vn = ⃗0,
como αi ̸= 0 para algum i = 1, 2, . . . , n, suponhamos que α1 ̸= 0. Então
α1⃗v1 = −α2⃗v2 − · · · − αn⃗vn ,
e dividindo ambos os membros por α1 teremos
α2
α3
α2
⃗v2 − ⃗v3 − · · · − ⃗vn
α1
α1
α1
ou seja o vetor ⃗v1 é combinação dos demais.
• Suponaha agora que um dos vetores ⃗v1 , ⃗v2 , . . . , ⃗vn é combinação dos demais, podemos
supor que seja ⃗v1 este vetor, ou seja, pela definição 2.1.5 existem β1 , β2 , . . . , βn−1 tais que
⃗v1 = −
⃗v1 = β1⃗v2 + β2⃗v3 + · · · + βn−1⃗vn ,
subtraindo ⃗v1 em ambos os membros da igauldade acima teremos
(−1)⃗v1 + β1⃗v2 + β2⃗v3 + · · · + βn−1⃗vn = ⃗0.
(2.1.7)
Note em (3.1.5) temos a Combinação Linear Nula dos vetores ⃗v1 , ⃗v2 , . . . , ⃗vn com a sequência
−1, β1 , β2 , . . . , βn−1 de n números reais, e esta sequência é não nula, ou seja (−1, β1 , β2 , . . . , βn−1 ) ̸=
(0, 0, . . . , 0). Pela definição 2.16 os vetores ⃗v1 , ⃗v2 , . . . , ⃗vn são Linearmete Dependentes
(LD).
Uma interpretação da Proposição 2.3
∗ Dados três vetores ⃗u, ⃗v e w
⃗ em IE 3 com segmentos orientados (A, B), (A, C) e (A, D)
respectivamente, os três vetores serão coplanares se existir um plano π que é paralelo aos três
vetores simultaneamente, isto é os pontos A, B, C e D estiverem no mesmo plano, digamos
π. Diremos que os três vetores ⃗u, ⃗v e w
⃗ são COPLANARES.
2.1. VETORES
33
Dados três vetores ⃗u, ⃗v e w
⃗ em IE 3 tais que dois deles são LI ou seja há dois deles que
não são paralelos, digamos ⃗u e ⃗v , se o terceiro vetor for coplanar com ⃗u e ⃗v , então w
⃗ é
COMBINAÇÃO LINEAR de ⃗u e ⃗v . Veja figuras α e β abaixo:
C
D
1
w
⃗
A -
N
M
f igura δ
-
B
• Pelo ponto D passamos uma reta paralela à reta AC e determinamos o ponto M e por
conseguinte o segmento oriendatado (A, M ), note que os segmentos oriendatados (A, B e
(A, M ) são paralelos e portanto os vetores representado por (A, B e (A, M ) serão LD.
• Pelo ponto D passamos uma reta paralela à reta AB e determinamos o ponto N e por
conseguinte o segmento oriendatado (A, N ), note que os segmentos oriendatados (A, C) e
(A, N ) são paralelos e portanto os vetores representado por (A, C) e (A, N ) serão LD. Com
base nestes comentérios e observando a figura δ poderemos entender facilmente a figura λ.
Como ⃗b ∥ ⃗v , (⃗b e ⃗u LD), ∃β ∈ R, β ̸= 0 tal que ⃗a = β⃗u
⃗v
Como ⃗a ∥ ⃗u, (⃗b e ⃗u LD),
∃α ∈ R, α ̸= 0 tal que
⃗a = α⃗u
w
⃗ = ⃗a + ⃗b = α⃗u + β⃗v
1
⃗b w
⃗
-
⃗a
⃗u
f igura λ
-
• Segue da Proposição 2.3 que Três coplanares serão LD
Exercı́cio 2.10. Mostre que três ou mais vetores coplanares serão LD.
Exercı́cio 2.11. Mostre que três vetores ⃗u, ⃗v e w
⃗ em IE 3 serão LI se e somente se não
forem coplanares LD.
• Quatro vetores ⃗u, ⃗v , ⃗y e ⃗x em IE 3 serão LD.
Seja quatro vetores ⃗u, ⃗v , w
⃗ e ⃗x em IE 3 dados pelos segmentos orientados (A, B), (A, C),
(A, D) e (A, F ) respectivamente .
D F
Q
C N
E
w
⃗
A
-
M
f igura γ
B
34
CAPÍTULO 2. GEOMETRIA
• Passando pelo ponto F uma reta paralela à reta AD e obtemos o ponto E, (os pontos
A, B, C e E são coplanares). Por E passemos uma reta paralela à AC e obtemos o ponto
M e finalmente por E passemos uma reta paralela à reta AB e obtemos o ponto N . Das
figuras δ e λ acima vemos facilmente que o vetor w
⃗ da figura γ dado pelo segmento orientado
(A, E) é soma de α⃗u com β⃗v , isto é w
⃗ = α⃗u + β⃗v . Ainda na firuga γ passamos por F
uma reta paralela à reta AD e determinamos o ponto Q, vemos que o segmento orientado
(A, Q) é equipolente ao segmento orientado (A, D). Portanto existe σ ∈ R tal que o vetor
dado pelo segmento orientado (A, Q) digamos ⃗c satisfaz ⃗c = σ w.
⃗ Observando na figura γ o
paralelogramo AF DF Q, vemos que o segmento orientado (A, F ) que representa o vetor ⃗x,
pode ser também ser um representante do vetor α⃗u + β⃗v + σ w.
⃗ Portanto
⃗x = α⃗u + β⃗v + σ w.
⃗
• Se um vetor ⃗v é Combinação Linear dos vetores ⃗u1 , ⃗u2 , · · · , ⃗un , diremos que ⃗v é gerado
pelos vetores ⃗u1 , ⃗u2 , · · · , ⃗un .
Note que, no caso acima o vetor ⃗x é gerado por ⃗u, ⃗v , w.
⃗ Ainda mais, pela construção podemos
ver que qualquer sequência com três vetores LI em IE 3 , é capaz de gerar todos vetores de
IE 3 .
EXERCÍCIOS
1. De cada uma das matriz se abaixo Calcule a matriz cofatora, adjunta clássica e com
a Definição 1.7 calcule o determinante. Em seguida calcule a matriz inversa caso ela
exista.


1 3 1
A = 1 0 1 ,
2 1 4

B=

−1
0 −2
1 −1
2 ,
0
1 −1


−1 −1
0 −2
 −2
1 −1
2 
,
C=
 0
1 −1
1 
2 −2 −1
0
Para cada uma das matrizes acima calcule a sua inversa usando escalonamento de
matriz.
2. Suponha que os vetores de S = {⃗u, ⃗v } não são paralelos. Se ⃗x = ⃗u + 2⃗v ⃗y = −⃗u − 2⃗v ,
a: Verifique se S = {⃗x, ⃗y } são paralelos.
b : Verifique se o vetor ⃗z = 3⃗x − 2⃗y é gerado pelos vetores de S.
3. Suponha que S = {⃗u, ⃗v } é Linearmente Independente (L.I.). Se ⃗x = ⃗u +3⃗v ⃗y = 5⃗u −3⃗v ,
a: Verifique se S = {⃗x, ⃗y } é Linearmente Independente.
2.1. VETORES
35
b : Verifique se o vetor ⃗z = 3⃗v − 2⃗u é gerado pelos vetores de S.
4. Suponha que S = {⃗u, ⃗v , w}
⃗ é L.I..
a : Verifique se S0 = {⃗u − 3⃗v + w;
⃗ −⃗u + 3⃗v − 2w;
⃗ 3⃗u − 3⃗v + 2w}
⃗ é Linearmente
Independente.
b: Verifique se o vetor ⃗u + 3⃗v − 4w
⃗ é gerado pelos vetores de S0 .
c: Dê condição sobre α ∈ R para que o vetor ⃗u + α⃗v − 4w
⃗ seja gerado pelos vetores de
S0 .
2.1.4
Bases e Dimensão
Definição 2.18. Qualquer sequência com três vetores (⃗e1 , ⃗e2 , ⃗e3 ) que seja LI em IE 3 é denominada base de IE 3 .
⃗e3
⃗e1
KA
A
A
A
A
A
+
⃗e2
Considere a terna ordenada de vetores B = (⃗e1 , ⃗e2 , ⃗e3 ) ∈ IE 3 , LI (portanto uma base de
IE ) então pelo que já vimos qualquer outro vetor ⃗u ∈ IE 3 é gerado por (⃗e1 , ⃗e2 , ⃗e3 ), em outras
palavras existe uma terna ordenada de números reais (a1 , a2 , a3 ) tais que
3
⃗u = a1⃗e1 + a2⃗e2 + a3⃗e3
a terna de números reais (a1 , a2 , a3 ) é denominada Coordenadas de ⃗u na Base B ou as
coordenada de ⃗u em relação à base B. Indicamos (a1 , a2 , a3 )B e observamos que as coordenadas de um vetor dependem da ordem que se apresenta a terna de vetores na base B , por
isto uzamos o termo terna ordenada de números reais
• Adição de vetores Se ⃗u = a⃗e1 + b⃗e2 + c⃗e3 e ⃗v = α⃗e1 + β⃗e2 + γ⃗e3 , então
⃗u + ⃗v = (a + α)⃗e1 + (b + β)⃗e2 + (c + γ)⃗e3
.
• Multiplicação por Escalar se λ ∈ R e ⃗u = a⃗e1 + b⃗e2 + c⃗e3 , então
λ⃗u = λa⃗e1 + λb⃗e2 + λc⃗e3
∗ As coordenadas do vetor nulo são (0, 0, 0) independentemente da base.
Proposição 2.4. Dois vetores ⃗u = a⃗e1 + b⃗e2 + c⃗e3 e ⃗v = α⃗e1 + β⃗e2 + γ⃗e3 são LD se e somente
se as (a, b, c) forem proporcionais à (α, β, γ).
36
CAPÍTULO 2. GEOMETRIA
Prova : (→) Se ⃗u ou ⃗v for o vetor nulo então, suponhamos que ⃗u = ⃗0 então ⃗u =
(0, 0, 0)B e por hipótese existe λ ∈ R tal que λ⃗v = ⃗u. Ao tomarmos λ = 0 veremos que
λ⃗v = 0(α⃗e1 +β⃗e2 +γ⃗e3 ) = (0, 0, 0) = ⃗0 = ⃗u. Note que λ(α, β, γ) = (0, 0, 0) são as coordenadas
de ⃗u na base B. Se vetores ⃗u ou ⃗v forem não nulos, como por hipótese existe λ ∈ R tal que
λ⃗v = ⃗u, teremos
(λa, λb, λc) = (α, β, γ).
Consequentemente as coordenadas de ⃗u ou ⃗v são proporcionais. A reı́proca é trivial.
Proposição 2.5. Suponha que {⃗e1 , ⃗e2 , ⃗e3 } é um conjunto LI. Considere o conjunto S =
{⃗u, ⃗v , w}
⃗ cujos três vetores são dados por ⃗u = a⃗e1 + b⃗e2 + c⃗e3 , ⃗v = α⃗e1 + β⃗e2 + γ⃗e3 e
w
⃗ = m⃗e1 + n⃗e2 + p⃗e3 . S é LI se e somente se det(A) ̸= 0, onde


a α m
A = b β n  .
c γ p
Prova: Seja x, y, z números reais. Consideremos a COMBINAÇÃO LINEAR NULA
vetores de S dada por x⃗u + y⃗v + z w
⃗ = ⃗0. Da definição de ⃗u, ⃗v e w
⃗ tem-se
x(a⃗e1 + b⃗e2 + c⃗e3 ) + y(α⃗e1 + β⃗e2 + γ⃗e3 ) + z(m⃗e1 + n⃗e2 + p⃗e3 ) = ⃗0.
O que nos dá
[ax + αy + mz]⃗e1 + [bx + βy + nz]⃗e2 + [cx + γy + pz]⃗e3 = ⃗0.
Mas aqui temos uma COMBINAÇÃO LINEAR NULA dos vetores do conjunto {⃗e1 , ⃗e2 , ⃗e3 }
que é LI por hipótese. Então, os coeficientes desta COMBINAÇÃO LINEAR NULA ter ao
que ser nulos, isto é

 ax + αy + mz = 0
bx + βy + nz = 0

cx + γy + pz = 0.
ou seja

   
a α z
x
0
 x β n  y  =  0 .
c γ z
z
0
Este sistema homogêneo terá uma única solução se e somente det(A) ̸= 0. Podemos ver
facilmente que a solução para este sietema é {(0, 0, 0)}. Potanto, S é LI se e somente se
det(A) ̸= 0.
2.2. PRODUTO ESCALAR
2.2
37
Produto Escalar
Dados dois vetores ⃗u e ⃗v , seja θ a medida do ângulo entre ⃗u e ⃗v ( ver figura)
Q
Q
⌣
Q
θ Q ⃗v
⃗u
Q
P
Q
Q
Q
Q
Q
s R
figura A
Observação 2.2. Dados dois vetores ⃗u e ⃗v , seja θ medida do ângulo entre ⃗u e ⃗v , pode-se ver
facilmente que o ângulo entre dois vetores iguais é zero, o ângulo entre o vetor ⃗u e seu vetor
π
oposto −⃗u é π. Ainda, os dois vetores ⃗u e ⃗v são perpendiculares se e somente se θ = .
2
Considere o triângulo P QR abaixo. Suponha que θ é a medida do ângulo entre os vetores
⃗u e ⃗v
∥⃗u∥
P
Q
Q
⌣
Q
θ Q ∥⃗v ∥
Q
∥w∥
⃗
Q
Q
Q
Q
Q
s R
Pela lei dos cossenos temos
∥w∥
⃗ 2 = ∥⃗u∥2 + ∥⃗v ∥2 − 2∥⃗u∥∥⃗v ∥ cos(θ)
(2.2.8)
Definição 2.19. Dados dois vetores ⃗u, ⃗v , chama-se Produto Escalar de ⃗v por ⃗v ao número
real
⟨⃗u, ⃗v ⟩ = ∥⃗u∥∥⃗v ∥ cos(θ)
(2.2.9)
• Dados ⃗u, ⃗v , w
⃗ vetores e λ número real, então

(i) ⟨⃗u + ⃗v , w⟩
⃗ = ⟨⃗u, ⃗v ⟩ + ⟨⃗u, w⟩,
⃗



(ii) ⟨⃗u, ⃗v ⟩ = ⟨⃗v , ⃗u⟩,
(iii) ⟨λ⃗u, ⃗v ⟩ = λ⟨⃗u, ⃗v ⟩,



(iv) ⟨⃗u, λ⃗v ⟩ = λ⟨⃗u, ⃗v ⟩.
• Observe que o termo do lado direito de (4.1.3) aparece na Lei dos Cossenos (ver (2.2.8)).
• Segue da Observação 2.2 que ⟨⃗u, ⃗u⟩ = ∥⃗u∥2 porque o ângulo entre ⃗u e ⃗u é zero. Ainda,
que ⟨⃗u, −⃗u⟩ = −∥⃗u∥2 porque o ângulo entre ⃗u e −⃗u é π.
• Segue da Observação 2.2 que ⟨⃗u, ⃗v ⟩ = 0 se e somente se os dois vetores ⃗u e ⃗v forem
perpendiculares
38
CAPÍTULO 2. GEOMETRIA
2.2.1
Projeção Ortogonal de Vetores
Consideremos a base ortonormal dois vetors ⃗u e ⃗v como na Figura ∆.
w
⃗
6
A
3
⃗u -
⃗a
⃗v
f igura ∆
-
A projeção ortogonal de ⃗u na direção de ⃗v é o vetor ⃗a (ver figura ∆) que satisfaz as três
condições abaixo:

 (i) Existe λ ∈ R, tal que ⃗a = λ⃗v .
(ii) Existe um vetor w,
⃗ tal que ⟨w,
⃗ ⃗v ⟩ = 0.

(iii) ⃗u = ⃗a + w.
⃗
(2.2.10)
Queremos determinar λ. Veja que

⃗ ⃗v ⟩ = ⟨⃗a, ⃗v ⟩ + ⟨w,
⃗ ⃗v ⟩ = ⟨λ⃗v , ⃗v ⟩ = λ⟨⃗v , ⃗v ⟩, pois ⟨w,
⃗ ⃗v ⟩ = 0.
 ⟨⃗u, ⃗v ⟩ = ⟨⃗a + w,
⟨⃗u, ⃗v ⟩
 vemos dai que λ =
∥⃗v ∥2
Assim,
P roj⃗v⃗u = ⃗a =
2.2.2
⟨⃗u, ⃗v ⟩
⃗v .
∥⃗v ∥2
(2.2.11)
Bases Ortogonais
Definição 2.20. Dada uma BASE B = {⃗e1 , ⃗e2 , ⃗e3 } do espaço, dizemos que ela é uma Base
Ortogonal se os vetores de B forem dois a dois perpendiculares isto é
⟨⃗e1 , ⃗e2 ⟩ = 0, ⟨⃗e1 , ⃗e3 ⟩ = 0 e ⟨⃗e2 , ⃗e3 ⟩ = 0
(2.2.12)
2.2. PRODUTO ESCALAR
39
6
⃗e3
⃗e1
-
⃗e3
2.2.3
Bases Ortonormais
Definição 2.21. Dada uma BASE ORTOGONAL B = {⃗e1 , ⃗e2 , ⃗e3 } do espaço, dizemos que
ela é uma Base Ortonormal se os vetores de B tiverem NORMA UM (comprimento), isto
é
⟨⃗e1 , ⃗e1 ⟩ = ∥⃗e1 ∥2 = 1, ⟨⃗e2 , ⃗e2 ⟩ = ∥⃗e2 ∥2 = 1 e ⟨⃗e3 , ⃗e3 ⟩ = ∥⃗e3 ∥2 = 1
(2.2.13)
Consideremos uma base ortonormal B = {⃗ı,⃗ȷ, ⃗k} e o vetor ⃗u = x⃗ı+y⃗ȷ+z⃗k. Então pode-se
na figura abaixo a interpretação geométrica da relação do vetor ⃗u com a base B.
z⃗e3 6
⃗u = x⃗e1 + y⃗e2 + z⃗e3
⃗e3 6
⃗e1 ⃗e2
x⃗e1 y⃗e2
• Deste instante em diante INDICAREMOS BASE ORTONORMAL por
B = {⃗ı,⃗ȷ, ⃗k}
40
CAPÍTULO 2. GEOMETRIA
Seja B = {⃗ı,⃗ȷ, ⃗k} base ortonormal, então ⃗u = x⃗ı + y⃗ȷ + z⃗k.
z⃗k 6
⃗e3
⃗ı x⃗ı ⃗u = x⃗ı + y⃗ȷ + z⃗k
6
-
⃗ȷ
y⃗ȷ-
Lema 2.1. Se ⃗u = x⃗ı + y⃗ȷ + z⃗k e ⃗v = a⃗ı + b⃗ȷ + c⃗k, então
⟨⃗u, ⃗v ⟩ = ⟨x⃗ı + y⃗ȷ + z⃗k, a⃗ı + b⃗ȷ + c⃗k⟩ = ax + by + cz
(2.2.14)
Prova Segue da definição 2.20 ⟨⃗ı,⃗ȷ⟩ = ⟨⃗ȷ, ⃗k⟩ = ⟨⃗ı, ⃗k⟩ = 0, ainda da definição 4.5 que
⟨⃗ı,⃗ı⟩ = ⟨⃗ȷ,⃗ȷ⟩ = ⟨⃗k, ⃗k⟩ = 1. Então de (4.1.4) segue que
⟨⃗u, ⃗v ⟩ = ⟨x⃗ı + y⃗ȷ + z⃗k, a⃗ı + b⃗ȷ + c⃗k⟩ = x⟨⃗ı, a⃗ı + b⃗ȷ + c⃗k⟩ + y⟨⃗ȷ, a⃗ı + b⃗ȷ + c⃗k⟩ + z⟨⃗k, a⃗ı + b⃗ȷ + c⃗k⟩
= xa⟨⃗ı,⃗ı⟩ + xb⟨⃗ı,⃗ȷ⟩ + xc⟨⃗ı, ⃗k⟩ + ya⟨⃗ȷ,⃗ı⟩ + yb⟨⃗ȷ,⃗ȷ⟩ + yc⟨⃗ȷ, ⃗k⟩ + za⟨⃗k,⃗ı⟩ + zb⟨⃗k,⃗ȷ⟩ + zc⟨⃗k, ⃗k⟩
= ax + by + cz
Agora, de (4.1.6) segue, facilmente que
ax + by + cz
⟨⃗u, ⃗v ⟩
⃗v = 2
· ⃗v , e que
2
∥⃗v ∥
a + b 2 + c2
1
V erso(⃗u) = 2
[x⃗ı + y⃗ȷ + z⃗k]
x + y2 + z2
P roj⃗v⃗u = ⃗a =
(2.2.15)
Exemplo 2.11. Sejam ⃗u = 2⃗ı − 3⃗ȷ + ⃗k e ⃗v = −2⃗ı +⃗ȷ − 4⃗k. Calcule ∥⃗u∥, Versor(⃗u), ∥⃗v ∥,
⟨⃗u, ⃗v ⟩ e P roj⃗v⃗u .
Resolução : Veja que ∥⃗u∥2 = ⟨⃗u, ⃗u⟩ = ⟨2⃗ı − 3⃗ȷ + ⃗k, 2⃗ı − 3⃗ȷ + ⃗k⟩. Então segue de (2.2.14)
que
∥⃗u∥ =
√
√
22 + (−3)2 + 12 = 14,
2.2. PRODUTO ESCALAR
41
e de (2.2.15) segue que
1
2
3
1
V ersor(⃗u) = √ [2⃗ı − 3⃗ȷ + ⃗k] = √ ⃗ı − √ ⃗ȷ + √ ⃗k.
14
14
14
14
Analogamente, ∥⃗v ∥2 = ⟨⃗v , ⃗v ⟩ = ⟨−2⃗ı +⃗ȷ − 4⃗k, −2⃗ı +⃗ȷ − 4⃗k⟩. Então segue de (2.2.14) que
∥⃗u∥ =
√
√
(−2)2 + 12 + (−4)2 = 21.
Para finalizar, segue também de (2.2.14) que
⟨⃗u, ⃗v ⟩ = ⟨⟨2⃗ı − 3⃗ȷ + ⃗k, −2⃗ı +⃗ȷ − 4⃗k⟩ = 2(−2) + (−3)1 + 1(−4) = −11.
Portanto, de (2.2.15) segue que
P roj⃗v⃗u =
−11
[2⃗ı +⃗ȷ − 4⃗k].
21
EXERCÍCIOS
1. Dados os pontos A = (−1, 2, 0), B = (−1, −1, 1) e C = (1, 2, −2).
(i) Verifique se estes pontos são colineares.
⃗ e ⃗v = CB.
⃗
(ii) Calcule a medida do ângulo entre os vetores ⃗u = AB
⃗ detremine a e b números reais tais que w
(iii) Se w
⃗ = CA,
⃗ = a⃗u + b⃗v .
2. Considere os vetores f⃗1 =⃗ı − 2⃗ȷ − ⃗k; f⃗2 = −⃗ı + 5⃗ȷ + ⃗k; f⃗3 = −3⃗ı + 2⃗ȷ + 3⃗k.
(i) Verifique se os vetores ⃗u = −2⃗ı − 3⃗ȷ + ⃗k e ⃗v = 2⃗ı + ⃗k podem ser gerados por f⃗1 , f⃗2
e f⃗3 .
(ii) Verifique se os vetores f⃗1 , f⃗2 e f⃗3 geram qualquer vetor de IE 3 .
3. Suponha que S = {⃗u, ⃗v , w}
⃗ seja LI.
(i) Verifique se S1 = {⃗u, ⃗u + ⃗v , ⃗u + ⃗v + w}
⃗ é LI.
(ii) Verifique se S2 = {⃗u − ⃗v , ⃗u + ⃗v + w,
⃗ w}
⃗ é LI.
(iii) Verifique se S3 = {⃗u − ⃗v , ⃗u − w,
⃗ −⃗u + w}
⃗ é LI.
4. i - Fixada uma base (⃗ı,⃗ȷ, ⃗k) sejam os vetores ⃗u = 2⃗ı + 1⃗ȷ + 3⃗k , ⃗v = 0⃗ı + 1⃗ȷ − 1⃗k e
w
⃗ = 4⃗ı + 5⃗ı + 3⃗k;
ii - Calcular m
⃗ = ⃗u + ⃗v , ⃗n = ⃗u − 2⃗v + 3w
⃗ e p⃗ = ⃗u − 3⃗v − w,
⃗ e verfique se m,
⃗ ⃗n, p⃗
3
formam uma base de IE .
iii - Determine a e b números reais, para que a⃗u + b⃗v = w
⃗
42
CAPÍTULO 2. GEOMETRIA
5. Dado S = {⃗u, ⃗v , w}
⃗ LI,
(i) Verifique se A = {⃗v − 2w
⃗ + ⃗u, 2⃗u + ⃗v + w,
⃗ ⃗u − ⃗v + cw}
⃗ é LI.
(iii) Verifique se A gera o vetor ⃗v − w
⃗ + ⃗u.
(ii) Verifique se A gera o vetor 3⃗v − w
⃗ + ⃗u.
(iv) - determine uma relação entre a, b e c para que B = {⃗v − 2w
⃗ + ⃗u, 2⃗u + ⃗v + w,
⃗ a⃗u −
b⃗v + cw}
⃗ seja LI.
2.2.4
Produto Vetorial
Definição 2.22. Dados ⃗u = x⃗ı + y⃗ȷ + z⃗k e ⃗v = a⃗ı + b⃗ȷ + c⃗k, chama-se Produto Vtorial de
⃗u por ⃗v ao vetor

⃗ı ⃗ȷ
⃗u ∧ ⃗v = det  x y
a b

⃗k
[
]
[
]
[
]
y z
x z
x y ⃗

⃗ı − det
⃗ȷ + det
k
z = det
b c
a c
a b
c
(2.2.16)
Exemplo 2.12. Dados ⃗u = 2⃗ı − 2⃗ȷ + ⃗k e ⃗v =⃗ı + 2⃗ȷ − ⃗k, calcule ⃗u ∧ ⃗v .
Resolução : Segue de (2.2.16) que

⃗k
[
]
[
]
[
]
⃗ı
⃗ȷ
−2
1
2
1
2
−2
⃗k
⃗ı − det
⃗ȷ + det
⃗u ∧ ⃗v = det  2 −2
1  = det
2 −1
1 −1
1
2
1
2 −1

Portanto, ⃗u ∧ ⃗v = 0⃗ı − 3⃗ȷ + 6⃗k.
Lema 2.2. Dados ⃗u = x⃗ı + y⃗ȷ + z⃗k e ⃗v = a⃗ı + b⃗ȷ + c⃗k, o vetor ⃗u ∧ ⃗v é perpendicular à ⃗u e
⃗u ∧ ⃗v também é perpendicular à ⃗v .
Prova
Devemos provar que ⟨⃗u, ⃗u ∧ ⃗v ⟩ = 0 e ⟨⃗v , ⃗u ∧ ⃗v ⟩ = 0.
[
⟨⃗u, ⃗u ∧ ⃗v ⟩ = x det


]
[
]
[
]
x y z
y z
x z
x y ⃗
k = det  x y z  = 0.
⃗ı − y det
⃗ȷ + z det
b c
a c
a b
a b c
Ainda
[
⟨⃗v , ⃗u ∧ ⃗v ⟩ = a det


]
[
]
[
]
x y z
y z
x z
x y ⃗
⃗ı − b det
⃗ȷ + c det
k = det  a b c  = 0.
b c
a c
a b
a b c
• O Lema 2.2 nos diz que, sempre que desejarmos encontrar um vetor perpendicular a
dois outros vetores LI, digamo ⃗u e ⃗v , realizamos o produto vetorial ⃗u ∧⃗v encontramos o vetor
desejado.
2.3. GEOMETRIA ANALÍTICA
2.3
43
Geometria Analı́tica
Nosso inteesse agora é descrever as Retas e os Planos por meio de equações.
2.3.1
Retas
Definição 2.23. Dados um ponto P0 = (x0 , y0 , z0 ) e um vetor não nulo ⃗u, um ponto P =
(x, y, z) perntence à reta r que passa por P0 e tem a direção do vetor ⃗u se e somente se o
conjunto de vetores R = {P⃗0 P , ⃗u} for LD.
Vamos utilizar as coordenadas dos vetores envolvidos em uma base ortonormal. Seja
→
B = {⃗ı,⃗ȷ, ⃗k} base de IE 3 . Então P⃗0 P =(P − P0 )= (x − x0 )⃗ı + (y − y0 )⃗ȷ + (z − z0 )⃗k e
⃗u = a⃗ı + b⃗ȷ + c⃗k. Como R = {P⃗0 P , ⃗u} tem que ser LD, existe t ∈ R tal que P⃗0 P = t⃗u ou
seja (x − x0 )⃗ı + (y − y0 )⃗ȷ + (z − z0 )⃗k = t(a⃗ı + b⃗ȷ + c⃗k). Uma conta simples nos dá

 x = x(t) = x0 + at
y = y(t) = y0 + bt

z = z(t) = z0 + ct.
que são conhecidas como equações paramétricas da reta r. Assim, para determinar todos os
pontos da reta r, é suficiente fazer t percorrer todos os elementos do conjunto dos números
reias, osto é t ∈ R, Com isto definimos uma função F : R → R3 dada por
F (t) = (x(t), y(t), z(t)) = (x0 + at, y0 + bt, z0 + ct).
Exemplo 2.13. Seja P0 = (−1, 2, 1) e ⃗u =⃗ı + 2⃗ȷ − ⃗k. Dê as equações paramétricas da reta
r qe passa por P0 e tem a direção de ⃗u.
Resolução A função F que dá a reta r é dada por
F (t) = (x(t), y(t), z(t)) = (−1 + t, 2 + 2t, 1 − t) t ∈ R.
e suas equações paramétricas são dadas por

 x = x(t) = −1 + t
y = y(t) = 2 + 2t

z = z(t) = 1 − t t ∈ R.
Exemplo 2.14. Dê as equações paramétricas da reta s que passa por P0 = (−1, 2, 1) e
Q0 = (1, 0, −2).
44
CAPÍTULO 2. GEOMETRIA
Resolução Neste caso é necessário encontrarmos um vetor que dá a direção da reta s
→
→
e que pode ser vetor ( P0 Q0 ) =(Q0 − P0 )= 2⃗ı − 2⃗ȷ − 3⃗k. Agora temos um vetor na direção
da reta s e um ponto pertencente à reta s. Então
F (t) = (x(t), y(t), z(t)) = (−1 + 2t, 2 − 2t, 1 − 3t) t ∈ R.
e suas equações paramétricas são dadas por

 x = x(t) = −1 + 2t
y = y(t) = 2 − 2t

z = z(t) = 1 − 3t t ∈ R.
Exercı́cio 2.12. Condisire os ponto P0 = (−1, 2, 1) e Q0 = (1, 0, −2) e M0 = (1, −3, 2).
(i) Dê as equações paramétricas da reta s que passa por P0 , Q0 .
(ii) Dê as equações paramétricas da reta s que passa por P0 , M0 .
(iii) Dê as equações paramétricas da reta s que passa por M0 , Q0 .
2.3.2
Planos
Definição 2.24. Dado um plano π, um pono P0 = (x0 , y0 , z0 ) ∈ π e um vetor ⃗n = a⃗ı+b⃗ȷ+c⃗k
perpendicular ao plano, um ponto do espaço P = (x, y, z) pertence ao plano π se e somente
→
se os vetores P0 P e ⃗n} forem perpendiculares.
Então
→
⟨P0 P , ⃗n⟩ = ⟨(x − x0 )⃗ı + (y − y0 )⃗ȷ + (z − z0 )⃗k, a⃗ı + b⃗ȷ + c⃗k⟩ = 0
Uma conta relativamente simples nos mostra que todos os pontos P = (x, y, z) do plano π
têm que satisfazer a equação
π : ax + by + cz − [ax0 + by0 + cz0 ] = 0.
(2.3.17)
A equação (2.3.17) é conhecida como Equação Geral do Plano π.
Exemplo 2.15. Dê a Equação Geral do Plano π0 que passa por Po = (2, −3, 1) e é
perpendicular ao vetor ⃗n = 3⃗ı − 2⃗ȷ − 4⃗k.
Resolução Segue de (2.3.17) que o plano π0 tem Equação Geral do Plano dada por
π : 3x − 2y − 4z − [3 · 2 + (−2)(−3) + (−4) · 1] = 0 ou seja π : 3x − 2y − 4z − 4 = 0.
Exemplo 2.16. Dê a Equação Geral do Plano π1 que passa por A = (2, −3, 1), B =
(1, 0, −1) e C = (0, 3, 1).
2.3. GEOMETRIA ANALÍTICA
45
Resolução Neste caso é necessário termos certeza que os pontos A, B e C não são
colineares e em seguisda determinarmos um vetor perpendicular ao lano π1 . Veja que com
→
→
os pontos A, B e C conseguimos um conjunto com dois vetores digamos S = {AB AC}. Os
pontos A, B e C não serão colineares se S for LI. Depois poderemos no valer da Definição
2.22 para obtermos o vetor ⃗n que seráperpendicular ao plano π1 . Pasemos al cálculos.
→
→
→
→
AB=(B − A)= −⃗ı + 3⃗ȷ − 2⃗k e AC=(C − A)= −2⃗ı + 6⃗ȷ + 0⃗k.
→
→
→
→
Como as coordenadas de AB e AC não são proporcionais, o conjunto S = {AB AC} é LI
e assim, os pontos A, B e C não são colineares. Vamos usar (2.2.16) para determinarmoso
→
vetor n perpendicular ao plano π1 .


⃗k
[
]
[
]
[
]
⃗ı ⃗ȷ
3
−2
−1
−2
−1
3
⃗k.
⃗n =AB ∧ AC= det  −1 3 −2  = det
⃗ı−det
⃗ȷ+det
6
0
−2
0
−2 6
−2 6
0
→
→
⃗ 4ı⃗ȷ − 1⃗k é um vetor perpendicular ao plano π1 . Agora, usamos o ponto
Assim, ⃗n = 12−
B = (1, 0, −1), o vetor ⃗n, (2.3.17) e obtemos
π : 12x − 4y − z − [12 · 1 + (−4) · 0 + (−1) · (−1)] = 0,
ou seja
π : 12x − 4y − z − 13 = 0.
Exercı́cio 2.13. Condisire os ponto P0 = (−1, 2, 1) e Q0 = (1, 0, −2) e M0 = (1, −3, 2) e
N0 = (−1, 3, −2).
(i) Dê as equação geral do plano π0 que passa por P0 , Q0 e M0 .
(ii) Dê as equação geral do plano π0 que passa por N0 , P0 e M0 .
(iii) Dê as equação geral do plano π0 que passa por M0 , Q0 e N0 .
(iv) Dê as equações vetorial, paramétricas e simétricas da reta s que passa por M0 e que
é perpendicular ao plano π0 que passa por M0 , Q0 e N0 .
Exercı́cio 2.14. Condisire os ponto P0 = (0, 2, −1) e Q0 = (1, 1, −2) e M0 = (1, 3, 2) e
N0 = (−1, −3, 2).
(i) Dê as equações paramétricas do plano π0 que passa por P0 , Q0 e M0 .
(ii) Dê a equação vetorial do plano π0 que passa por N0 , P0 e M0 .
(iii) Dê as equações vetorial, paramétricas e geral do plano π0 que passa por M0 , Q0 e
N0 .
(iv) Dê as equações vetorial, paramétricas e simétricas da reta s que passa por N0 e que
é perpendicular ao plano π0 que passa por M0 , Q0 e N0 .
46
CAPÍTULO 2. GEOMETRIA
Capı́tulo 3
ÁLGEBRA LINEAR
3.1
Espaço Vetorial
Definição 3.1. Seja V um conjunto qualquer.
• Uma SOMA em definida em V, é uma função que denotaremos pelo sinal + que toma
valores em V×V e associa valores em V, isto é + : V×V → V dada por +(u, v) = u+v ∈ V.
• A Multiplicação Por Escalar de K (Número Real ou Complexo) é a multiplicação de
um Número Real ou Complexo λ por um elemento v de V que produz um valor em V e que
é uma função que denotaremos pelo sinal ·, definida em K × V que toma valores em V, isto
é · : K × V → V dada por ·(λ, v) = λ · v ∈ V (veja que K
’e igual a R ou C).
Definição 3.2. Um conjunto V é um Espaço Vetorial sobre um conjunto K se as operações
de Soma e Multiplicação por escalar da definição (3.1) satisfizer todas as propriedades abaixo:
1. Dados u, v, w ∈ V,
2. Dados u, v ∈ V,
(u + v) + w = u + (v + w).
u + v = v + u.
Associativa.
Comutativa.
3. Existe e ∈ V tal que e + u = u para todo u ∈ V.
Elemento Neutro.
4. Para todo u ∈ V existe u∗ ∈ V tal que u + u∗ = e.
Elemento Inverso.
5. Para todo α, β ∈ K e u ∈ V tem-se (α + β)u = αu + βu
Distributiva Multiplicativa.
6. Para todo α ∈ K e u, v ∈ V tem-se α(u + v) = αu + αv.
7. Para todo α, β ∈ K e u ∈ V tem-se (αβ)u = α(βu).
8. Para todo u ∈ V tem-se 1u = u.
Observação 3.1. É bastante natural dar o nome de VETORES aos elementos de um
Espaço Vetorial.
Exemplo 3.1. Considere V = E3 dado na Definição 2.10. Suponha que em V temos a
SOMA de vetores (ver Definição 2.12) e a MULTIPLICAÇÃO de escalar por vetor (ver
Definição 2.13).
47
48
CAPÍTULO 3. ÁLGEBRA LINEAR
Lembre-se que a SOMA de verotes tem as propriedades abaixo:
dados ⃗u, ⃗v e w
⃗ em (IE 3 , +),
PA1 (⃗u + ⃗v ) + w
⃗ = ⃗u + (⃗v + w)
⃗
Associativa
PA2 ⃗u + ⃗v = ⃗v + ⃗u
Comutativa
PA3 ⃗u + ⃗0 = ⃗u
Elemento Neutro
PA4 ⃗u + (−⃗u) = ⃗u
Elemento Oposto ou Simétrico,
e a MULTIPLICAÇÃO de escalar por vetor tem as propriedades abaixo :
dados ⃗u, ⃗v ∈ IE 3 , α ∈ R β ∈ R, então
M1 α(⃗u + ⃗v ) = α⃗u + α⃗v .
M2 (α + β)⃗u = α⃗u + β⃗u.
M3 α(β⃗u) = (αβ)⃗u = β(α⃗u).
M4 1⃗u = ⃗u.
∗ A partir deste instante o espaço IE 3 será indicado por (IE 3 , +, ·) onde lê-se espaço
IE com as operções de Adição e Multiplicação por Escalar (Número real) ou Espaço
Vetorial
3
Exemplo 3.2. Seja V = M2×2 (R) conjunto das matrizes com entradas reais isto é se A ∈ V
então A = (aij)2×2 com aij ∈ R para i, j ∈ {1, 2}. Defina em V soma usual de matrizes,
isto é se A, B ∈ V, B = (bij )2×2 , então A + B = (cij )2×2 onde cada cij = aij + bij . Se K = R
defina a multiplicação usual de número real por matriz, isto é se α ∈ K e A ∈ V definimos
αA = (dij )2×2 onde cada dij = αaij . Pode ser verificado que V com estas operações de soma
e multiplicação por escalar é um Espaço Vetorial
Resolução Lembre-se que um vetor em V = M2×2 (R) é uma matriz de ordem dois.
Então dados u, v ∈ V, teremos u = A2×2 e v = B2×2 . Também neste caso quando consideramos u + v entendemos A + B soma de matriz. Analogamente, quando consideramos αu
estmos considerando αA. Para V = M2×2 (R) Espaço Vetorial temos que verificar que a
soma de matrizes dois por dois satisfaz cada uma das propriedades de SOMA da Definição
3.2.
Sejam u, v, w ∈ V, onde w = C = (cij )2×2 , então
SOMA
1. (u+v)+w = (A+B)+C = (aij +bij )+cij = aij +(bij +cij ) = A+(B+C) == u+(v+w).
2. u + v = A + B = (aij + bij ) = (bij + aij ) = B + A = v + u.
3. Seja O = O2×2 = (0ij ) matriz nula de ordem dois (ver Definição 1.1). Obseve que
u + 0 = A + O = (aij + 0ij ) = (aij ) = A = u.
3.1. ESPAÇO VETORIAL
49
4. Para cada u = A = (aij )2 × 2 considere o vetor −u = −A = (−aij )2×2 . Observe que
u + (−u) = A + (−A) = (aij + (−aij )) = 0ij = O.
MULTIPLICAÇÃO
Dados α, β ∈ K temos
5. α(u + v) = α(A + B) = α(aij + bij ) = αaij + αbij = αA + βB = αu + βu.
6. (α + β)u = (α + β)A = (α + β)aij = αaij + βaij = αA + βA = αu + βu.
7. α(βu) = α(βA) = α(βaij ) = (αβ)aij ) = (αβ)A.
8. 1 · u = 1 · A = (1 · aij ) = (aij ) = A.
Portanto, V = M2×2 (R) é Espaço Vetorial.
Observação 3.2. Tem-se muitos exemplos de conjuntos V onde se pode definir SOMA de
seus elementos e MULTIPLICAÇÃO de escalar por um elemento de V de modo a tornar
o conjunto V um espaço vetorial. Mas há conjuntos que não pode ser espaço vetorial e as
razões poder ser variadas. Veremos agora alguns exemplos de conjuntos que não são espaços
vetoriais.
Exemplo 3.3. Considere o conjunto U = {(x, y) ∈ R × R, tais que x ≥ 0 e y ≥ 0}.
Deifina em U a SOMA usual em R × R, isto é se u = (x, y) ∈ U e v = (a, b) ∈ U,
u + v = (x + a; y + b). Defina também a MULTIPLICAÇÃO por escalar da seguinte forma,
se α ∈ K = R, αu = α(x, y) = (αx; αy). Vamos descobrir por que U, com esta duas
operações não pode ser espaço vetorial.
Resolução
Veja que U é um subconjunto de E3 dado no exemplo 3.1.
U
oy 6
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ·· ··
ox
O
F igura 3a
Veja que se u, v ∈ U, então u + v = (x + a; y + b) é um eemento de U pois se x, y, a, b são
50
CAPÍTULO 3. ÁLGEBRA LINEAR
números reais não negativos então x + a e y + b também serão números reais não negativos.
Mas se α = −2, e u ∈ U, teremos αu = (−2x, −2y) e se x e y forem números reais não
negativos com certeza −2x e −2y não serão números reais não negativos e por esta razão
αu = (−2x, −2y) ̸∈ U. Isto faz com que U não seja Espaço Vetorial.
PERGUNTA: QUAIS SÃO OS SUBCONJUNTOS DE E3 QUE PODEM SER
ESPAÇOS VETORIAIS ?
1. Uma circunferência no plano poderia ser um espaço vetorial?
2. Se f : A ⊂ R → B ⊂ R for uma função, o Gráfico de f é um subconjunto do plano
cartesiano. Este conjunto poderia ser um espaço vetorial?
EXERCÍCIOS
1. Considere o conjunto V = {(x1 , x2 ); x1 , x2 ∈ R}. Dados (x1 , x2 ), (y1 , y2 ) ∈ V e λ ∈ R,
defina as seguintes operacao :
(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , 0)
λ.(x1 , x2 ) = (λx1 , λx2 ).
(V, +, .) é um espaø̧vetorial? Justifique sua resposta.
2. Considere o conjunto V = {(x1 , x2 ); x1 , x2 ∈ R}. Mostre que (V, +, ·) não é espaço
vetorial em relação a cada uma das seguintes operações + e · dadas por:
(a) (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) e λ · (x1 , x2 ) = (λx1 , x2 ).
(b) (x1 , x2 ) + (y1 , y2 ) = (x1 , x2 ) e λ · (x1 , x2 ) = (λx1 , λx2 ).
(c) (x1 , x2 ) + (y1 , y2 ) = (x1 − y1 , x2 + y2 ) e λ · (x1 , x2 ) = (λ2 x1 , λ2 x2 ).
3. O conjunto de todos os vetores (x, y) ∈ R2 , satisfazendo:
(a) x ≥ y é espaço vetorial? Justifique.
(b) xy ≥ 0 é espaço vetorial? Justifique.
3.1. ESPAÇO VETORIAL
51
(c) x ≥ 0 e y ≥ 0 é espaço vetorial? Justifique.
4. Dados V = P3 (R) e W = {a + bx − bx2 + ax3 ; a, b ∈ R}. Verifique se W é subespaço
vetorial de V .
5. Em cada item abaixo, considere as operações de SOMA de polinômios e multiplicação
de polinômio por escalar definidas no conjunto
V = P4 (R) = {p : R → R, p polinômio de grau menor ou igual a 4} :
Em cada item é dado um subconjunto de V. Verifique se ele é espaço vetorial.
(a) O subconjunto de P4 formado pelos polinômios de grau par.
(b) O subconjunto de P4 formado pelos polinômios de grau três.
(c) O subconjunto de P4 formado pelos polinômios que têm pelo menos uma raiz real.
6. (a) Mostre que o conjunto dos números complexos com as operações usuais é um
espaço vetorial.
(b) Denote por C 2 o conjunto de todos os pares ordenados de números complexos.
Defina a adição e a multiplicação por escalar como em R2 , exceto que os escalares são
números complexos. Verifique que V = C 2 é espaço vetorial.
(c) Verifique se o conjunto de todos os vetores de C 2 da forma (z, z̄) com as operações
de (b) é espaço vetorial.


a11 a12 13
7. O conjunto de todas as matrizes 3 × 3 da forma a21 22 a23 , onde a11 a22 a33 = 0,
a31 32 a33
com as operações usuais de soma e multiplicação por escalar das matrizes é um espaço
vetorial?
8. Quais as seguintes subconjuntos W de Rn são espaços vetoriais. Justifique sua resposta.
(a) W = {(x1 , ..., xn ) ∈ Rn ; x1 ∈ Z}.
(b) W = {(x1 , ..., xn ) ∈ Rn ; x1 = 0}.
52
CAPÍTULO 3. ÁLGEBRA LINEAR
(c) W = {(x1 , ..., xn ) ∈ Rn ; x1 é irracional}.
(d) W = {(x1 , ..., xn ) ∈ Rn ; xn = x21 + x22 + . . . + x2n−1 }.
cont
9. Considere o conjunto V = C((a, b), R) = {f : (a, b) → R}. Verifique se V é espaço
vetorial.
Quais dos seguintes subconjuntos de V é espaço vetorial. Justifique sua resposta.
(a) Todas as funções f tais que f (x2 ) = f (x)2 .
(b) Todas as funções f tais que f (0) = f (1).
(c) Todas as funções f tais que f (−3) = 2 + f (1).
(d) W = {f : (a, b) → R; f (x) > 0 para todo x ∈ (a, b)}.
(e) W = {f : (a, b) → R; f (1) = 2f (5)}.
(f) W é o conjuntos de todas as funções contı́nuas em (a, b).
(g) W é o conjuntos de todas as funções estritamente crescentes em (a, b).
10. Seja V o espaço vetorial de todas as matrizes quadradas de ordem n com as operações
usuais de SOMA de matrizes e multiplicação por escalar. Qual dos seguintes subconjuntos de V são espaços vetoriais? Justifique sua resposta.
(a) Todas as matrizes A invertı́veis.
(b) Todas as matrizes A não invertı́veis.
(c) Todas as matrizes A de V tais que AB = BA , onde B ∈ V é uma dada matriz fixa.
(d) Todas as matrizes A de V tais que A2 = A.
(e) Todas as matrizes A diagonais.
(f) Todas as matrizes A tais que det(A) = 0.
3.1. ESPAÇO VETORIAL
3.1.1
53
Propriedades
Considere K = R ou C. Seja V um espaço vetorial sobre K. Indicaremos o vetor nulo de V
por ⊙. Dados α, β ∈ K, u, v, w ∈ V. tem-se
1. Multiplicando-se qualquer escalar pelo vetor nulo obtem-se o vetor nulo, isto é, α⊙ =
⊙.
Prova Sabemos que ⊙ + ⊙ = ⊙. Então α⊙ = α(⊙ + ⊙) = α ⊙ +α⊙ . Somando
−α⊙ em ambos os membros teremos ⊙ = α ⊙ +(−α⊙) = α ⊙ +α ⊙ +(−α⊙) =
α ⊙ +(α ⊙ −α⊙) = α ⊙ +⊙ = α⊙.
2. Multiplicando-se o escalar zero por qualquer vetor obtem-se o vetor nulo, isto é, 0u = ⊙
Prova Agora, ⊙u = (0+0)u = 0u+0u. Somando −0u em ambos os membros teremos
⊙ = 0u+(−⊙u) = 0u+0u+(−0u) = 0u+(0u+(−0u)) = 0u+(0u−0u) = 0u+⊙ = 0u.
3. Se a multiplicação de um escalar por um vetor produzir u vetor nulo, então o escalar
é nulo ou o vetor énulo. Isto é, se αu = ⊙ então α = 0 ou u = ⊙.
Prova
Suponha que αu = ⊙ e α ̸= 0, então ⊙ = α−1 ⊙ = α−1 (αu) = (α−1 α)u = 1u = u.
4. Para escalares e vetores vale o seguinte jogo de sinais (−α)u = α(−u) = −(αu).
Prova Há que se provar três igualdades, são elas
(i) (−α)u = −(αu)
(ii) α(−u) = −(αu),
(iii) (−α)u = α(−u).
Para provar a primeira delas observe que −(αu) é o vetor oposto de αu. Como (−α)u+
αu = ((−α) + α)u = (−α + α)u = ⊙u = ⊙. Portanto, somando −(αu) em ambos os
lados da última igualdade teremos (−α)u = −αu.
Para provar a segunda delas observe que ⊙ = α⊙ = α((−u) + u) = α(−u) + αu
Somando −(αu) em ambos os membros teremos −(αu) = α(−u). A prova do item
três é um exercı́cio que deve ser resolvido pelo leitor.
5. (a) (α − β)u = αu − βu
(b) α(u − v) = αu − αv.
6. Existe um único vetor, aqui indicado por ⊙, em V com as propriedades do vetor nulo.
7. Para cada vetor u ∈ V existe um único vetor em V com as propriedades do vetor
simétrico de u, que indicamos por −u.
8. Se u + v = u + w então u = w.
54
CAPÍTULO 3. ÁLGEBRA LINEAR
3.1.2
Subespços vetoriais
Definição 3.3. Seja V um espaço vetorial sobre K. Um subconjunto W é um SUBESPAÇO
de V se
(1) ⊙ ∈ W.
(2) Se u, v ∈ W u + v ∈ W.
(3) Para todo α ∈ K e u ∈ W, αu ∈ W.
(3.1.1)
Exemplo 3.4. Considere K = R e V = R × R. Se u, v ∈ V, então u = (x, y), v = (m, n) e
u + v = (x + m; y + n). Ainda, Se α ∈ K, αu = α(x, y) = (αx; αy). Com estas operação de
suma e multiplicação por escalar V é um espaço vetorial. Vamos mostrar que qualquer reta
que passe pela origem, isto é, passa por (0, 0) é um SUBESPAÇO de V.
Resolução Se W = {(x, y) ∈ R2 tais que ax + by = 0 com a, b ∈ R}, então W é
se
uma reta que passa pela origem em V. Vamos mostrar que W é subespaço de V (W ⊂ V).
Temos que mostrar que W satisfaz os três ı́tens da Definição 3.3.
Prova do item (a) da Definição (3.3). Tomemos o vetor nulo ⊙ = (0, 0). Veja que
a0 + b0 = 0, Portando ⊙ ∈ W.
Prova do item (b) da Definição (3.3). Se u, v ∈ W, então ax+by = 0 e am+bn = 0. Mas
u+v = (x+m; y+n) e a(x+m)+b(y+b) = ax+am+by+bn = (ax+by)+(am+bn) = 0+0 = 0
Portanto, u + v ∈ W.
Prova do item (b) da Definição (3.3). Se u, v ∈ W, então ax + by = 0. Seja α ∈ K.
Considere o vetor αu = (αx; αy), e calculemos αx + bαy = α(ax + by) = α(0) = 0 Portanto,
αu ∈ W.
se
Teorema 3.1. Seja V é um espaço vetorial sobre K e W ⊂ V, então W também é um espaço
vetorial.
Exemplo 3.5. Considere K = R e V = R × R × R. Se u, v ∈ V, então u = (x, y, z),
v = (m, n, p) e u+v = (x+m; y +n; z +p). Ainda, se α ∈ K, αu = α(x, y, z) = (αx; αy; αz).
Com estas operações de soma e multiplicação por escalar V é um espaço vetorial. Vamos
mostrar que qualquer todo plano π que passe pela origem, isto é, passa por (0, 0, 0) é um
SUBESPAÇO de V.
Resolução
Como sabemos um plano π que passa pela origem é dado por
π = {(x, y, z) ∈ V, tal que ax + by + cz = 0, onde a, b, c ∈ R}.
1. Tomemos u = (x, y, z), v = (m, n, p) ∈ W, então u + v = (x + m; y + n; z + p),
α(x, y, z) = (αx; αy; αz e ax + by + cz = 0 e am + bn + cp = 0.
Como a0 + b0 + c0 = 0, ⊙ ∈ W.
2. Também temos que a(x + m) + b(y + n) + c(z + p) = ax + am + by + bn + cz + cp =
ax + by + cz + am + bn + cp = 0 + 0 = 0. Então, u + v ∈ W.
3.1. ESPAÇO VETORIAL
55
3. Ainda, aαx + bαy + cαz = (α(ax + by + cz) = α0 = 0. Assim, αu ∈ R. Portanto, segue
se
da definição 3.3 que W ⊂ V.
Exemplo 3.6. Considere K = R e V = Pn (R) onde n ∈ N e n > 0, e
Pn (R) = {p : R → R, p, é um polinômio, de coeficientes reais, e grau menor ou igual a n}.
Se u, v ∈ V, então u, v e u + v é a soma usual de polinômios. Ainda, se α ∈ K, αu
é a multiplicação usual de polinômio por número real . Com estas operações de soma e
multiplicação por escalar V é um espaço vetorial. Vamos mostrar que se W = Pn−1 (R), W
é um SUBESPAÇO de V.
Resolução
1. Veja que se u0 = ⊙ ∈ V, u0 é o polinômio nulo, e este polinômio tem grau zero que é
menor ou igual a n, mas também é menor ou igual a n − 1, já que n − 1 ≥ 0. Então
u0 ∈ W.
2. Seja u, v ∈ V. Então u = p(x) = an−1 xn−1 + an−2 xn−2 · · · + a0 ∈ W, e v = q(x) =
bn−1 xn−1 + bn−2 xn−2 + · · · + b0 ∈ W. Por definição de soma de polinômios u + v =
p(x) + q(x) = (an−1 + bn−1 )xn−1 + (an−2 + bn−2 )xn−2 + · · · + (a0 + b0 ). Veja que o
polinômio u + v ∈ W.
3. Seja u ∈ W e α ∈ K. Temos αu = αp(x) = α[an−1 xn−1 + an−2 xn−2 · · · + a0 ] =
se
αan−1 xn−1 + αan−2 xn−2 · · · + αa0 ] ∈ W. Portanto, segue da Definição 3.3 W ⊂ V.
3.1.3
Geradores
Agora se faz necessário considerarmos a SOMA de mais que dois vetores,e queremos saber
o que podemos produzir com esta SOMA. Vamos repetir a Definição 2.15.
Definição 3.4. [Ver [4]] Dado S = {u1 , u2 , · · ·, un } conjunto de vetores de V, dizemos
que um vetor u ∈ V é COMBINAÇÃO LINEAR dos vetores u1 , u2 , · · ·, un , se existirem
{α1 , α2 , · · ·, αn } ⊂ K conjunto de escalares tais que
u = α1 u1 + α2 u2 + · · · + αn un .
(3.1.2)
∗ Se u ∈ V puder ser escrito como em 3.1.2, diremos que a u é GERADO PELO
CONJUNTO S.
∗ Diremos que a COMBINAÇÃO LINEAR
u = α1 u1 + α2 u2 + · · · + αn un
(3.1.3)
56
CAPÍTULO 3. ÁLGEBRA LINEAR
é a COMBINAÇÃO LINEAR NULA se u = ⊙ for o vetor nulo. Neste caso dizemos que o
conjunto S GERA O VETOR NULO.
• Dado um conjunto de vetores B = {u1 , u2 , ···, un }, há uma maneira muito fácil, digamos
trivial, de se obter a COMBINAÇÃO LINEAR NULA destes vetores, que é escolher todos
os elementos da sequência de números (α1 , α2 , · · ·, αn ) = (0, 0, · · ·, 0), e assim, teremos a
COMBINAÇÃO LINEAR
0u1 + 0u2 + · · · + 0un = ⊙.
Assim, vemos que o vetor nulo poder ser GERADO por qualquer subconjunto de vetores
de V.
Exemplo 3.7. Considere K = R e V = Pn (R) onde n ∈ N e n > 0, e
Pn (R) = {p : R → R, p, é um polinômio, de coeficientes reais, e grau menor ou igual a n}.
Se S = {u1 = 1, u2 = t2 , u3 = t3 }, vemos que o polinômio p(t) = 3 − 5t2 + πt3 é GERADO
pelos vetores de S, pois p = u = 3u1 + (−5)u2 + πu3 . Neste caso α1 = 3, α2 = −5 e α3 = π.
Exemplo 3.8. Na figura abaixo a medida de P X é a metade da medida de XR. Considere
⃗ ∈ E3 em função de QP
⃗ ∈ E3 e QR
⃗ ∈ E3 .
V = E3 e K = R. Exprima QX
Q
Q
Q
Q
Q
Q
Q
P
Q
Q
Q R
X
Resolução
⃗ então
O enunciado do exercı́cio nos diz que P⃗X = 21 XR,
(
)
1 ⃗
M S1 1 ⃗
⃗ = 1 QR
⃗ − QX
⃗
⃗ − QP
⃗ = P⃗X = 1 XR
= QR − QX
QX
2
2
2
2
Observe a primeira e última igualdade, elas no dão,
⃗ − QP
⃗ = 1 QR
⃗ − 1 QX
⃗
QX
2
2
Def. 2.11
⇒
3 ⃗
1 ⃗
⃗
QX = QR
+ QP
2
2
⃗ = 1 QR
⃗ + 3 QP
⃗ .
QX
3
2
Def. 2.13
⇒
(3.1.4)
⃗ é GERADO pelo conjunto S = {QR,
⃗ QP
⃗ } ⊂ E3 com os coeficientes
Veja que o vetor QX
3
1
α1 = 3 e α2 = 2 .
3.1. ESPAÇO VETORIAL
3.1.4
57
Conjunto de Geradores
Definição 3.5. [Ver [4]]
Seja V espaço vetorial sobre K. Se S = {v1 , v2 , · · · , vn } é um subconjunto de V, o conjunto de todos os vetores gerados pelos vetores de S é denotado por [S] = {v ∈ V tal que v =
α1 v1 + α2 v2 + · · · + αn vn }. O conjunto S é denominado conjunto gerador do conjunto [S]
Lema 3.1. Seja V espaço vetorial sobre K. Se S = {v1 , v2 , · · · , vn } é um subconjunto de V,
se
o conjunto [S] é um SUBESPAÇO de V ( [S] ⊂ V) .
PROVA
1. Devemos provar que ⊙ (vetor nulo de V) é um elemento de [S]. Mas podemos ver
facilmente que ⊙ = 0v1 + 0v2 + · · · + 0vn . Então, ⊙ ∈ [S].
2. Sejam u, v ∈ [S]. Pela Definição 3.4, existem α1 , α2 , · · ·, αn ∈ K e β1 , β2 , · · ·, βn ∈ K
tais que u = α1 v1 + α2 v2 + · · · + αn vn e v = β1 v1 + β2 v2 + · · · + βn vn . Ainda,
u + v = (α1 + β1 )v1 + (α2 + β2 )v2 + · · · + (αn + βn )vn . Então u + v é combinação linear
dos vetores de S e assim segue da Definição 3.5 que u + v ∈ [S].
3. Dado λ ∈ K, λu = λα1 v1 + λα2 v2 + · · · + λαn vn . Então αu é combinação linear dos
vetores de S e assim segue da Definição 3.5 que αu ∈ [S]. Portanto, segue da Definição
se
3.3 que [S] ⊂ V.
Como sabemos dos estudos de Geometria Analı́tica, podemos perguntar mas
o conjunto S é Linearmente Independente ou Linearmente Dependente.
Observação 3.3. Observe que se V espaço vetorial sobre K e S = {v1 , v2 , · · · , vn } é um
subconjunto de V, subespaço [S] de V pode ser igual a V. Neste caso S gera todo o espaço
vetorial V e dizemos então que o conjunto S é um conjunto gerador de V. Se V = E3 , três
vetores não coplanares S = {⃗e1 , ⃗e2 , ⃗e3 } ⊂ V formam um conjunto que gera V e é Linearmente
Independente.
3.1.5
Dependência Linear
Definição 3.6. Seja V um espaço vetorial sobre K. Um conjunto d de vetores S = {u1 , u2 , ··
·, un } será Linearmente Independente e indicaremos LI, se a única possibilidade de se
obter a COMBINAÇÃO LINEAR NULA com os vetores u1 , u2 , · · ·, un for escolher (α1 , α2 , · ·
·, αn ) = (0, 0, · · ·, 0).
58
CAPÍTULO 3. ÁLGEBRA LINEAR
Definição 3.7. Seja V um espaço vetorial sobre K. Um conjunto d de vetores S = {u1 , u2 , ··
·, un } será Linearmente Dependente e indicaremos LI, se existir PELO MENOS UMA
possibilidade de se obter a COMBINAÇÃO LINEAR NULA com os vetores u1 , u2 , · · ·, un for
escolher (α1 , α2 , · · ·, αn ) ̸= (0, 0, · · ·, 0).
Proposição 3.1. Seja V um espaço vetorial sobre K. Um subconjunto de vetores S =
{v1 , v2 , . . . , vn } de V é LD se e somente se algum destes vetores é combinação linear (CL)
dos demais.
Prova Suponha que {⃗v1 , ⃗v2 , . . . , ⃗vn } é LD, então pela definição 3.7 existe uma n-upla
de números reais (α1 , α2 , . . . , αn ) ̸= (0, 0, . . . , 0), isto é, pelo menos um dos αi ̸= 0 para
i = 1, 2, . . . , n, tal que
α1 v1 + α2 v2 + · · · + αn vn = ⊙,
como αi ̸= 0 para algum i = 1, 2, . . . , n, suponhamos que α1 ̸= 0. Então
α1 v1 = −α2 v2 − · · · − αn vn ,
e dividindo ambos os membros por α1 teremos
α2
α3
α2
v2 −
v3 − · · · − vn
α1
α1
α1
ou seja o vetor v1 é combinação dos demais.
• Suponaha agora que um dos vetores v1 , v2 , . . . , vn é combinação dos demais, podemos
supor que seja v1 este vetor, ou seja, pela definição 3.4 existem β1 , β2 , . . . , βn−1 tais que
v1 = −
v1 = β1 v2 + β2 v3 + · · · + βn−1 vn ,
subtraindo v1 em ambos os membros da igualdade acima teremos
(−1)⃗v1 + β1 v2 + β2 v3 + · · · + βn−1 vn = ⊙.
(3.1.5)
Note em (3.1.5) temos a Combinação Linear Nula dos vetores v1 , v2 , . . . , vn com a sequência
−1, β1 , β2 , . . . , βn−1 de n números reais, e esta sequência é não nula, ou seja (−1, β1 , β2 , . . . , βn−1 ) ̸=
(0, 0, . . . , 0). Pela Definição 3.7 o conjunto de vetores S]{v1 , v2 , . . . , vn } é Linearmete Dependentes (LD).
Proposição 3.2. Seja V um espaço vetorial sobre K. Se um subconjunto de vetores S =
{v1 , v2 , . . . , vn } de V. Se S tiver um subconjunto não vazio que for LD, então S é LD.
PROVA Seja m ∈ N tal que 0 < m ≤ n e S0 = {v1 , v2 , . . . , vm }. Suponhamos que S0 é
LD.
• Se m = n, então então S0 = S1 . A prova está encerrada.
• Se 0 < m < n e S0 é LD, pela Proposição 3.1 existe um vetor de S1 qua é combinação
linear dos outros vetores se S1 . Vamos supor o vetor de S1 que é combinação linear dos
outros seja v1 . Então pela definição 3.4 existem α2 , α3 , · · · , αm tais que
v1 = α2 v2 + α3 v3 + · · · + αm vm .
3.1. ESPAÇO VETORIAL
59
Então, ⊙ = −v1 +α2 v2 +α3 v3 +· · ·+αm vm , ou seja ⊙ = −v1 +α2 v2 +α3 v3 +· · ·+αm vm +0vm+1 +
· · · + 0vm . Neste caso temos uma combinação linear dos vetores de {v1 , v2 , . . . , vm } de S0
tal que os coeficientes são dados pelas n−upla (−1, α2 , α3 , · · · , αm , 0, · · · , 0) ̸= (0, 0, · · · , 0).
Potanto, segue da Definição 3.7 que S é LD.
Proposição 3.3. Seja V um espaço vetorial sobre K. Se um subconjunto de vetores S =
{v1 , v2 , . . . , vn } de V é LI, então qualquer subconjunto não vazio de S também é LI.
PROVA Suponha que S tem um subconjunto B LD e não vazio. Da Proposição 3.2
segue que S é LD. Isto é uma contradição.
EXERCÍCIOS
1. Seja ABC um triângulo, e M e N pontos médios de AC e BC respectivamente. Mostre
⃗
que M⃗N = 12 AB.
2. Seja V = R3 e K = R.
(a) Mostre que os vetores u0 = (1, −1, 0) u1 = (1, 1, 0) e u2 = (0, 1, 1) não são coplanares.
(b) Encontre (α0 , α1 , α2 ) para que v = (5, 3, 4) seja GERADO por u0 , u1 , u2 . Resp
α0 = 3 ,α1 = 3 e α2 = 4
(c) Encontre (α0 , α1 , α2 ) para que v = (−5, 2, 4) seja GERADO por u0 , u1 , u2 .
3. Considere V = R3 , K = R, B0 = {(1, −1, 2), (3, 0, 1)} e B1 = {(−1, −2, 3), (3, 3, −4)}.
Podemos dizer que o conjunto de vetores de V que pode ser gerado por B0 é igual ao
conjunto de vetores de V que podem ser gerados por B1 ?
4. Considere V = R4 , K = R e os conjuntos B0 = {(1, −1, 2, 0), (3, 0, 1, −1)} e B1 =
{(−1, −2, 3, 0), (3, 3, −4, −1)}. Podemos dizer que o conjunto de vetores de V que
pode ser gerado por B0 é igual ao conjunto de vetores de V que podem ser gerados por
B2 ?
5. Considere V = R4 , K = R e os conjuntos B0 = {(1, −1, 2, 0), (3, 0, 1, −1)} e B1 =
{(−1, −2, 3, 0), (3, 3, −4, −1)}.
(a) Verifique se v = (−3, −3, −4, −1) é GERADO por B0 .
(b) Verifique se v = (−3, −3, −4, −1) é GERADO por B1 .
(c) Podemos dizer que o conjunto de vetores de V que pode ser gerado por B0 é igual
ao conjunto de vetores de V que podem ser gerados por B2 ?
60
CAPÍTULO 3. ÁLGEBRA LINEAR
6. Considere K = R e V = P2 (R)
P2 (R) = {p : R → R, é polinômio, de coeficientes reais, e grau menor ou igual a 2}.
(a) Se p0 (t) = 1, p1 (t) = t − 1 e p2 (t) = t2 − 2t + 1, encontre (α0 , α1 , α2 ) para que
v(t) = 2t2 − 5t + 6 seja GERADO por p0 , p1 e p2 . Resp. (α0 , α1 , α2 ) = (3, −1, 2).
(b) Se p0 (t) = 1, p1 (t) = −t − 1 e p2 (t) = t2 + 1, encontre (α0 , α1 , α2 ) para que
v(t) = 2t2 − 5t + 6 seja GERADO por p0 , p1 e p2 . Compare com o item anterior.
7. Considere K = R e V = P4 (R)
P4 (R) = {p : R → R, p, é um polinômio, de coeficientes reais, e grau menor ou igual a 4}.
(a) Se S0 = {u1 = 1, u2 = t2 − 1, u3 = t3 + 2t}, encontre, se poss´vel, α1 , α2 , α3 ∈ K
para que p1 (t) = t2 + 2t seja gerado por S0 .
(b) Se S1 = {u0 = 1, u1 = 3t, u2 = t2 + 1, u3 = t3 + 2t2 }, encontre, se possı́vel,
α1 , α2 , α3 ∈ K para que p1 (t) = t2 + 2t seja gerado por S1 .
(c) Verifique se p(t) = 2t4 + 3t3 poder ser gerado por S0 .
(d) Verifique se p(t) = 2t4 + 3t3 poder ser gerado por S1 .
(e) Verifique se S0 é L.I..
(f ) Verifique se S2 = {u0 = 1, u1 = 3t, u2 = t2 + 1, u3 = t3 + 2t2 , u4 = 2t + 3t4 } é L.I. .
8. Considere V = M2 (R), K = R e os vetores
(
)
1 0
u0 =
,
0 1
(
)
1 1
u1 =
,
0 0
(
)
0 0
u2 =
,
1 1
(
)
0 1
u3 =
1 2
(
)
−2 3
pode ser GERADO pelos vetores u0 , u1 , u2 , u3 .
(a) Verifique se u =
−1 2
(
)
x 3
(b) Dê condições para que x, y ∈ R para que u =
seja GERADO pelos
−1 y
vetores u0 , u1 , u2 , u3 .
(
)
x y
(c) Dê condições para que x, y, z, w ∈ R para que u =
seja GERADO pelos
z w
vetores u0 , u1 , u2 , u3 . Podemos dizer que os vetores u0 , u1 , u2 , u3 GERAM todos os
vetores de V?
3.1.6
Soma e Intercecção de Subespaços
Definição 3.8. Sejam W1 e W2 dois subespaços de um espaço vetorial V.
3.1. ESPAÇO VETORIAL
61
1. Definimos a soma dos subespaços, W1 +W2 , como sendo o conjunto de todos os vetores
de
V que são soma de um elemento de W1 com um elemento de W2 , ou seja,
W1 + W2 = {w ∈ V tal que w = u + v com u ∈ W1 e v ∈ W2 }
2. Se o espaço V é tal que
V = W1 + W2 e W1 ∩ W2 = {⊙},
dizemos que V é soma direta de W1 e W2 e denotamos por V = W1 ⊕ W2 .
Lema 3.2. Se V for espaço vetorial sobre K e W1 e W2 forem subespaços de V, então
W1 ⊕ W2 também é subespaço de V.
PROVA
1. Seja u0 = ⊙ ∈ V. Como W1 e W2 são subespaços de V, u0 ∈ W1 ∩ W2 e u0 = ⊙ + ⊙.
Segue da Definição 3.8 que u0 = ⊙ ∈ W1 + W2 .
2. Sejam u ∈ W1 +W2 e v ∈ W1 +W2 . Segue da Definição 3.8 que que existem u1 , v1 ∈ W1
e u2 , v2 ∈ W2 tais que u = u1 + u2 e v = v1 + v2 . Queremos mostrar que u + v é soma
de um vetor em W1 com outro em W2 . Um cálculo simples mostra que
u + v = u1 + u2 + v1 + v2 = (u1 + v1 ) + (u2 + v2 ) .
| {z } | {z }
∈W1
∈W2
Então u + v é soma de um vetor de W1 com um vetor de W2 . Segue da Definição 3.8
que u + v ∈ W1 + W2 .
3. Sejam λ ∈ K e ω ∈ W1 + W2 . Segue da Definição 3.8 que existe u1 , ∈ W1 e u2 , ∈ W2
tais que u = u1 + u2 . Devemos mostras que λu é soma de um vetor em W1 com outro
vetor em W2 . Mas λu = λ(u1 + u2 ) = λu1 + λu2 . Como λu1 ∈ W1 e λu2 ∈ W2 , segue
se
da Definição 3.8 que λu ∈ W1 + W2 . Portanto, pela Definição 3.3 W1 + W2 ⊂ V.
Lema 3.3. Se V for espaço vetorial sobre K e W1 e W2 forem subespaços de V, então
W1 ∩ W2 também é subespaço de V.
A prova é trivial.
Exemplo 3.9. Seja V = R4 e K = R. Considere a soma usual em V e a multiplicação
usual de escalar de K por vetor de V. Se S = {u1 = (1, 1, 0, 2); u2 = (−2, −2, 1, −5); u3 =
(1, 1, 1, −1)}.
a : Verifique se S é um conjunto Linearmente Independente.
b : Encontre um sistema linear homogêneo cujo conjunto solução é o subespaço [S].
Resolução
62
CAPÍTULO 3. ÁLGEBRA LINEAR
1. Vejamos se S é Linearmente Independente. Sejam β1 , β2 , β3 ∈ K tais que β1 (1, 1, 0, 2)+
β2 (−2, −2, 1, −5) + β3 (1, 1, 1, −1) = ⊙ = (0, 0, 0, 0). Então a terna (β1 , β2 , β3 ) tem que
ser solução para o sistema

β1 − 2β2 + β3 = 0



β1 − 2β2 + β3 = 0
(S)
0β1 + β2 + β3 = 0



2β1 − 5β2 − β3 = 0

 β1 − 2β2 + β3 = 0
0β1 + β2 + β3 = 0
que é equivalente a (S0 )

2β1 − 5β2 − β3 = 0
Mas a matriz do sistema (S0 ) é dada por


1 −2
1
1
1 
A= 0
2 −5 −1
que tem determinante diferente de zero. Portanto, o sistema (S0 ) em uma única
solução, que é (β1 , β2 , β3 ) = (0, 0, 0, ). Da Definição 3.6 segue que S é Linearmente
Independente.
2. Como queremos um sistema linear homogêneo cujo conjunto solução é o subespaço
W = [S], é suficiente encontrar todos os vetores u = (x, y, z, w) ∈ V tal que o conjunto
formado pelos vetores de S ∪ {u} seja Linearmente Dependente (ver Definição 3.7).
Para isto, podemos nos valer da seguinte técnica. Como S é Linearmente Lndependente
montamos uma matriz M cujas linhas são as coordenadas dos vetores de S ∪ {u}, com
a última linha tendo as coordenada vo vetoro u, escalonamos M e impomos que última
linha seja nula.

 
1
1 0
2
 −2 −2 1 −5  
∼
A=
 1
1 1 −1  
x
y z w
L1
L2
L3
L4

= l1
1
1
0
2


= 2l1 + l2   0
0
1
−1
= l1 − l3   0
0
−1
3
= xl1 − l4
0 −x + y −z 2x − w

1
1
0
2
L1 = l1
  0 −x + y −z 2x − w
 L2 = l4

∼
 0
 L= l2
0
1
−1
0
0
0
2
L4 = l2 + l3









Veja que os vetores do conjunto S ∪ {u} serão Linearmente Dependentes se x − y = 0,
z = 0 e 2x − w = 0, Assim, como z = 0,
W = [S] = {(x, y, z, w) ∈ V tais que x − y = 0, z = 0 e 2x − w = 0}
Portanto, W é dado pelo conjunto solução do sistema
(3.1.6)
3.1. ESPAÇO VETORIAL
63

 −x + y = 0
2x − w = 0
(S) ∼

z = 0.
Veja que no Exemplo 3.9 o subespaço [S] é gerado pelo conjunto S e este conjunto também
é Linearmente Independente. Quando estudamos o espaço E3 vimos que se um subconjunto
B de E3 fosse Linearmente Independente e gerasse E3 este subconjunto B era denominado
BASE DE E3 (ver Definição 2.18).
Observação 3.4. O item b do Exemplo 3.9 é importante por que para se calcular a
intersecção entre dois subespaços é necessário primeiramente descrever cada um dos dois
subespaços como o conjunto solução de um sistema linear homogêneo.
Exemplo 3.10. Sejam V = R4 , W o subespaço de V dado por (3.1.6) e U = {(x, y, z, w) ∈
V tais que x − 2y + 3z + w = 0 e − x + 2y − z − w = 0. Calcule W ∩ U, W + U e verifique
se esta soma é SOMA DIRETA.
Resolução Devemos encontrar todos os vetores u = (x, y, z, w) ∈ V que estejam simultaneamente em W e U. Então queremos os vetores cujas coordenadas estão no conjunto
solução do sistema linear do por


−x + y − z + 0w = 0


−x + y + 0w = 0





 −3x + y + 0z + w = 0
3x + y + w = 0
0x + 0y + z + 0w = 0 como z = 0 ∼
(S ∗ ) ∼
x − 2y + w = 0




x − 2y + 3z + w = 0



−x + 2y − w = 0

−x + 2y − z − w = 0

as duas
 −x + y + 0w = 0
últimas
3x + y + w = 0
(S) ∼
∼
equações são

x − 2y + w = 0
equivalentes
Como o determinante da matriz

−1 1 0
 3
1 1 
1 −2 0

é dois (2), o sistema (S) tem uma única solução. Então o conjunto solução para o sistema
(S ∗ ) que equivalente ao sistema (S) é U ∩ W = {(0, 0, 0, 0)} = {⊙}. Segue da Definição 3.8
que soma U + W é SOMA DIRETA ou seja U ⊕ W. O cálculo da soma U + W é exercı́cio
para o leitor.
3.1.7
Base e Dimensão
Definição 3.9. Seja (V, K) e B = {v1 , v2 , · · · , vn } ⊂ V. Dizemos que B é uma BASE de
V se
1. V é gerado por B.
64
CAPÍTULO 3. ÁLGEBRA LINEAR
2. B é Linearmente Independente.
Exemplo 3.11. Se V = E3 e K = R, V é espaço Vetorial sobre K, seja B = {⃗e1 = ⃗ı, ⃗e2 =
⃗ȷ, ⃗e3 = ⃗k}. Se os vetores ⃗e1 , ⃗e2 , ⃗e3 não são coplanares, então B gera E3 e é Linearmaente
Independentes. Segue da Definição 3.9 que B é BASE de V.
Exemplo 3.12. Se V = Rn e K = R, V é espaço Vetorial sobre K, seja B = {e1 =
(1, 0, 0, · · · , 0), e2 = (0, 1, 0, · · · , 0) · · · , e3 = (0, 0, 0, · · · , 1)}. Se os vetores e1 , e2 , · · · , en ,
então pode-se ver facilmente B gera Rn e é Linearmaente Independentes. Segue da Definição
3.9 que B é BASE de V.
Exemplo 3.13. Se V = Pn (R) e K = R, V é espaço Vetorial sobre K, seja B = {e1 = 1, e2 =
t · · · , e3 = tn }. É fácil ver que os vetores e1 , e2 , · · · , en , sø̃Linearmente Independentes eque
B gera V. Segue da Definição 3.9 que B é BASE de V.
Observação 3.5. As BASES dos Exemplos 3.11,3.12 e 3.13 são as BASES CANÔNICAS
dos respectivos Espaços Vetoriais.
3.1.8
Coordenadas
Definição 3.10. Seja (V, K) se B = {v1 , v2 , · · · , vn } ⊂ V é uma BASE de V então como
B gera V, dado ω ∈ V, existem β1 , β2 , · · · , βn ∈ K tais que
ω = β 1 v1 + β 2 v2 + · · · + β n vn .
(3.1.7)
e (β1 , β2 , · · · , βn ) são denominadas coordenadas de ω na base B.
Exemplo 3.14. Se V = Rn , K = R ou C e ω = (ao , a1 , · · · , an ),com a0 , a1 , · · · , an ∈
K, como B = {e1 , e2 , · · · , en } dado no Exemplo 3.12 é BASE CANÔNICA de V,
(a0 , a1 , · · · , an ) são as Coordenadas Canônicas do vetor ω na base B.
Exemplo 3.15. Se V = P (Rn ), K = R ou C e ω = p(x) = ao + a1 x1 + · · · + an xn , com
a0 , a1 , · · · , an ∈ K, como B = {1, x, · · · , xn } é BASE CANÔNICA de V, (a0 , a1 , · · · , an )
são as Coordenadas Canônicas do vetor ω na base B.
EXERCÍCIOS
1. Seja V = R5 e K = R. Considere a soma usual em V e a multiplicação usual de escalar
de K por vetor de V. Se W = S = {u1 = (1, −1, −1, 2, 0); u2 = (1, −2, −2, 0, −3); u3 =
(1, −1, −2, −2, 1)}.
a : Verifique se S é um conjunto Linearmente Independente.
b : Encontre um sistema linear homogêneo cujo conjunto solução é o subespaço [S].
(Sugestão Siga os passos do Exemplo 3.9).
2. Seja V = R5 e K = R. Considere a soma usual em V e a multiplicação usual de escalar
de K por vetor de V. Se U = S = {u1 = (1, −2, −3, 1, −2); u2 = (1, −1, −3, 2, −4); u3 =
(1, −1, −2, −2, 5), u4 = (3, −4, −8, 1, −1)}.
a : Verifique se S é um conjunto Linearmente Independente.
b : Encontre um sistema linear homogêneo cujo conjunto solução é o subespaço [S].
3.1. ESPAÇO VETORIAL
65
3. Considere os subespaços W e U dos Exercı́cios 1 e 2. Calcule W + U e verifique se a
esta soma é direta. Calcule W ∩ U.
4. Seja V = Pn (R5 ) e K = R. Considere a soma usual em V e a multiplicação usual de
escalar de K por vetor de V. Se U = S = {u1 = t3 + 4t2 − t + 3; u2 = t3 + 5t + 5; u3 =
3t3 + 10t2 − 5t + 5}.
a : Verifique se S é um conjunto Linearmente Independente.
b : Encontre um sistema linear homogêneo cujo conjunto solução é o subespaço [S].
5. Seja V = Pn (R5 ) e K = R. Considere a soma usual em V e a multiplicação usual de
escalar de K por vetor de V. Se U = S = {u1 = t3 + 4t2 + 6; u2 = t3 + 2t2 − t + 5; u3 =
2t3 + 2t2 − 3t + 9}.
a : Verifique se S é um conjunto Linearmente Independente.
b : Encontre um sistema linear homogêneo cujo conjunto solução é o subespaço [S].
6. Considere os subespaços W e U dos Exercı́cios 4 e 5. Calcule W + U e verifique se a
esta soma é direta. Calcule W ∩ U.
7. Dê a base canônica para V = M2×2 (R) com K = R. Tome a soma e multiplicação por
escalar usuais.
8. Dê a base canônica para V = M2×2 (R) com K = C. Tome a soma e multiplicação por
escalar usuais.
9. Dê a base canônica para V = Mn×m (R) com K = R. Tome a soma e multiplicação por
escalar usuais.
10. Dê a base canônica para V = Mn×m (R) com K = C. Tome a soma e multiplicação por
escalar usuais.
Teorema 3.2. Seja (V, K), S0 = {u1 , u2 , · · · , un } ⊂ V . Então
1. Sejam S0 , S1 subconjuntos de V. Se S0 ⊂ S1 , então [S0 ] ⊂ [S1 ]
2. Se u ∈ V é gerado por S0 então [S0 ] = [S0 ∪ {u}].
Prova Vamos provar 1. Seja u ∈ [S0 ] então existem β1 , β2 , · · · , βn ∈ K tais que u =
β1 u1 + β2 u2 + · · · + βn un . Como S0 ⊂ S1 , β1 u1 + β2 u2 + · · · + βn un ∈ [S1 ]. Assim, u ∈ [S1 ].
Vamos provar 2. Devemos provar que [S0 ] ⊂ [S0 ∪ {u}] e [S0 ∪ {u}] ⊂ [S0 ]. A primeira
dsta inclusões é segue do item 1 porque S0 ⊂ S0 ∪ {u}. Vamos provar a outras inclusão. Seja
v ∈ [S0 ∪ {u}]. Então existem α1 , α2 , · · · , αn , β ∈ K tais que
v = α1 u1 + α2 u2 + · · · + αn un + βu.
(3.1.8)
Mas por hipoótese u ∈ [S]. Pela Definição 3.1 existem γ1 , γ2 , · · · , γn ∈ K tais que u =
γ1 u1 + γ2 u2 + · · · , γn un . Substituindo esta expressão em (3.1.8) teremos
66
CAPÍTULO 3. ÁLGEBRA LINEAR
v = α1 u1 + α2 u2 + · · · + αn un + β(γ1 u1 + γ2 u2 + · · · , γn un ) =
(α2 + βγ1 )u1 + (α2 + βγ1 )u2 + · · · + (αn + βγn )un
Então, u é gerado pelos vetores de S0 . Portanto, u ∈ [S0 ]
Exemplo 3.16. Seja V = E3 . Como sabemos B0 = {⃗ı;⃗ȷ; ⃗k} é uma base para V, Então B
gera V e é Linearmente Independente. Seja B1 = {⃗ı;⃗ȷ; ⃗k} ∪ {⃗u = 2⃗ı −⃗ȷ + 3⃗k}. Pelo Teorema
3.2 o conjunto B1 também gera E3 .
Exemplo 3.17. Seja V = R4 . Seja B0 = {e1 = (−1, 2, 0, 3), e2 = (−3, 0, −1, 2); e3 =
(1, 4, 1, 4); e3 = (−1, 1, −1, 1)}
1. B0 é base de V?
2. Seja B1 = {e1 , e2 , e4 }. Mostre que [B1 ] = [B0 ].
Resolução Veja que e3 = 2e1 + e2 , Assim sendo, não é Linearmente Independente, e
então segue da Definição 3.9, B0 não poder ser BASE de nenhum espaço vetorial. Também
pode ser visto facilmente que B1 ⊂ B0 . Pelo Teorema 3.2 [B1 ] = [B0 ].
Teorema 3.3. Seja (V, K) e dim(V) = n. Se W e U forem supbespaços de V então
1. Se B = {w1 , w2 . · · · wr } gera W e C = {u1 , u2 . · · · us } gera U, então F = B ∪ C gera
W + U.
2.
dim(W + U) = dim(W) + dim(U) − dim(W ∩ U).
(3.1.9)
A prova do segundo item deste Teorema pode ser encontrada em [4] página 82.
Exemplo 3.18. Seja V = R4 com soma e mutiplicação por escalar usuais. Considere
W = {[e1 = (1, 0, 1, 0); e2 (0, 1, 0, 0)]} e U = {(x, y, z, u) ∈ R4 , tal que x + y = 0}. Dê a
dimensão de W ∩ U e W + U.
Resolução
1. Vemos facilmentre que B = {[e1 = (1, 0, 1, 0); e2 (0, 1, 0, 0)]} é base de W. Portanto
dim(W) = 2.
2. Se u ∈ U, u = (x, y, z, u) e x = −y. Então (x, y, z, u) = (x, −x, z, u) = (x, −x, 0, 0) +
(0, 0, z, 0) + (0, 0, 0, u) = x(1, −1, 0, 0) + z(0, 0, 1, 0) + u(0, 0, 0, 1). Então mo conjunto
C = {f1 = (1, −1, 0, 0); f2 = (0, 0, 1, 0); f3 = (0, 0, 0, 1)} gera o subespaço U. Podemos
ver facilmente que o conjuno C é L.I.. Portanto, dim(U) = 3.
3. Agora usamos a primeira parte do Teorema 3.3 e escolhemos os vetores L.I. no conjunto
F = {e1 , e2 , f1 , f2 , f3 }. Por escalonamento de Matriz obtemos
3.1. ESPAÇO VETORIAL







= l1

= l2

= l1 − l2 − l3 


= l5
= l1 − l2 − l4


1 0 1 0
= l1
 0 1 0 0 
= l2


 0 0 1 0 
= l3


 0 0 0 1 
= l4
0 0 0 0
= −l1 + l2 + l3 + l4
1
0 1 0
0
1 0 0
1 −1 0 0
0
0 1 0
0
0 0 1
L1
L2
L3
L4
L5
67

L1

L2

 ∼ L3


L4
L5
1
0
0
1
0
0
0
0
1 −1
1
0
1
0
0
0
0
0
1
0



∼


assim, se E = {(1, 0, 1, 0); (0, 1, 0, 0); (0, 0, 1, 0); (0, 0, 0, 1)}, E é L.I., gera W + U. Então
dim(W + U) = 4. Temos dim(W) = 2, dim(U) = 3 e dim(W + U) = 4, da segunda parte
do Teorema 3.3 segue que dim(W ∩ U) = 1. Portanto, W ∩ U ̸= {⊙}, segue da Definição 3.8
que soma W + U não é direta.
EXERCÍCIOS
1. Da a uma base e a dimensão do subespaço W de R4 onde W = {(x, y, z, t) ∈ R4 tal que x−
y = y e x − 4y + t = 0}.
2. Mostre que B0 = {e0 = 1, e1 = 1 + t; e2 = 1 − t2 e e3 = 1 − t − t3 − t3 } é uma base para
P3 (R) com soma e multiplicação por escalar usuais.
3. Determinar uma base e a dimensão do espaço gerado pelo conjunto solução de cada
um dos seguintes sistemas lineares.

 x − y = 0,
a) 2x − y = 0,

3x + 12 y = 0

 x + y + z = 0,
(b) 2x − y − 2z = 0,

3x + 4y + 5z = 0,

 2x − 2y + z = 0,
(d) 3x − y + 3z = 0,

3y + 4z = 0.
4. No caso que V = R4 com soma e multiplicação por escalar usuais, considere os subespaços de V dados por
W0 = {(x, y, z, v) ∈ R4 tal que x = 0},
W1 = {(x, y, z, v) ∈ R4 tal que y − 2z = 0}
W2 = [(1, 1, 0, 0); (0, 0 − 1, 2), (−1, 1, 0, 2)].
Determinar base e dimensão dos seguinte subespaços: W0 , W1 , W2 , W0 +W1 , W0 ∩W1 ;
W0 ∪ W1 e W0 + W1 + W2 .
68
CAPÍTULO 3. ÁLGEBRA LINEAR
Capı́tulo 4
Espaços Euclidianos
4.1
Produto Esalar
Definição 4.1. Seja (V, K), com V finitamente gerado. Dados dois vetores u, v ∈ V, Produto Escalar de v por v é o valor de uma função ⟨· ; ·⟩ : V × V → K que satisfaça

(i) ⟨u + v, w⟩ = ⟨u, v⟩ + ⟨u, w⟩,



(ii) ⟨u, v⟩ = ⟨v, u⟩,
(iii) ⟨λu, v⟩ = λ⟨u, v⟩,



(iv) ⟨u, u⟩, é um número real não negativo, e , ⟨u, u⟩ = 0, se e somente se u = ⊙,
Propriedade do Produto Escalar
Seja (V, K = R) e u, v, w ∈ V
1. ⟨⊙; u⟩ = 0
Prova Como sabemos 0u = ⊙ para todo u ∈ V. Agora, ⟨⊙; u⟩ = ⟨0u; u⟩ = 0⟨u; u⟩ = 0.
2. ⟨u; λv⟩ = λ⟨u; v⟩.
Prova Como sabemos ⟨u; v⟩ = ⟨v; u⟩. Agora, ⟨u; λv⟩ = ⟨λv; u⟩ = λ⟨v; u⟩ = λ⟨u; v⟩.
3. ⟨u; w + v⟩ = λu; w⟩ + λu; v⟩.
Prova Como sabemos ⟨u; v⟩ = ⟨v; u⟩. Agora, ⟨u; v+w⟩ = ⟨v+w; u⟩ = ⟨v; u⟩+⟨w; u⟩ =
⟨u; v⟩ + ⟨u; w⟩.
Definição 4.2. Seja (V, K), com V finitamente gerado. Dado u ∈ V indica-se por ∥u∥ o
comprimento do vetor u que é dado por
∥u∥ =
√
⟨u, u⟩
(4.1.1)
Lema 4.1. Seja (V, K), com V finitamente gerado (K = R). Dado u, ∈ V, e λ ∈ K,
∥λu∥ = |λ|∥u∥.
69
70
CAPÍTULO 4. ESPAÇOS EUCLIDIANOS
Prova Como ∥λu∥ =
√
√
√
⟨λu, λu⟩ = λ2 ⟨u, u⟩ = |λ| ⟨u, u⟩ = |λ|∥u∥.
Lema 4.2. Desigualdade de Cauchy-Schwarz Seja (V, K), com V finitamente gerado
(K = R). Dado u, ∈ V,
|⟨u, v⟩| ≤ ∥u∥∥v∥
(4.1.2)
.
Prova Segue do primeiro item da Definição4.1 que ⟨u+λv; u+λv⟩ = ⟨u; u+λv⟩+⟨λv; u+
λv⟩ = ⟨u + λv; u⟩ + λ⟨v; u + λv⟩ = ⟨u; u⟩ + λ⟨u; v⟩ + λ[⟨u; v⟩ + λ⟨v; v⟩] = ⟨u; u⟩ + 2λ⟨u; v⟩ +
λ2 ⟨v; v⟩. Agora segue de (4.1.1) que ⟨u + λv; u + λv⟩ = ∥u∥2 + 2λ⟨u; v⟩ + λ2 ∥v∥2 . Veja que
(4.1.1) implica que ⟨u + λv; u + λv⟩ = ∥u + λv∥2 ≥ 0 para todo uv ∈ V e λ ∈ K = R. Então,
∥u∥2 + 2λ⟨u; v⟩ + λ2 ∥v∥2 ≥ 0, para todo u, v ∈ V, λ ∈ K = R
Portanto, temos uma equação do segundo grau que deve ser no negativa para todo lambda ∈
K = R, ou seja devemos ter ∆ = [2λ⟨u; v⟩]2 − 4∥u∥2 ∥v∥2 ≤ 0. O que é equivalente a
|⟨u, v⟩| ≤ ∥u∥∥v∥.
⟨u, v⟩
≤ 1, então podemos definir o
∥u∥∥v∥
ângulo θ entre u e v como o âgulo cujos cosseno é dado por
Observação 4.1. Como |⟨u, v⟩| ≤ ∥u∥∥v∥, −1 ≤
⟨u, v⟩
∥u∥∥v∥
cos(θ) =
(4.1.3)
Exemplo 4.1. Suponha que V = Pn ([0, 1]), ∫e p ∈ V se p : [0, 1]
polinomio
1
e K = R. Dados p, q ∈ V, defina ⟨p; q⟩ =
→
R com ∂(p) ≤ n
p(t)q(t)dt. Então ⟨p; q⟩ a é um Produto
0
Escalar em V.
Prova Temos que verificar as quatro condições da Definição 4.1.
1. Sejam p, q, d ∈ V,
∫
⟨p; q + d⟩ =
∫
1
p(t)[q(t) + d(t)]dt =
0
∫
1
p(t)d(t)]dt = ⟨p; q⟩ + ⟨p; d⟩.
p(t)q(t)dt +
0
1
0
2. Para todo p, q ∈ V,
∫
⟨p; q⟩ =
∫
1
1
q(t)p(t)dt = ⟨q; p⟩.
p(t)q(t)dt =
0
0
4.1. PRODUTO ESALAR
71
3. Dados p ∈ V e λ ∈ K,
∫
⟨λp; q⟩ =
∫
1
1
λp(t)q(t)dt = λ
0
q(t)p(t)dt = λ⟨q; p⟩.
0
Finalmente,
∫
4.
∫
1
⟨p; p⟩ =
1
(p(t))2 dt.
p(t)p(t)dt =
∫
0
0
1
(p(t))2 dt = 0 somente de p for p polinômio nulo.
Esta integral é não negativa, e
0
Exemplo 4.2. Suponha que V = P3 ([0, 1]), e p ∈ V se p : [0, 1]
K = R. Sejam p(t) = 1 − t2 , q(t) = 1 + t2 , Calcule
∫ 1
1. ⟨p; q⟩ =
p(t)q(t)dt.
0
∫
polinomio
→
R com ∂(p) ≤ 3 e
1
2. ∥p∥ = ⟨p; p⟩ =
p(t)p(t)dt.
∫
0
1
3. ∥p∥ = ⟨q; q⟩ =
q(t)p(t)dt.
0
4. O ângulo entre p e q.
Resolução
∫
1. Observe que
∫
1
2
p(t)q(t)dt =
0
∫
1
2
4
1 5 1
1
(1−t )dt = t− t = 1− = ,
5 0
5
5
4
(1−t )(1+t )dt =
0
1
0
4
então ⟨p; q⟩ = .
5
∫ 1
∫ 1
2
1 3 1
2 1
15 − 10 + 3
2
,
2. Como
p(t)p(t)dt =
(1 − 2t + t )dt = 1 − t + t = 1 − + =
3
5 0
3 5
15
0
0
8
tem-se ∥p∥2 = .
15
∫ 1
∫ 1
2 1
2
1 3 1
15 + 10 + 3
2
3. Veja que
q(t)q(t)dt =
(1 + 2t + t )dt = 1 + t + t = 1 + + =
,
3
5 0
3 5
15
0
0
28
então ∥q∥2 = .
15
4. Finalmente, segue dos três ı́tens acima que
4
⟨u, v⟩
15
4 · 15
√ = √ .
cos(θ) =
= √ 5√ = √
∥u∥∥v∥
8
28
2 2·4 7
2 14
√ ·√
15
15
72
CAPÍTULO 4. ESPAÇOS EUCLIDIANOS
Como cos(θ) > 0, o ângulo entre p e q é um ângulo agudo.
• Segue da Observação 4.1 se que ⟨ u, u⟩ = ∥u∥2 , o ângulo entre u e u é zero. Ainda, que
⟨u, −u⟩ = −∥u∥2 porque o ângulo entre u e −u é π.
• Segue da Observação 4.1 que ⟨u, v⟩ = 0 se e somente se os dois vetores u e v forem
perpendiculares
Observação 4.2. A desigualdade dada no Lema 4.2 foi provada pela primeira vez em 1821
por Augustin Cauchy, enquanto a correspondente desigualdade para integrais foi provada
por Viktor Yakovlevich Bunyakovsky em 1859 e em 1888 a desigualdade foi redescoberta por
Hermann Amandus Schwarz e da, o nome de desigualdade de Cauchy-Schwarz.
4.1.1
Projeção Ortogonal de Vetores
Vimos ateriormente que se V = E3 e tivéssemos dois vetores ⃗u e ⃗v como na Figura ∆.
w
⃗
6
A
3
⃗u -
⃗a
⃗v
f igura ∆
-
A projeção ortogonal de ⃗u na direção de ⃗v é o vetor ⃗a (ver figura ∆) que satisfaz as três
condições abaixo:

 (i) Existe λ ∈ R, tal que ⃗a = λ⃗v .
(ii) Existe um vetor w,
⃗ tal que ⟨w,
⃗ ⃗v ⟩ = 0.
(4.1.4)

(iii) ⃗u = ⃗a + w.
⃗
Queremos determinar λ. Veja que

⃗ ⃗v ⟩ = ⟨⃗a, ⃗v ⟩ + ⟨w,
⃗ ⃗v ⟩ = ⟨λ⃗v , ⃗v ⟩ = λ⟨⃗v , ⃗v ⟩, pois ⟨w,
⃗ ⃗v ⟩ = 0.
 ⟨⃗u, ⃗v ⟩ = ⟨⃗a + w,
⟨⃗u, ⃗v ⟩
 vemos dai que λ =
∥⃗v ∥2
Assim,
P roj⃗v⃗u = ⃗a =
⟨⃗u, ⃗v ⟩
⃗v .
∥⃗v ∥2
Agora nós perdemos parte da noçãogeométrica do espaço V = E3 .
(4.1.5)
4.1. PRODUTO ESALAR
73
Definição 4.3. Seja (V, K), com V finitamente gerado. Dados u, v ∈ V a projeção ortogonal
de u na direção de v é o vetor
P rojvu = a =
⟨u, v⟩
v.
∥v∥2
(4.1.6)
Exemplo 4.3. Suponha que V = P3 ([0, 1]), e p ∈ V se p : [0, 1]
polinomio
R com ∂(p) ≤ 3
⟨u, v⟩
e K = R. Sejam u = p(t) = 1 − t2 , v = q(t) = 1 + t2 , Calcule P rojvu =
v e
∥v∥2
⟨u, v⟩
P rojuv =
u
∥u∥2
√
4
2 2
e
Resolução Vimos no Exemplo 4.2 que ⟨u; v⟩ = ⟨p; q⟩ = , ∥u∥ = ∥p∥ = √
5
15
√
4 7
∥v∥ = ∥q∥ = √ . Então segue da Definição 4.3 que
15
4
3(1 + t2 )
⟨u, v⟩
⟨u, v⟩
4 · 15
v= 5 v=
v=
, e P rojuv =
u=
P rojv =
2
28
∥v∥
5 · 28
7
∥u∥2
15
u
4.1.2
→
4
2
5 v = 4 · 15 v = 3(1 − t ) .
8
5·8
2
15
Bases Ortogonais
Definição 4.4. Dado (V, K), V finitamente gerado. Seja B = {e1 , e2 , e3 , · · · , en } uma BASE
do espaço V, dizemos que ela é uma Base Ortogonal se os vetores de B forem dois a dois
perpendiculares isto é
⟨ei , ej ⟩ = 0, para todo i, j ∈ {1, 2 · · · , n} com i ̸= j.
(4.1.7)
Exemplo 4.4. Considere V = E3 e K = R, e os vetores de B = {⃗e1 , ⃗e2 , ⃗e3 } como abaixo:
6
⃗e3
⃗e1
⃗e3
temos ⟨ei , ej ⟩ = 0, para todo i, j ∈ {1, 2, 3} com i ̸= j.
-
74
CAPÍTULO 4. ESPAÇOS EUCLIDIANOS
4.1.3
Bases Ortonormais
Definição 4.5. Dado (V, K), V finitamente gerado. Seja B = {e1 , e2 , e3 , · · · , en } uma BASE
ORTOGONAL do espaço V, do espaço V, dizemos que ela é uma Base Ortonormal se os
vetores de B tiverem NORMA UM (comprimento), isto é
⟨ei , ei ⟩ = 1 para todo i ∈ {1, 2, · · · , n}
(4.1.8)
Consideremos uma base ortonormal B = {⃗ı,⃗ȷ, ⃗k} base de E3 e o vetor ⃗u = x⃗ı + y⃗ȷ + z⃗k.
Então pode-se na figura abaixo a interpretação geométrica da relação do vetor ⃗u com a base
B.
z⃗k 6
⃗u = x⃗ı + y⃗ȷ + z⃗k
6
⃗k
⃗ı ⃗ȷ
x⃗ı y⃗ȷ-
EXERCÍCIOS
1. Determinar a dimensão do espaço sulução de cada um dos sistemas lineares abaixo:


 x−y =0
2x − 3y = 0
(S0 ) ∼

 3x + 1 y = 0.
2

 x+y+z =0
2x − y − 2z = 0
(S1 ) ∼

x + 4y + 5z = 0.

 x−y+z−t=0
2x − 3y + 0z − t = 0
(S3 ) ∼

3x + y − z + 2t = 0.

 2x − 2y + z = 0
3x − 2y + 3z = 0
(S2 ) ∼

0x + 3y + 4z = 0.

−x − 2y + 3z − t = 0



2x − y − 2z + t = 0
(S4 ) ∼
2x + 4y + z − 2t = 0



x + 2y − z − 2t = 0.
4.1. PRODUTO ESALAR
75
2. Se V = R3 e K = R, mostre que B = {e1 = (0, 2, 2); (e2 = (0, 4, 1)} é base para o
subespaço W = {(x, y, z) ∈ R3 tal que x = 0}.
3. Se V = R3 , K = R, considere os subepaços U = {(x, y, z) ∈ V tal que x = 0},
W = [{f1 , f2 }] onde f1 = (1, 2, 0) e f2 = (3, 1, 2). Determine sistemas homogêneos
cujos conjuntos soluções são os subespaços W ∩ U e W + U. Esta soma é soma direta?
4. Se V = R4 , K = R, considere os vetores f1 = (1, 2, 0, 1), f2 = (3, 1, 2, 0), f2 =
(−1, 1, −1, 1) e f4 = (0, 1, −2, −1), os subepaços U0 = {(x, y, z, w) ∈ V tal que 3x −
y − z + w = 0}, U1 = [{f1 , f2 , f2 }] e U2 = {(x, y, z, w) ∈ V tal que x − y + z + w =
0; −x − 2y + z + 2w = 0}.
a) Calcule um sistema tal que seu conjunto solução seja U0 + U2 .
b) Dê uma base para U0 + U1 , U0 + U2 , U1 + U2 . Indique quais destas somas são
somas diretas.
c) Verifique se (U0 + U1 ) + U2 = V.
5. Mostre que B = {g1 = 1, g2 = 1 + t, g3 = 1 − t2 , g4 = 1 − t − t2 − t3 } é uma
base de V = P3 (R). Considere os subespaços W0 = [{g1 + g2 , g1 + g3 , g2 + g2 }] e
W1 = [{g1 − g2 , g1 + 2g3 , −2g2 + g2 }],.
a) Verifique se o vetor u = 2 + t − t3 pertence a W0 .
b) Encontre um conjunto gerador para W0 + W1 .
c) Encontre um conjunto gerador para W0 ∩ W1 .
6. Seja V = R3 e K = R. Determinar sejam u, v, w ∈ R3 vetores unitários.
a) Suponha que ⟨u; v⟩ = 1, ⟨u; w⟩ = 2, ⟨w; v⟩ = −1. Calcule ⟨u−2v +w; 2u−3v +w⟩
b) Suponha que ⟨u; v⟩ = −3, ⟨u; w⟩ = 2, ⟨w; v⟩ = −1. Calcule P roj v u ; P roj v w e
P roj w u
polinomio
Suponha que V = P3 ([0, 1]), e p ∈ V se p : [0, 1] → R com ∂(p) ≤ 3 e K = R.
Sejam u = p(t) = t, v = q(t) = 1 − t2 e w = d(t) = 2 − t3 . Calcule
∫
(a) ⟨p; q⟩ =
0
1
p(t)q(t)dt, Resp ⟨p; q⟩ = 21 .
∫
1
(b) ∥p∥ = ⟨p; p⟩ =
p(t)p(t)dt.
0
√
2 2
(c) ∥p∥ = ⟨q; q⟩ =
q(t)q(t)dt, Resp: ∥q∥ = √ .
15
0
(d) O ângulo entre p e q.
∫
1
(e) P rojvu , P rojwu , P rojwv .
76
CAPÍTULO 4. ESPAÇOS EUCLIDIANOS
polinomio
7. Suponha que V = P4 ([0, 1]), e p ∈ V se p : [0, 1] → R com ∂(p) ≤ 4 e K = R.
Sejam u = p(t) = 1 + t3 , v = q(t) = 1 − t4 e w = d(t) = 2 − 3t. Calcule
∫
(a) ⟨p; q⟩ =
1
p(t)q(t)dt.
0
∫
1
(b) ∥p∥ = ⟨p; p⟩ =
p(t)p(t)dt.
∫
0
(c) ∥p∥ = ⟨q; q⟩ =
1
q(t)q(t)dt.
0
(d) O ângulo entre p e q.
(e) P rojvu , P rojwu , P rojwv .
4.1.4
Ortogonalização de Gram-Schmidt
Definição 4.6. Considere (V, K). Dizemos que um conjunto O = {f1 , f2 , · · · , fn } é Ortogonal se seus vetores forem dois a dois Ortogonais.
Exemplo 4.5. Considere V = E3 e K = R, e os vetores de B = {⃗e1 , ⃗e2 , ⃗e3 } como abaixo:
6
⃗e3
⃗e1
⃗e3
-
temos ⟨ei , ej ⟩ = 0, para todo i, j ∈ {1, 2, 3} com i ̸= j.
Uma questo importante é saber como transformar um conjunto de vetores Linearmente
Independente em um conjunto ortogoniais. Se soubermos realizar atividade saberemos trnasformar uma base do espaço vetorial V em uma base ortogonal do espaço vetorial V
Lema 4.3. Considere (V, K) finitamente gerado. Se O = {e1 , e2 , · · · , en } =
̸ {⊙} for um
conjunto Ortogonal, então O é Linearmente Independente.
Prova
4.1. PRODUTO ESALAR
77
1. Suponhmos que e1 ̸= ⊙. Queremos determinar todos os α1 , α2 , · · · , αn ∈ K tais que
α1 e1 + α2 e2 + · · · + αn en = ⊙ (ver Definição 3.6). Podemos ver facilmente que
0 = ⟨⊙, e1 ⟩ = ⟨α1 e1 +α2 e2 +· · ·+αn en ; e1 ⟩ = ⟨α1 e1 ; e1 ⟩+⟨α2 e2 ; e1 ⟩+· · · , +⟨αn en ; e1 ⟩ =
α1 ⟨e1 ; e1 ⟩ + α2 ⟨e2 ; e1 ⟩ + · · · , +αn ⟨en ; e1 ⟩ = α1 ⟨e1 ; e1 ⟩
por que o conjunto O é Ortogonal assim, ⟨ei ; e1 ⟩ = 0 para todo i ∈ {2, 3 · · · , n}. Como
e1 ̸= ⊙, então ⟨e1 ; e1 ⟩ =
̸ 0, portanto α1 = 0.
2. Agora, queremos determinar todos os α2 , · · · , αn ∈ K tais que α2 e2 +α3 e3 +· · ·+αn en =
⊙ (ver Definição 3.6). Podemos ver facilmente que
0 = ⟨⊙, e2 ⟩ = ⟨α2 e2 +α3 e3 +· · ·+αn en ; e2 ⟩ = ⟨α2 e2 ; e2 ⟩+⟨α3 e3 ; e2 ⟩+· · · , +⟨αn en ; e2 ⟩ =
α2 ⟨e2 ; e2 ⟩ + α3 ⟨e3 ; e2 ⟩ + · · · , +αn ⟨en ; e2 ⟩ = α2 ⟨e2 ; e2 ⟩
por que o conjunto O é Ortogonal assim, ⟨ei ; ej ⟩ = 0 para todo i, j ∈ {1, 2, 3 · · · , n}
para i ̸= j. Como e2 ̸= ⊙, então ⟨e2 ; e2 ⟩ =
̸ 0, portanto α2 = 0.
O resto da Prova segue por indução sobre n .
Lema 4.4. Considere (V, K) finitamente gerado. Se B = {v2 , v2 , · · · , vn } for um conjunto
Linearmente Independente de V.
1. e1 = v1 ,
2. e2 = v2 − P rojev12 ,
3. e3 = v3 − P rojev13 − P rojev23 ,
4. e4 = v4 − P rojev14 − P rojev24 − P rojev34 ,
..
.
..
.
..
.
..
.
..
.
n
5. en = vn − P rojev1n − P rojev2n − P rojev3n − · · · − P rojevn−1
,
o conjunto F = {e2 , e2 , · · · , en } é Ortogonal.
Prova Como na prova do Lema 4.3, vamos desenvolver apenas uma parte da prova
do Lema 4.4. Veja que F é Linearmente Independente, assim, e1 ̸= ⊙ e ⟨e1 ; e1 ⟩ ̸= 0.
⟩
⟨ ⟨v ; v ⟩
⟩
⟨
⟨v2 ; v1 ⟩
2 1
v
;
v
=
⟨v
,
v
⟩
−
v
;
v
Calculando ⟨e2 ; e1 ⟩ = ⟨v2 − P rojev12 ; v1 ⟩ = v2 −
1 1
2 1
1 1 =
∥v1 ∥2
∥v1 ∥2
⟨v2 ; v1 ⟩
⟨v1 ; v1 ⟩
⟨v2 , v1 ⟩ −
⟨v
;
v
⟩,
Mas
pode-se
ver
facilmente
que
= 1. Portanto, ⟨e2 ; e1 ⟩ =
1
1
∥v1 ∥2
∥v1 ∥2
⟨v2 , v1 ⟩ − ⟨v2 , v1 ⟩ = 0. Com uma conta anloga podemos ver que ⟨ei ; ej ⟩ = 0 pora todo
i, j ∈ {1, 2, · · · , n} com i ̸= j.
78
CAPÍTULO 4. ESPAÇOS EUCLIDIANOS
Observação 4.3. Considere (V, K) finitamente gerado. Se F = {e1 , e2 , · · · , en } a base
1
ej , para j ∈ {1, 2, · · · , n}, então de O = {f1 , f2 , · · · , fn } é base
ortonormal de V, e fj =
∥ej ∥2
Ortonormal de V.
Exemplo 4.6. Seja V = R2 , com a soma e multiplicação por escalar usuais. Se u = (x, y)
e v = (a, b), as coordenadas de u e de v são dadas em relação à uma base ortonormal de V.
Então o produto interno (escalar) em V dado por ⟨u; v⟩ = ax + by. Se F = {e1 = (1, 2); e2 =
(−2, 1)}, dê uma base ortonormal para V usando os vetores de e F.
Resolução
√ Veja que F é ortogonal, ou seja ⟨e1 ; e2 ⟩ = 0; mas F não é ortogonal, pois
⟨e1 ; e1 ⟩ = 5. Sejam
1
1
1 2
1
1
2 1
f1 = √ e1 = √ (1, 2) = ( √ ; √ ) e f2 = √ e2 = √ (−2, 1) = (− √ ; √ )
5
5
5 5
5
5
5 5
Pode ser visto facilmente que O = {f1 , f2 } é base ortonormal de V.
Exemplo 4.7. Seja v1 = (1, 1) e v2 = (2, −1). Com S = {v1 , v2 } é L.I., S é base de V = R2
com soma e multiplicação por escalar usuais. Use o Lema 4.4 para ortonormalizar a base S
1
Resolução Seja e1 = V ersor(u1 ) = √ u1 .
2
2−1
3
⟨v1 , u1 ⟩
u1 = (2, −1) −
(1, 1) = (1, −1).
u1 = (2, −1) −
2
∥u1 ∥
2
2
√
3
2
Portanto, e2 = V ersor( (1, −1)) =
(1, −1) e a base ortnormalizada é S = {e1 , e2 }.
2
2
Exemplo 4.8. Seja V = P2 ([0; 1], R), com a soma e multiplicação por escalar usuais. Dado
B = {v1 = 1, v∫2 = x, v3 = x2 }, encontre uma base ortonormal de V com o produto interno
1
⟨p(x); q(x)⟩ =
p(x)q(x)dx.
0
Resolução Temos que encontrar um conjunto ortogonal F = {e1 , e2 , e3 } e depois
on conjunto ortonormal
O = {f1 , f2 , f3 }. Seja v1 = p0 (x). Então ∥v1 ∥2 = ∥p0 (x)∥2 =
∫
1
⟨p0 (x); p0 (x)⟩ =
p0 (x)p0 (x)dx = 1. Então encontramos o primeiro vetor f1 = e1 =
0
p0 (x) = 1 da base O = {f1 , f2 , f3 }. Seguindo o Lema 4.4 vemos que
∫
e2 = v2 − P rojev12
⟨v2 ; e1 ⟩
1
e1 ,
1 · xdx = , e P rojev12 =
2
∥e1 ∥2
0
1
e2 = x −
2
∫ 1(
1)
1
1 1
x−
dx = x2 − x = 0.
Encontramos o segundo vetor de F. Veja que ⟨e2 ; e1 ⟩ =
2
2
2 0
0
Vamos calcular e2 . Segue do Lema 4.4 que
Como ⟨e1 , v2 ⟩ = ⟨1, x⟩ =
1
4.1. PRODUTO ESALAR
79
e3 = v3 − P rojev23 − P rojev13
Mas como
∫
⟨v3 ; e2 ⟩ =
1
1)
x x− dx =
2
2
0
então, P rojev23 =
(
∫
0
1
(
x2 )
1
x−
dx = , ∥e2 ∥2 = ⟨e2 ; e2 ⟩ =
2
12
∫
1
3
(
x−
0
1 )2
1
dx = ,
2
12
1
⟨v3 ; e2 ⟩
e2 = x − .
2
∥e2 ∥
2
Ainda,
∫
⟨v3 ; e1 ⟩ =
1
1
1 · x dx = , ∥e1 ∥2 = ⟨e1 ; e1 ⟩ =
3
∫
2
0
1
dx = 1,
0
1
então, P rojev13 = , e
3
1
e3 = x 2 − x + .
6
1
1
O conjunto Ortogonal F é dado por F = {e1 = 1, e2 = x − , e3 = x2 − x + }. Temos
2
6
1
14
2
2
2
∥e1 ∥ = 1, ∥e2 ∥ =
e ∥e3 ∥ = . Portanto,
12
45
√ (
√ (
3
1)
5 2
1)
O = {f1 = 1, f2 =
x−
, f3 =
x −x+
.}
2
2
6
6
4.1.5
Projeção Ortogonal de um Vetor sobre um Subespaço
Definição 4.7. Sejam (V, K), S = {e1 , e2 , · · · , en } ⊂ V um conjunto ortogonal. Se U = [S]
então dado v ∈ V, a Projeção Ortogonal de v sobre U é o vetor
ω = P rojev1 + P rojev2 + · · · + P rojevn
Exemplo 4.9. Seja V = R3 com soma e multiplicação por escalar usuais. Se S = {u1 =
(1, −1, 1), u2 = (1, 1, 0)} e U = [S], encontre a projeção ortogonal dos vetores ω0 = (−2, 3, 1)
e ω1 = (−2, −2, −1) sobre U.
Resolução Veja que S é um conjunto ortogonal, pois ⟨u1 ; u2 ⟩ = 0. Segue da Definição
4.7 que ω = P rojuω10 + P rojuω20 .
1. Vamos calcular P rojuω10 . Como ⟨ω0 ; u1 ⟩ = 1(−2) + (−1)3 + 1(1) = −4, ⟨u1 ; u1 ⟩ =
√
−4
1(1) + (−1)(−1) + 1(1) = 3. Assim, ∥u1 ∥ = 3 e P rojuω10 = √ (1, −1, 1).
3
80
CAPÍTULO 4. ESPAÇOS EUCLIDIANOS
2. Vamos calcular P rojuω20 . Como ⟨ω0 ; u2 ⟩ = 1(−2) + (1)3 + 0(1) = 1, ⟨u2 ; u2 ⟩ = 1(1) +
√
1
(1)(1) + 0(0) = 2. Assim, ∥u2 ∥ = 2 e P rojuω20 = √ (1, 1, 0). Portanto,
2
√ √ √ √
√
−4
1
1
ω = P rojuω10 +P rojuω20 = √ (1, −1, 1)+ √ (1, 1, 0) = √ (−4 2+ 3; 4 2+ 3; −4 2)
3
2
6
EXERCÍCIOS
1. Se S = {v1 = (0, 1, 2); v2 = (1, 1, 2)v3 = (1, 0, 1)}, encontre o conjunto S = {e1 , e2 , e3 }
tal que S seja a ortonormalização de S pelo processo de Gram Schmith. Resp: e1 =
1
V ersor(u1 ); e2 = V ersor(1, 0, 0); e3 = V ersor( (0, −2, 1).
5
2. Se v1 = p1 (t) = 1; v2 = p2 (t) = t e v3 (t) = t2 então S = {v1 , v2 , v3 } é uma base para
V = {p : [0, 1] → R, polinômio tal que ∂(p) ≤ 2}. Com a soma usual de polinômios e
multiplicação de polinômis por escalar, V é espaço vetorial e S é base de V.
a) Se B = {q1 (t) = t2 + t; q2 (t) = 2t − 1}, calcule a projeção ortogonal do vetor
v3 (t) = t2 sobre q2 .
b) Se B = {q1 (t) = t2 + t; q2 (t) = 2t − 1}, calcule a projeção ortogonal do vetor
v3 (t) = t2 − t sobre q1 .
c) Use o Lema 4.4 e ortonormalize a base S.
d) Se B = {q1 (t) = t2 + t; q2 (t) = 2t − 1}, use a Definição 4.7 e calcule a projeção
ortogonal do vetor v3 (t) = t2 sobre o subespaço gerado pelo conjunto B.
3.
a) Encontre uma base ortonormal para W = [S] com S = {v1 = (1, 1, 1), v2 =
1
1
(1, −1, 1), v2 = (−1, 0, 1)}. Resp. O = {f1 = √ (1, 1, 1), f2 = ( √ (1, −2, 1); f3 =
3
5
1
( √ (−1, 0, 1)}.
2
b) Calcule a Projeção ortogonal de v = (−1, 2, −1) sobre o subespaço gerado pelo
conjunto B = {v1 , v2 }.
c) Calcule a Projeção ortogonal de v = (−1, 2, −1) sobre o subespaço gerado pelo
conjunto B = {v2 , v3 }
4. (a) Encontre uma base ortonormal para W = {(x, y, z) ∈ R3 , tal que x − 2y = 0}.
2 1
Resp. O = {f1 = (0, 0, 1), f2 = ( √ , √ , 0)}.
5 5
b) Calcule a Projeção ortogonal de v = (−1, 1, −1) sobre o subespaço W.
5.
a) Encontre uma base ortonormal para W = {(x, y, z, t) ∈ R4 , tal que x + y +
1
1 1
z + t = 0}. Resp. O = {f1 = (− √ , √ , 0, 0), f2 = √ (−1, −1, 2, 0), f2 =
2 2
6
√
3
(−1, −1, −1, 1)}.
6
b) Calcule a Projeção ortogonal de v = (−1, 1, −1, 0) sobre o subespaço W.
Capı́tulo 5
TRANSFORMAÇÕES LINEARES
Definição 5.1. Dados (V, K) e (W, K), espaços vetoriais , seja T : V → W uma aplicação
de V em V. Dizemos que T é uma Transformação Linear se as duas condições abaixo
estivrem satisfeitas:
1. Para todo u, v ∈ V tem-se T (u + v) = T (u) + T (v).
2. Para todo λ ∈ K e u ∈ V tem-se T (λu) = λT (u).
Exemplo 5.1. Sejam V = R3 , W = R2 e T ; V → W dada por T (x, y, z) = (ax + by +
cz; mx + py + qz).
1. Mostre que T é uma Transformação Linear de V em W.
2. Mostre que U = {(x, y, z) ∈ V tal que T (x, y, z) = ⊙ ∈ W} é um subespaço de W.
3. Encontre um conjunto gerador de U.
Resolução
1. Veja que se u = (x1 , x2 , x3 ) e u = (y1 , y2 , y3 ), u, v ∈ V, u + v = (x1 + y1 ; x2 + y2 ; x3 + y3 )
e
T (u + v) = T (x1 + y1 ; x2 + y2 ; x3 + y3 ) =
(a(x1 + y1 ) + b(x2 + y2 ) + c(x3 + y3 ); m(x1 + y1 ) + p(x2 + y2 ) + q(x3 + y3 ))
(ax1 + bx2 + cx3 ; mx1 + px2 + qx3 ) + (ay1 + by2 + cy3 ; my1 + py2 + qy3 ) =
T (u) + T (v).
2. Veja que se λ ∈ K e u = (x1 , x2 , x3 ) ∈ V, λu = (λx1 ; λx2 ; λx3 ) e
81
82
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
T (λu) = T (λx1 ; λx2 ; λx3 ) =
(aλx1 + bλx2 + cλx3 ; mλx1 + pλx2 + qλx3 ) =
λ(ax1 + bx2 + cx3 ; mx1 + px2 + qx3 ) = λT (u).
Segue da Definição 5.1 que T é uma Transformação Linear de V em W.
Exemplo 5.2. Seja V, K onde V = Rn , S = {e1 , e2 , · · · , en } a base canônica de V. Para
cada α1 , α2 , · · · , αn ∈ K, u ∈ V, seja u = (x1 , x2 , · · · , xn ) ∈ V, e T : V → K dada
T u = α1 x1 + α2 x2 + · · · , αn xn . Então T é uma Transformação Linear.
Resolução
1. Temos que provar que T (u + v) = T (u) + T (v). Dados u, v ∈ V, u = (x1 , x2 , · · · , xn ),
u = (y1 , y2 , · · · , yn ), u + v = (x1 + y1 , x2 + y2 , · · · , xn + yn ), assim
T (u + v) = T (x1 + y1 , x2 + y2 , · · · , xn + yn ) =
α1 (x1 + y1 ) + α2 (x2 + y2 ) + · · · + αn (xn + yn ) =
(α1 x1 + α2 x2 + · · · + αn xn ) + (α1 y1 + α2 y2 + · · · + αn yn ) = T (u) + T (v).
2. Dado λ ∈ K, u ∈ V, λu = (λx1 , λx2 , · · · , λxn ), assim,
T (λu) = T (λx1 , λx2 , · · · , λxn ) = α1 λx1 + α2 λx2 + · · · + αn λxn =
λ(α1 x1 + α2 x2 + · · · + αn xn ) = λT (u)
Segue da Definição 5.1 que T é uma Transformação Linear de V em K.
5.1
Kernel e Imagem de uma Transformação Linear
Definição 5.2. Sejam (V, K), (W; K) espaços vetoriais, e T : V → W Transformação
Linear de V em W. O Kenel ou Núcleo da Transformação Linear T é o conjunto
Ker(T ) = {u ∈ V tal que T (u) = ⊙W }
onde ⊙W indica o vetor nulo de W.
Exemplo 5.3. Seja V = R3 , W = R2 espaços vetoriais sobre K = R, T : V → W Transformação Linear dada por T (x, y, z) = (x + y + 3; −x + 2y − 3z). Descreva o Kernel de
T,
5.1. KERNEL E IMAGEM DE UMA TRANSFORMAÇÃO LINEAR
83
Resolução Segue da DEfinição 5.2 que v = (x, y, z) ∈ Ker(T ) se T (v) = ⊙W = (0, 0).
Então (x, y, z) deve estar no comnjunto solução do sistema linear
{
{
2x + y + 3z = 0
L 1 = l1
2x + y + 3z = 0
−x + 2y − 3z = 0 L2 = l1 + 2l2
0 + 5y − 3z = 0.
9
3
Vemos que y = z e y = − z. Assim,
5
5
3
9
Ker(T ) = {(x, y, z) ∈ R3 tal que y = z, − z e z ∈ R}.
5
5
se
Como Ker(T ) é o conjunto solução de um sistema linear homogêneo, Ker(T ), Ker(T ) ⊂ V
(ver Obsevação 3.4).
Definição 5.3. Sejam (V, K), (W; K) espaços vetoriais, e T : V → W Transformação
Linear de V em W. A Imagem de T é o conjunto
Im(T ) = {w ∈ W tais que existe v ∈ V e T (v) = w}.
5.1.1
Transformação Linear Injetora, Sobrejetora, Bijetora
linear
Definição 5.4. Sejam V, W espaços vetoriais sobre K e T : V −→ W.
1. Dizemos que T é uma Transformação Linear Injetora se dados u, v ∈ V tais que
T (u) = T (v) então u = v.
2. Dizemos que T é uma Transformação Linear Sobrejetora se Im(T ) = V
3. Dizemos que uma Transformação Linear é Bijetora e ela for Injetora e Sobrejetora
Como veremos a seguir, para as Transformações Lineares definidas em espaços vetoriais finitamente ggerados há critérios relativamente simples que ao serem aplicados, eles
são capazes de nos informar se tal Transformação Linear é Injetora ou Sobrejetora.
linear
Lema 5.1. Sejam V, W espaços vetoriais sobre K e T : V −→ W. Então
1. Ker(T ) é um subespaço de V.
2. A Transformação Linear T é injetora se e somente se Ker(T ) = {⊙V }.
1. Prova do primeiro item deste Lema.
84
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
(a) Se ⊙V e ⊙W forem o vetores nulos em V e em W respectivamente,
T (⊙V ) = T (u − u) = T (u) + T (−u) = T (u) − T (u) = ⊙W .
Então, segue da Definição 5.2 que ⊙V ∈ Ker(T ).
(b) Sejam v1 , v2 ∈ Ker(T ). Queremos mostras que v1 + v2 ∈ Ker(T ). Segue da
Definição 5.2 que T (v1 ) = ⊙W e T (v2 ) = ⊙W . Assim,
T (v1 + v2 ) = T (v1 ) + T (v2 ) = ⊙W + ⊙W = ⊙W .
Então, Segue da Definição 5.2 que v1 + v2 ∈ Ker(T ).
(c) Dados λ ∈ K e v ∈ Ker(T ), sabemos que T (v) = ⊙W . Ainda
T (λv) = λT (v) = ⊙W .
Então, Segue da Definição 5.2 que λv ∈ Ker(T ).
Da Definição 3.3 que Ker(T ) é um subespaço de V.
2. Prova do segundo item deste Lema.
(a) Suponhamos que T é injetora, como vimos no item 1(a) da prova do Lema 5.1,
T (⊙V ) = ⊙W . Suponha que u ∈ Ker(T ), então T (u) = ⊙W . Da definição de
injetividade segue que u = ⊙V . Então, Ker(T ) ⊂ {⊙V }. Do item 1(a) da prova
do Lema 5.1, T (⊙V ) = ⊙W , assim {⊙V } ⊂ Ker(T ). Portanto, Ker(T ) = {⊙V }.
(b) Reciprocamente, suponhamos que Ker(T ) = {⊙V }. Dados u1 , u2 ∈ Ker(T ), então
T (u1 ) = T (u2 ) implica T (u1 ) − T (u2 ) = ⊙W implica T (u1 − u2 ) = ⊙W .
Assim, u1 − u2 ∈ Ker(T ). Mas por hipótese Ker(T ) = {⊙V }. Potanto, u1 = u2 .
Segue da Definição de injetividade que T é injetora.
linear
Lema 5.2. Sejam V, W espaços vetoriais sobre K e T : V −→ W. Se U = Im(T ), então
se
U ⊂ W.
Prova
1. Seja ⊙W ∈ W, mostremos que ⊙W ∈ U. Do item 1(a) da prova do Lema 5.1, T (⊙V ) =
⊙W . Veja que ⊙W é imagem pela Transformação Linear T do vetor ⊙V em V. Então
⊙W ∈ U.
2. Sejam u1 , u2 ∈ U = Im(T ). Pela Definição 5.3 existem v1 , v2 ∈ V tais que T (v1 ) = u1
e T (v2 ) = u2 . Mas
u1 + u2 = T (v1 ) + T (v2 ) = T (v1 + v2 ).
Veja que u1 + u2 é imagem do vetor v1 + v2 ∈ V pela Transformação Linear T . Então
u1 + u2 ∈ U.
5.1. KERNEL E IMAGEM DE UMA TRANSFORMAÇÃO LINEAR
85
3. Sejam λ ∈ K e u ∈ U. Pela Definição 5.3 existe v ∈ V tais que T (v) = u. Mas
λu = λT (v) = T (λv).
Como λu é imagem do vetor λv ∈ V pela Transformação Linear T . Então λu ∈ U.
linear
linear
Lema 5.3. Sejam (V, K) (W, K), (U, K), T : V −→ U, S : U −→ W.
1. Se U = V, S + T : V −→ W é uma Transformação Linear.
2. S ◦ T : V −→ W é uma Transformação Linear.
3. Se α ∈ K, αT : V −→ U é uma Transformação Linear.
Prova Sejam u, v ∈ V
1.
a) (S + T )(u + v) = S(u + v) + T (u + v) = S(u) + S(v) + T (u) + T (v) = S(u) + T (u) +
S(v) + T (v) = (S + T )(u) + (S + T )(v).
b) Seja λ ∈ K, (S + T )(λu) = S(λu) + T (λu) = λ(S(u) + T (u)) = λ(S + T )(u). Portanto,
S + T é uma Transformação Linear.
2.
a) (S ◦T )(u+v) = S(T (u+v)) = S(T u+T (v)) = S(T (u))+S(T (v)) = S ◦T (u)+S ◦T (u).
b) Seja λ ∈ K, (S◦T )(λu) = S(T (λu)) = S(λ(T (u)) = λS(T (u)) = λ(S◦T )(u). Portanto,
S ◦ T é uma Transformação Linear.
3.
a) (αT )(u + v) = α(T (u + v)) = α(T (v) + T (v)) = αT (u) + αT (v) = (αT )(u) + (αT )(v)).
b) Seja λ ∈ K, (αT )(λu) = α(T (λu)) = α(λ(T (u)) = (αλ)T (u) = λα)T (u) = λ(αT )(u).
Portanto, αT é uma Transformação Linear.
Observação 5.1. Sejam (V, K), (W; K) espaços vetoriais finitamente gerados, e T :
V → W Transformação Linear de V em W.
(a) O Posto ou Rank de T é o número natural igual à dim(Im(T )).
(b) A Nulidade de T é o número natural igual à dim(Ker(T )).
86
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
5.1.2
Teorema do Núcleo e da Imagem
linear
Teorema 5.1. Sejam V, W espaços vetoriais finitamente gerados sobre K e T : V −→
W. Então
dim(V) = dim(Ker(T )) + dim(Im(T )).
(5.1.1)
Exemplo 5.4. Considere V = R4 , W = R4 , T : V → W dada por T (x, y, z, w) =
(2x − y + z − w; x − y + 3z + 2w; 2x − 3y + z − 2w; 3x − 2y + 4z + w).
(a) Descreva o K(T ).
(b) Descreva a Im(T ).
Resolução
(a) Se (x, y, z, w) ∈ K(T ), então T (x, y, z, w) = ⊙W = (0, 0, 0, 0) ou seja (x, y, z, w) é
solução do seguinte sistema linear

2x − y + z − w = 0



x − y + 3z + 2w = 0
2x − 3y + z − 2w = 0



3x − 2y + 4z + w = 0
L1
L2
L3
L4
= l1
= l1 − 2l2
= l1 − l3
= l1 + l2 − l4

2x − y + z − w = 0



0x + y − 5z − 5w = 0
0x + 2y + 0z + w = 0



0x + 0y + 0z + 0w = 0
Veja que da segunda equação tem-se w = −2y. Substituindo esta informação
11
na segunda equação teremos z =
y. Usando a primeira equação teremos x =
5
8
− y. Agora podemos encontrar os geradores K(T ). Se (x, y, z, w) ∈ K(T ) então
5
8
11
1
(x, y, z, w) = (− y, y, y, −2y) = y(−8, 5, 11, −10) . Potanto, K(T ) = [{e1 =
5
5
5
(−8, 5, 11, −10)}]. Ou seja K(T ) é o subespaço geado pelo vetor e1 e assim,
dim(K(T )) = 1.
(b) Vamos determinar um conjunto linearmente independente de geradores do subespaço Im(T ). Veja que
(2x − y + z − w; x − y + 3z + 2w; 2x − 3y + z − 2w; 3x − 2y + 4z + w) =
(2x, x, 2x, 3x) + (−y, −y, −3y, −2y) + (z, 3z, z, 4z) + (−w, 2w, −2w, w)
x(2, 1, 2, 3) + y(−1, −1, −3, −2) + z(1, 3, 1, 4) + w(−1, 2, −2, 1)
Então se f1 = (2, 1, 2, 3), f2 = (−1, −1, −3, −2), f3 = (1, 3, 1, 4) e f4 = (−1, 2, −2, 1),
o conjunto B0 = {f1 , f2 , f3 , f4 } gera o subespaço Im(T ). Mas B0 não é linearmente independente porque f4 = f1 + f2 . Como já sabemos o subespaço gerado pelos vetore de B0 e o subespaço gerado pelos vetores de B = {f1 , f2 , f3 }
são iguais. Mas B = {f1 , f2 , f3 } é linearmente independente e portanto, B é
5.2. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR
87
base de Im(T ). Veja que dim(Im(T )) = 3 e assim, pelo Teorema 5.1 dim V =
dim(K(T )) + dim(Im(T )) = 4 . Segue da Observação 5.1 que o Posto(T )=
Rank(T )= 3 e Nulidade( T ) = 1.
5.2
Matriz de uma Transformação Linear
Definição 5.5. Sejam (V, K), (W; K) espaços vetoriais, e T : V → W Transformação Linear de V em W. Consideremos os cojuntos E = {e1 , e2 , · · · , en } base
de V e F = {f1 , f2 , · · · , fm } base de W. Então se v ∈ V
(a) existem a11 , a21 , · · · , an1 ∈ K tais que T (e1 ) = a11 f1 + a21 f2 + · · · + am1 fn .
(b) existem a12 , a22 , · · · , an2 ∈ K tais que T (e2 ) = a12 f1 + a22 f2 + · · · + am2 fn .
..
..
..
..
..
..
.
.
.
.
.
.
..
.
(c) existem a1m , a2m , · · · , anm ∈ K tais que T (e2 ) = a1m f1 + a2m f2 + · · · + amn fn .
A matriz

a11 a12 · · ·

a
 21 a22 · · ·
[T ]F
E = 
am1 am2 · · ·

a1n
a2n 


amn
é denominada Matriz da Transformação Linear T nas bases E, F.
Exemplo 5.5. Sejam V = R3 W = R2 e T : V → W dada por T (x, y, z) = x+y; y +z).
Dê a matriz de T em relação às bases E = {e1 = (1, 0, 0), e2 = (0, 1, 0); e3 = (0, 0, 1)}
e F = {f1 = (1, 0), f2 = (0, 1)}.
Resolução Veja que
T (e1 ) = (0, 1) = f1 + 0f2 ,
T (e2 ) = (1, 1) = 0f1 + f2
T (e3 ) = (0, 1) = −f1 + f2 ,
Portanto segue da Definição 5.5 que
[
[T ]F
E
=
1 0 −1
0 1 −1
linear
]
Lema 5.4. Sejam (V, K) (W, K), T : V −→ W, E = {e1 , e2 , · · · , en } base de V e
F = {f1 , f2 , · · · fm } base de W. Então T (v) = [T ]F
E (v).
88
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
Prova Se v ∈ V então existem x1 , x2 , · · · xn ∈ K tais que v = x1 e1 + x2 e2 + · · · xn en
T (v) = T (x1 e1 + x2 e2 + · · · + xn en ) = x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en )
Def.5.5
=
x1 (a11 f1 + a21 f2 + · · · + am1 fm ) + x2 (a12 f1 + a22 f2 + · · · + am2 fm ) + · · · + xn (a1n f1 + a2n f2 + amn fm ) =
(a11 x1 + a12 x2 + · · · a1n xn )f1 + (a21 x1 + a22 x2 + · · · + a2n xn )f2 + (am1 x1 + am2 x2 + · · · + amn z)fm
Veja que os números a11 x1 + a12 x2 + · · · + a1n xn , a21 x1 + a22 x2 + · · · + a2n xn · · ·
am1 x1 + am2 x2 + · · · + amn xn são as coordenadas de T (v) na base F. Mas então T (v)
poder ser obtido usando estas coordenadas da seguinte forma

a11
 a21

T (v) = [T ]F
E (v) = 

am1
···
···
..
.
a1n
a2n
..
.
am2 · · ·
amn
a12
a22
..
.





x1
x2
..
.





xn
linear
Exemplo 5.6. Sejam V = R3 W = R5 , T : V −→ W, E = {e1 , e2 , e3 } base de V
e F = {f1 , f2 , f3 , f4 , f5 } base de W. Suponha que T (e1 ) = 2f1 − f2 + f3 − 2f4 − f5 ,
T (e2 ) = f1 − 2f2 + 2f3 − f4 − 2f5 , T (e3 ) = −f1 − 3f2 − f3 − f4 − 2f5 . Calcule T (x, y, z)
Resolução Seja v ∈ V dado por v = (x, y, z) isto é v = xe1 + ye2 + ze3 e
T (v) = xT (e1 ) + yT (e2 ) + T (e3 ) =
x(2f1 − f2 + f3 − 2f4 − f5 ) + y(f1 − 2f2 + 2f3 − f4 − 2f5 ) + z(−f1 − 3f2 − f3 − f4 − 2f5 )
(2x + y − z)f1 + (−x − 2y − 3z)f2 + (x + 2y − z)f3 + (−2x − y − z)f4 + (−x − y − 2z)f5
Assim, seguindo a prova do Lema 5.4



T (v) = T (x, y, z) = 



2
1 −1  
−1 −2 −3 
 x
 
1
2 −1 
 y .
−2 −1 −1  z
−1 −1 −2
Portanto, T (x, y, z) = (x + y − z; −x − 2y − 3z; z + 2y − z; −2x − y − z; −x − y − 2z).
lineares
Lema 5.5. Sejam (V, K) (W, K), finitamente gerados, T, S : V −→ W. Se E e F
forem bases de V e W respectivamente, então
F
F
(a) A Matriz de S + T relativa às bases E e F é tal que [S + T ]F
E = [S]E + [T ]E .
(b) Se Im(T ) ⊂ W, a Matriz de S ◦ T relativa às bases E e F é tal que [S ◦ T ]F
E =
F
F
[S]E · [T ]E .
5.2. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR
5.2.1
89
Tranformações Singulares e Não Singulares
linear
Definição 5.6. Sejam (V, K), (W, K) e T : V −→ W.
(a) Dizemos que T é Singular se Ker(T ) ̸= {⊙W }.
(b) Dizemos que T é Não-Singular se Ker(T ) = {⊙W }.
A Transformação Linear dada no Exemplo 5.4 é Singular porque dim(K(T )) = 1. Isto
nos diz que existe u0 ∈ V u0 ̸= ⊙V tal que T (u0 ) = ⊙W .
linear
Teorema 5.2. Sejam (V, K), (W, K), T : V −→ W e suponha que dim(V) = dim(W),
então são equvalentes
1. T é Não-Singular.
2. T é sobrejetora.
3. T é invertı́vel.
F
4. det([T ]F
E ) ̸= 0, onde [T ]E é a matriz de T em relação à E uma base de V e F uma base
de W.
5. Existe uma Transformação Linear S : W → V tal que T ◦ S(w) = w para todo w ∈ W
e S ◦ T (v) = v para todo v ∈ V.
linear
Exemplo 5.7. Sejam V = R2 = W, espaços vetoriais sobre K = R, T : V −→ W dada por,
T (x, y) = (4x − 2y; 2x + y). Tome as B base canônica em V. Dê a Matriz de T e verifique
se T é invertı́vel
Resolução Vemos que
[
[T ]BB
x
y
]
[
=
4 −2
2 1
][
x
y
]
.
Então
[
[T ]BB
=
4 −2
2 1
]
.
Como det([T ]BB ) = 8 ̸= 0, segue do Teorema 5.2 que [T ] é uma Transformação Linear N aoSingular, isto no diz que T tem inversa, e a matriz da Transformação Linear S : W → V é
dada por
[
]
1
1 2
B
[S]B =
= [[T ]BB ]−1 .
8 −2 4
e assim,
[
[S]BB
1
S(x, y) = (x + 2y; −2x + 4y).
8
x
y
]
1
=
8
[
1 2
−2 4
][
x
y
]
.
90
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
linear
Exemplo 5.8. Sejam V = Pn (R) = W, espaços vetoriais sobre K, T : V −→ W dada por ,
T (p(t)) = p′ (t).
1. Encontre a matriz de T em relação à base canônica de V.
2. Mostre que T é Singular.
Resolução Veja que a base canônica em V = W é o conjunto B = {en = tn , en−1 =
tn−1 , en−2 = tn−2 , · · · , e2 = t2 , e1 = t, e0 = 1}. Vamos segui as instruções do Exemplo 5.6.
T (en ) = T (tn ) = 0en + nen−1 + 0en−2 + · · · + 0e2 + 0e1 + 0e0 .
T (en−1 ) = T (tn−1 ) = (n − 1)tn−2 = 0en + 0en−1 + (n − 1)en−2 + · · · + 0e2 + 0e1 + 0e0 .
T (en−2 ) = T (tn−2 ) = (n − 2)tn−3 = 0en + 0en−1 + 0en−2 + (n − 2)en−3 + · · · + 0e2 + 0e1 + 0e0 .
..
.. ..
.. .. ..
..
.
. .
. . .
.
T (e2 ) = T (t2 ) = 2t = 0en + 0en−1 + 0en−2 + · · · + 0e2 + 2e1 + 0e0 .
T (e1 ) = T (t) = 1 = 0en + 0en−1 + 0en−2 + · · · + 0e2 + 0e1 + e0 .
T (e0 ) = T (1) = 0 = 0en + 0en−1 + 0en−2 + · · · + 0e2 + 0e1 + 0e0 .
Então, a Matriz e T é dada por


... 0 0 0
... 0 0 0 

... 0 0 0 

..
.. .. 
.
. .0 

... 0 2 0 

... 0 0 1 
... 0 0 0
0
0
0
..
.
n
0
0

0
n
−
1
0


0
0
n−2


.
.
..
B
..
..
[T ]B = 
.

 0 0
0
0

 0 0
0
0
0 0
0
0
Como det([T ]BB ) = 0, segue do Teorema 5.2 que [T ] é uma Transformação Linear Singular.
5.3
Autovalores e Autovetores
linear
Definição 5.7. Sejam (V, K), (W, K), T : V −→ W, denomina-se Autovalor
associado ao Autovetor v tal qua v ̸= ⊙V , qualquer λ ∈ K tal que T (v) = λv.
linear
de T
Exemplo 5.9. Sejam V = R2 = W, espaços vetoriais sobre K = R, T : V −→ W dada
por, T (x, y) = (4x − 2y; x + y). Tome as B base canônica em V. Dê os Autovalores e
Autovetores de T .
Resolução
1. Devemos encontrar todos os valores λ ∈ K tais que
[
[T ]BB
λx
λy
]
[
=
4 −2
1 1
][
λx
λy
]
[
=
1 0
0 1
][
λx
λy
]
.
5.3. AUTOVALORES E AUTOVETORES
91
Então devemos encontrar v ∈ V, v = (x, y) ̸= ⊙V
[
4 − λ −2
1
1−λ
Portanto,
][
x
y
]
[
=
0
0
]
.
(5.3.2)
( [ 4 − λ −2 ] )
det
= 0.
1
1−λ
e assim, p(λ) = (4 − λ)(1 − λ) + 2 = λ2 − 5λ + 6 = 0. As raı́zes deste polinômo são
λ0 = 2 e λ1 = 3. Os Autovalores de T são λ0 = 2 e λ1 = 3.
2. Cálculo dos autovetores Nós voltamos em 5.3.2, substituimos λ0 = 2 e procuramos
o vetor vλ0 = (m, n) que seja solução para o sistema homogêneo
[
4 − λ0
−2
1
1 − λ0
][
m
n
]
[
=
0
0
]
[
ou seja
2 −2
1 −1
][
m
n
]
[
=
0
0
]
.
Note que as duas equações do último sistema são proprocionais. Então, é suficiente
resolver apenas uma delas, ou seja m − n = 0 e assim, m = n. Logo vλ0 = (m, n) =
(m, m) = m(1, 1). O Autovetor associado a λ0 é dado por vλ0 = (1, 1).
Voltamos em 5.3.2, substituimos λ1 = 3 e procuramos o vetor vλ1 = (p, q) que seja
solução para o sistema homogêneo
[
4 − λ1
−2
1
1 − λ1
][
p
q
]
[
=
0
0
]
[
ou seja
1 −2
1 −2
][
p
q
]
[
=
0
0
]
.
Note que as duas equações do último sistema são iguais. Então, é suficiente resolver
apenas uma delas, ou seja p − 2q = 0 e assim, p = 2q. Logo vλ1 = (p, q) = (2q, q) =
q(2, 1). O Autovetor associado a λ1 é dado por vλ1 = (2, 1).
Conjunto de Autovalores {λ0 = 2; λ1 = 3}. Conjunto de Autovetores A = {vλ0 =
(1, 1); vλ1 = (2, 1)}. Veja que A é Linearmente independentes.
Definição 5.8. Dadas duas matrizes A e B, dizemos que a matriz A é semelhante a
matriz B se existir uma matriz Q com det(Q) ̸= 0 tal que
AQ = QB
ou A = QBQ−1 .
Exemplo 5.10. Se






0 0 0
1 0 −2
2 0
1
0 ,P =  0 1
0 ,
A =  0 0 0 ,B =  0 0
0 0 5
−2 0
4
1 0 −2
então,
(5.3.3)
92
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES

P −1

−2
0 −1
−1 
0 −5
0 .
=
5
−1
0
2
Ainda, podemos ver facilmente que A = P BP −1 .
Definição 5.9. Seja A uma matriz quadrada e λ0 um número complexo. Um vetor
não nulo v ∈ Rn tal que Av = λv é denominado auto vetor de A associado a λ.
• Suponhamos que λ ∈ C é um auto valor da matriz A e que a ele está associado um
auto vetor v. Então Av = λv, ou seja existe um vetor v não nulo tal que (A−λI)v = 0.
Portanto, as coordenadas de v é uma solução para um sistema linear homogêneo. Isto
implica que det(A − λI) = 0.
Definição 5.10. Seja A uma matriz quadrada. O polinômio caracterı́stico de A é o
polinômio p(λ) = det(A − λI).
Exemplo 5.11. Considere a matriz

a b c
A =  b a c .
b c a

(5.3.4)
Os auto valores de A são dados por λ0 = a − b, λ1 = a − c, e λ2 = a − b − c. Se b ̸= 0
( a + b c2 − b2 )
e b ̸= c o autovetor de A associado à λ0 é vλ0 = −
;
;1
b b(c − b)
• Cálculo dos autovalores.



z b c
a−λ
b
c
 z=a−λ
a−λ
c
= det  b z c  = (z − b)(z − c)(z + b + c).
det  b
c
b
a−λ=
c b z

Portanto, λ0 = a − b, λ1 = a − c, e λ2 = a − b − c.
• Cálculo dos autovetores.
(a) Se λ0 = a − b, vλ0 é calculado apresentando o conjunto solução S0 para o sistema

   
b b c
x
0
 b b c  y  =  0 .
c b b
z
0
b
y}. PorVemos facilmente que S0 = {(x, y, z) ∈ R2 , tais que x = z = −
b+c
tanto,
(
b+c )
,1 .
vλ0 = 1, −
b
5.3. AUTOVALORES E AUTOVETORES
93
(b) Se λ1 = a − c, vλ1 é calculado apresentando o conjunto solução S1 para o sistema

   
c b c
x
0
 b c c  y  =  0 .
c b c
z
0
b+c
Vemos facilmente que S1 = {(x, y, z) ∈ R2 , tais que x = y = −
z}. Porb
tanto,
(
b + c)
vλ0 = 1, 1, −
.
c
(c) Se λ2 = a − c − b, vλ2 é calculado apresentando o conjunto solução S2 para o
sistema

   
b+c
b
c
x
0
 b




b+c
c
y = 0 .
c
b
b+c
z
0
Vemos facilmente que S2 = {(x, y, z) ∈ R2 , tais que x = −y = z}. Portanto,
(
)
vλ0 = 1, −1, 1 .
Exemplo 5.12. Consideremos T : C3 → C3 , com K = C, Transformação Linear tal
que a matriz de T seja dada por


−3 0 0
A =  0 3 −2 
0 1 1
Calcule os autovalores e autovetores de T
⋄ Cálculo dos Autovalores
Seja


−3 − λ
0
0
0
3 − λ −2 
A − λI = 
0
1
1−λ
(5.3.5)
Temos que
det(A − λI) = (−3 − λ)(3 − λ)(1 − λ) + 2(−3 − λ) = −λ3 + λ2 + 7λ − 15
Assim, igualando (5.3.6) a zero obtemos os seguintes autovalores de A
λ1 = −3, λ2 = 2 + i e λ3 = 2 − i
⋄ Cálculo dos Autovetores
Calcularemos (A − λi I)(⃗vλi ) = 0, onde i ∈ {1, 2, 3} e ⃗vλi ∈ R3
(5.3.6)
94
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
• Autovetor de A correspondente a λ1 = −3:
(A − λI)⃗vλ1 = 0, onde ⃗vλ1 = (x, y, z) um vetor no nulo qualquer ∈ R3 toma a
seguinte forma matricial

   
−3 − λ1
0
0
x
0

0
3 − λ1
−2   y  =  0 
0
1
1 − λ1
z
0
Substituindo λ1 = −3 obtemos

   
0 0 0
x
0
 0 6 −2   y  =  0 
0 1 4
z
0
(5.3.7)
Resolvendo o sistema linear (5.3.7) obtemos o seguinte conjunto soluo
S1 = {x(1, 0, 0) tal que x ∈ R}
ou seja,
S1 = (1, 0, 0) + i(0, 0, 0) = u1 + iv1
Logo,
⃗vλ1 = (1, 0, 0)
• Autovetor de A correspondente a λ2 = 2 + i:
O processo similar ao anterior, portanto alguns passos sero ocultos. Assim,
substituindo λ2 em (5.3.5) obtemos

[A − (2 + i)I]⃗vλ2
   
−5 − i
0
0
x
0





0
1−i
−2
y = 0 
=
0
1
−1 − i
z
0
(5.3.8)
Resolvendo o sistema linear (5.3.8) obtemos que x = 0 e y = (1 + i)z, ento
S2 = {z(0, (1 + i), 1) tal que z ∈ R}
ou seja,
S2 = (0, 1, 1) + i(0, 1, 0) = u2 + iv2
Logo
⃗vλ2 = (0, 1 + i, 1)
• Autovetor de A correspondente a λ3 = 2 − i :
Por λ3 ser o conjugado de λ2 , podemos concluir que
S3 = {z(0, (1 − i), 1) tal que z ∈ R}
ou seja,
S3 = (0, 1, 1) − i(0, 1, 0) = u3 + iv3
Logo
⃗vλ3 = (0, 1 − i, 1)
5.3. AUTOVALORES E AUTOVETORES
95
O conjunto de auvalores {λ1 = −3; λ2 = 2 + i; λ3 = 2 − i}. O conjunto de auvetores
A = {vλ1 = (1, 0, 0); vλ3 = (0, 1 + i, 1); vλ3 = (0, 1 − i, 1)}. Veja o conjunto A é
Linearmente Independentes.
Observação 5.2. Veja que no Exemplo 5.12 o fato de encontarmos autovalores com parte
imaginária não nula fez-nos escolher K = C e o fato de encontrarmos autovetores com parte
imaginária n ao nula nos fez escolher V = W = C.
EXERCÍCIOS
1. Seja V = R3 , W = R, K = R e T0 (x, y, z) = x − 3y + z, T1 (x, y, z) = 2x − y + z.
a) Calcule bases para Ker(Ti ), Im(Ti ) para ı ∈ {0, 1}.
b) Qual a dim(Ker(Ti )) e dim(Im(Ti )) para ı ∈ {0, 1}.
c) Calcule uma base para Ker(T ), e Im(T )) se T (x, y, z) = (2x − 3y + 4z, 5x − y +
2z, 4x + 7y). Como T : R3 → R3 verifique se R3 = Ker(T ) ⊕ Im(T )).
2. Calcule os autovalores e autovetores da trnasformação linear cuja matriz è dada por
[
M=
1 4
2 3
]
Seja P a matriz cujas colunas são formada pelos autovetores de T . Calcule P −1 e
P −1 AP . Resp λ0 = −1, λ1 = 5, vλ0 = (1, 1), vλ1 = (2, −1),
[
]
1 1
P =
.
2 −1
3. Para cada uma da seguintes transformações lineares T : R2 → R2 encontre os autovalores e autovetores
a) T (x, y) = (3x + 3y; x + 5y).
b) T (x, y) = (y; x).
Seja P a matriz cujas colunas são formada pelos autovetores de T . Calcule P −1 e
P −1 AP .
4. Para cada uma da seguintes transformações lineares T : R3 → R3 encontre os autovalores e autovetores
a) T (x, y, z) = (x + y + z; 2y + z; 2y + 3z).
b) T (x, y) = (x + y; y + x; −2y − z).
Seja P a matriz cujas colunas são formada pelos autovetores de T . Calcule P −1 e
P −1 AP .
96
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
5. Calcule os autovalores e autovetores da trnasformação linear cuja matriz è dada por
[
M=
1 −1
2 −1
]
.
Seja P a matriz cujas colunas são formada pelos autovetore de T . Calcule P −1 e
P −1 AP .
6. Encontre a representação matricial de cada uma das Tansformações Lineares abaixo:
a) T (x, y, z) = (2x − 3y + 4z, 5x − y + 2z, 4x + 7y).
b) T (x, y, z) = (2y + z, x − 4z, −3x). Calcule os autovalores e autovetores de T
c) T (x, y, z) = (2y + z, x − 4z, 3x). Calcule os autovalores e autovetores de T .
d) Calcule os autovalores e autovetores Transformação Linear cuja matriz é dada por


1 0 −1
1 .
A= 1 2
2 2
3
e) Considere o conjunto de todos os valores π = {(a, b, c) ∈ R3 , tais que −a+b−1 =
0}. Calcule os autovalores e autovetores Transformação Linear cuja matriz é dada
por


a 0 −1
1 .
A= 1 b
2 2
c
7. Seja


1 −3 3
A =  3 −5 3  .
−6 −6 4
Mostre que o polinômio caracterı́stico de A é p(λ) = (λ + 2)2 (λ − 4). Calcule os
autovetores de A. Rep. vλ0 =−2 = (1, 1, 0), vλ∗0 =−2 = (1, 0, −1) e vλ0 =4 = (1, 1, 2). Seja
P a matriz cujas colunas são formadas pelos autovetores de A.


1 1
0
P =  1 0 −1  . Calcule P −1 e P −1 AP.
1 1
2
5.3. AUTOVALORES E AUTOVETORES
5.3.1
97
Semelhança de Matrizes
Definição 5.11. Sejam An×n e Bn×n matrizes. Dizemos que A e B são Semelhantes se
existir uma matriz Pn×n invertı́vel tal que B = P −1 AP .
Exemplo 5.13. Sejam
[
M=
4 −2
1 1
]
[
,
2 0
0 3
N=
]
.
Mostre que M e N são semelhantes.
Resolução Não faremos muito esforço. No Exemplo 5.9 calculamos os autovlores e
autovetores da matriz M , vimos que conjunto de Autovalores de M é {λ0 = 2; λ1 = 3} e
conjunto de Autovetores de M é A = {vλ0 = (1, 1); vλ1 = (2, 1)}. Com os Autovetores
de M , temos a matriz P cujas colunas são formadas pelos vetores vλ0 e vλ1
[
]
1 2
P =
,
1 1
e sua inversa os dada por
[
P
−1
=
−1
2
1 −1
]
,
Agora é fácil verificar que
[
P
−1
MP =
2 0
0 3
]
= N.
Segue da definição 5.11 que M e N são matrizes Semelhantes.
Lema 5.6. Considere m, n, p, q números reais tais que ∆ = (m + q)2 − 4(mq − np) < 0 e a
matriz
)
(
m n
A=
.
(5.3.9)
p q
Mostre que existe uma matriz Q invertı́vel tal que
(
−1
Q AQ =
a b
−b a
Demonstração
)
m+q
e b=
, onde a =
2
√
4(mq − np) − (m + q)2
.
2
(5.3.10)
O Polinômio caractrı́stico de A é dado por
p(λ) = λ2 − (m + q)λ + mq − np.
(5.3.11)
cujas raı́zes são dadas por
λ0 =
m+q−
√
√
4(mq − np) − (m + q)2
m + q + 4(mq − np) − (m + q)2
, e λ1 =
.
2
2
(5.3.12)
98
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
Agora, devemos calcular os autovetores associados a cada um dos autovalores λ0 e λ1 dados
em (5.3.12). Suponhamos que vλ0 = (v1 , v1 ) e vλ1 = (u1 , u1 ). Então (v1 , v1 ) e (u1 , u1 ) são
soluções dos respectivos sistemas lineares homogêneos com coeficientes complexos
{
{
(m − λ0 )x + ny = 0
(m − λ1 )x + ny = 0
e
(5.3.13)
px + (q − λ0 )y = 0
px + (q − λ1 )y = 0.
Para resolver os dois sistemas, multiplicamos a primeira equação de cada um deles por
p e as segundas equações −(m − λ0 ) e −(m − λ1 ) respectivamente. Para ver que, em
ambos os sistemas, é suficiente resolver apenas a primeira equação, é necessário ver que
λ20 − (m + q)λ0 + mqλ0 = np e também λ21 − (m + q)λ1 + mqλ1 = np. Isto segue do fato
que λ0 e λ1 são raı́zes de p(λ) que está em (5.3.11). Então tomando v1 = n = u1 teremos
vλ0 = (n, λ0 − m) = (n, a − m) + i(0, b), e vλ1 = (n, λ1 − m) = (n, a − m) − i(0, b). A matriz
dos autovetores é dada por
(
)
(
)
1
n
0
b
0
−1
Q=
e Q =
.
(5.3.14)
m−a b
nb a − m n
Então,
(
−1
QAQ
=
k11 k12
k21 k22
)
(5.3.15)
Queremos, para i, j ∈ {1, 2}, determinar kji em função de a, b, c e d. Mas, k11 = bnm+bn(a−
m), k12 = b2 n, k21 = n[np + m(m − a)] + n[m − a + q](a − m) e k22 = bn(m − a + q). Agora, é
m q
m q
fácil ver que k11 = a, k12 = b, e k22 = a porque m − a + q = m − − + q = + + = a.
2
2
2
2
Finalmente, resta ver que k21 = −b. Mas,
k21 =
1
1
{n[np + m(m − a) + (m − a)(a − m) + q(a − m)]} = {np + (m − a)(a − q)},
bn
b
mas, m − a =
m−q
= a − q. Então
2
1
(m − q)2
1
1
k21 = {np +
} = {4np + (m − q)2 } = {4np + 2mq − 2mq + (m − q)2 }
b
4
4b
4b
√
√
4(mq − np) − (m − q)2
1 4(mq − np) − (m − q)2 4(mq − np) − (m − q)2
=
=−
= −b.
4b
b
2
2
linear
Teorema 5.3. Dado V espaço vetorial finitamente gerado e T : V → V. Sejam v1 , v2 , · · · , vn
são autovetores de T associados aos autovalores λ1 , λ2 , · · · , λn de T , respectivamente. Se os
autovalores forem dois a dois distinitos, então o conjunto S = {v1 , v2 , · · · , vn } é Linearmente
Independente.
Prova A prova será feita por indução.
5.3. AUTOVALORES E AUTOVETORES
99
1. Se n = 1, então tem um único elemento (S = {v1 } ), e pela Definição 5.7 v1 ̸= ⊙,
assim S é Linearmente Independente.
2. Sopunhamos que v1 , v2 , · · · , vn−1 sejam autovetores de T associados aos autovalores
λ1 , λ2 , · · · , λn−1 de T , respectivamente e que S0 = {v1 , v2 , · · · , vn−1 } seja Linearmente
Independente. Queremos determinar todos os α1 , α2 , · · · , αn ∈ K tais que
α1 v1 + α2 v2 + · · · + αn vn = ⊙.
(5.3.16)
Aplicamos T em ambos os membros de (5.3.16) e obtemos
T (α1 v1 + α2 v2 + · · · + αn vn ) = T (⊙) = ⊙.
ou seja
α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )) = ⊙.
Como T (vi ) = Λi vi ,
α1 λ1 v1 + α2 λ2 v2 + · · · + αn λn vn = ⊙.
(5.3.17)
Multiplicando (5.3.16) por λn teremos
λn α1 v1 + λn α2 v2 + · · · + λn αn vn = ⊙.
(5.3.18)
Subtraindo (5.3.18) de (5.3.17)teremos
α1 (λ1 − λn )v1 + α2 (λ2 − λn )v2 + · · · + αn−1 (λn−1 − λn−1 )vn = ⊙.
(5.3.19)
Como S0 é Linearmente Independente e λi ̸= λn para i ∈ {1, 2, · · · , n − 1}, α1 = α2 =
· · · αn−1 = 0. Votando em (5.3.16) vemos que αn v= ⊙. Da Definição 5.7 v1 ̸= ⊙, então
αn = 0. Portanto, α1 = 0, α2 = 0, · · · , αn = 0.
linear
Observação 5.3. Se no Teorema 5.3 V é tal que dim(V) = n, os autovetores de T : V → V
formam o conjunto S = {v1 , v2 , · · · , vn } que tem n vetores e é Linearmente Independente.
Então,
1. S é base de V.
2. Se para cada i ∈ {1, 2, · · · , n}, Wi o subespaço de V gerado pelo autovetor vi (Wi =
[vi ]), Wi é denominado Autoespaço de T asociado ao autovetor vi .
3. V = W1 ⊕ W2 ⊕ · · · ⊕ Wn .
100
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
4. A matriz de T relativa à base S é dada por




S
[T ]S = 


λ1 0 0 . . .
0 λ2 0 . . .
0 0 λ3 . . .
..
..
..
..
.
.
.
.
0 0 0 0

0
0
0
..
.



.


(5.3.20)
λn
5. Se B = {u1 , u2 , · · · , un } for uma base de V, M = [T ]BB for a matriz de T relativa á
base B. Suponhamos que v1 , v2 , · · · , vn ∈ S são os autovetores de M . Seja P a matriz
cujas colunas são formadas pelos autovetores de M ou equivalentemente de T . Então
det(P ) ̸= 0 e




−1
P MP = 


Exemplo 5.14. Seja
λ1 0 0 . . .
0 λ2 0 . . .
0 0 λ3 . . .
..
..
..
..
.
.
.
.
0 0 0 0
0
0
0
..
.




.


(5.3.21)
λn


4 1 −1
M =  2 5 −2 
1 1
2
(5.3.22)
1. Calcule os autovalores e autovetores de M .
2. Calcule P e P −1 onde P é a matriz cujas colunas são formadas pelos autovetores de
M.
3. Mostre que se λ1 , λ2 e λ3 forem os autovetores de M ,


λ1 0 0
P −1 M P =  0 λ2 0 
0 0 λ3
Resolução O polinômio caratrı́stico de M é dado por


4−λ
1
−1
5 − λ −2  = λ3 − 11λ2 + 39λ − 45 = (λ − 3)2 (λ − 5).
p(λ) = det  2
1
1
2−λ
Os autovetores de M associado a λ1 = λ3 = 3 são vλ1 = (1, −1, 0) e vλ2 = (1, 0, 1). O
autovetor de M associado a λ2 = 5 é vλ3 = (1, 2, 1). A matriz
5.3. AUTOVALORES E AUTOVETORES
101






1 1 1
−2
0
2
3 0 0
1
1 −3  e P −1 M P =  0 3 0 
P =  −1 0 2  , P −1 = −  1
2
0 1 1
−1 −1
1
0 0 5
EXERCÍCIOS
1. Seja
(
3 2
2 3
M=
)
(5.3.23)
a) Calcule os autovalores e autovetores de M .
b) Calcule P e P −1 onde P é a matriz cujas colunas são formadas pelos autovetores
de M .
c) Mostre que se λ1 e λ2 forem os autovetores de M ,
(
P
−1
MP =
λ1 0
0 λ2
(
)
2. Seja
M=
1 −1
2 −1
)
.
(5.3.24)
a) Calcule os autovalores e autovetores de M .
b) Calcule P e P −1 onde P é a matriz cujas colunas são formadas pelos autovetores
de M .
c) Mostre que se λ1 e λ2 forem os autovetores de M ,
(
P
−1
MP =
λ1 0
0 λ2
)
.
3. Seja T : R3 → R3 dado por T (x, y, z) = (x − 3y + 3z; 3x − 5y + 3z; 6x − 6y + 4z). Se
M é a matriz de T ,
a) Calcule os autovalores e autovetores de M .
b) Calcule P e P −1 onde P é a matriz cujas colunas são formadas pelos autovetores de
M.
102
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
c) Mostre que se λ1 , λ2 e λ3 forem os autovetores de M ,


λ1 0 0
P −1 M P =  0 λ2 0  .
0 0 λ3
4. Seja T : R3 → R3 dado por T (x, y, z) = (0x + 7y − 6z; −x + 4y; 0x + 2y − 2z). Se M é
a matriz de T ,
a) Calcule os autovalores e autovetores de M .
b) Calcule P e P −1 onde P é a matriz cujas colunas são formadas pelos autovetores de
M.
c) Mostre que se λ1 , λ2 e λ3 forem os autovetores de M ,


(
)
λ1 0 0
9 5 4
P −1 M P =  0 λ2 0  . Resp. P = 3 1 2 . λ1 = 1, λ2 = −1, λ3 = 2.
2 2 1
0 0 λ3
5. Se a matriz M for dada por


α β γ
M =  m q n .
a b c
a) Mostre que se T r(M ) = α + q + w então
( α β )
( α γ )
( q n )]
p(λ) = −λ +T r(M )λ − det
+det
+det
λ+det(M ).
m q
a c
b c
3
2
[
b) Mostre que se tomarmos m = 0 = u e det(M − λI) = p(λ), então
p(λ) = (α − λ)[λ2 − (w + q)λ + qw − vn]
e que resolvermos p(λ) = 0, teremos ∆ = (w + q)2 − 4(qw − vn).
c) Escolha w = 1, q = 2, v = 2, n = 3 e α = −2.
linear
• Calcule os autovalores os autovetores de T : R3 → R3 cuja matriz de T é M .
• Calcule a P matriz dos auvetores de T e verifique se P tem inversa.
• Calcule P −1 e P −1 M P .
6. Seja T : R3 → R3 dado por T (x, y, z) = (x + 4y − 3z; 0x + 3y + z; 0x + 2y − z). Se M
é a matriz de T ,
5.3. AUTOVALORES E AUTOVETORES
103
a) Calcule os autovalores e autovetores de M .
b) Calcule P e P −1 onde P é a matriz cujas colunas são formadas pelos autovetores de
M.
c) Mostre que se λ1 , λ2 e λ3 forem os autovetores de M ,


λ1 0 0
P −1 M P =  0 λ2 0  .
0 0 λ3
7. Sejam a, b, c ∈ R e


a b c
M = b a c 
b c a
(5.3.25)
(a) Mostre que λ0 = a − b é um dos autovalores de M .
(b) Calcule os outros autovalores.
(c) Calcule os autovetoes asscoado a cada um dos autovalores.
8. Sejam a, b, c ∈ R e

a
 b
M =
 b
b
b
a
c
c
c
c
a
d

d
d 

d 
a
(a) Mostre que λ0 = a − b, λ0 = a − c e λ0 = a − d são autovalores de M .
(b) Calcule o outro autovalores.
(c) Calcule os autovetoes asscoado a cada um dos autovalores.
(5.3.26)
104
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES
Referências Bibliográficas
[1] David, P.; Álgebra Linear; Thombson, SÃO PAULO; 2004.
[2] Lipchutz, S.; Álgebra Linear; Coleção Schaum- McGraw-Hill, SÃO
PAULO (1972).
[3] Lipchutz, S.; Álgebra Linear Teoria e Problemas; Coleção SchaumPearson-Maakron Books, 3a ed. SÃO PAULO (1994).
[4] Callioli, C. A.; Domingues, H. H.; Costa, R. C. F.; Álgebra Linear e
Aplicações ; 6a ed. Atual Editora , SÃO PAULO (1990). 5825
[5] Lourenço, M. L.; Coelho, F. U.; Um Curso de Álgebra Linear e Aplicações
; 1a ed.Edusp , SÃO PAULO (2005).
105
Download