Matrizes e Algebra Linear vs 4

Propaganda
Álgebra Linear
Leis de uma Álgebra:
Uma lei interna T associa dois elementos x e y de um conjunto A à um terceiro elemento z  A . Por
exemplo: x  y  z onde a lei interna é a adição  , ou x y  z , onde a lei interna é a multiplicação  . Na
nossa notação se afirma que xT y  z  x  y  z ou xT y  z  x y  z .
A lei será associativa se:  xT y  T z  xT  yT z  e será comutativa se xT y  y T x .
O elemento a  A será REGULAR se xT a  y T a  x  y e aT x  aT y  x  y . O elemento
e  A será unitário sobre a lei T se xT e  eT x  x .
O elemento x  A possui elemento inverso x sobre a lei T se x  A / xT x  x T x  e .
Teorema: se uma lei T possui elemento unitário, é associativa e x  A possui inversa, então a inversa é única
e x é regular.
Provar por absurdo: supor que  x  x inversos de x .
Nesse caso: xT x  e e xT x  e além disso x T  xT x  x T e  x . Agora, como T é associativo então
x T  xT x   x T x  T x  eT x  x o que implica que x  x em contradição com x  x . Logo a
inversa é única.
Falta a regularidade: Seja a  xT y e b  x T z . Queremos mostrar que se a  b então y  z . Aplicando a
inversa de x de ambos os lados temos que x T  xT y   xT  xT z  e usando a associatividade
 xT x T y   xT x T z
logo eT y  eT z e, finalmente y  z C.Q.D.
Álgebra com duas Leis. Vamos chamar a lei T de lei 1 e uma outra lei 2 de  . A lei  será distributiva frente
à lei T se  xT y   z   x  z  T  y  z  ou z   xT y    z  x  T  z  y  para  x, y, z  A . Exemplo:
mostrar que a multiplicação é distributiva frente à adição mas o inverso não é verdade.  x  y  z  x z  y z
logo a mulitplicação é distributiva. Entretanto x y  z   x  z  y  z  .
GRUPO. Um conjunto G é um grupo se  uma lei interna T com as seguintes propriedades:
1. T é associativa
2. T admite elemento unitário e
3.  x  G admite inversa x  G
Se, além da propriedade associativa, T for comutativa, o grupo é chamado de Abeliano.
CAMPOS. Seja G um grupo Abeliano de T com uma segunda lei  associativa e distributiva frente à T . Seja
e o elemento unitário de G e G* , onde G* é o conjunto de todos os elementos de G exceto e . Se  é uma
lei de grupo para G * então G é um campo.
Exemplo: vamos considerar as leis  e  para o conjunto dos números reais.
Primeira lei  :
 x  y  z  x   y  z
associativa
x  y  y  x comutativa
x  e  e  x  x então e  0 é o elemento unitário da adição.
Inversa x    x   e e  x é a inversa de x . Note que se o conjunto fosse o dos naturais não haveria inversa
pois ele não inclui números negativos. Então
 G e G*  x  / x  0 .
Agora vamos analisar o comportamento da multiplicação frente ao G * .
 x y  z  x  y z  associativa
x y  y x comutativa
 x  y z  x z  y z
distributiva frente à adição
x e  e x  x então e  1 é o elemento unitário da multiplicação. Logo a inversa será dada por x x  1 , ou
1
seja, x  . Note que sem a exclusão do zero teríamos problema com a inversa do elemento unitário da
x
1
adição pois 0  .
0
Então
é um CAMPO frente à adição e multiplicação. Note a necessidade de ampliar os conjuntos para a
obtenção de grupos e campos. Partindo dos naturais
e da operação  foi necessário incluir os números
negativos para a existência da inversa, chegando ao conjunto .
Já para a operação multiplicação foi-se obrigado a inlcuir o conjunto dos racionais
para admitir inversas
1
. Além disso, para admitir operações como x x  y com x  G e y  G percebe-se a necessidade de
x
inclusão dos irracionais e dos imaginários, caso y  0 .
x 
Matrizes
Uma matriz é uma tabela com m linhas e n colunas em que cada elemento é identificado pelos índices da
linha e da coluna. Assim o elemento aij é encontrado no cruzamento da linha i com a coluna j , ou seja, o
primeiro índice se refere à linha e o segundo à coluna.
coluna  1
2
3
n
linha 



a13
a1n 

a2 n 
a3n 


amn 

1   a11 a12

2   a21 a22
3   a31 a32


m   am1 am 2
a23
a33
am3
Note que quando denotamos uma matriz Amn temos um bloco com n  m números. Uma analogia é com
um circuito integrado, composto de milhões de elementos individuais. Outra analogia seriam as rotinas dos
softwares que podem ser utilizadas como blocos individuais. Se existe uma álgebra para lidar com os blocos
sem muita necessidade de descer ao nível dos elementos individuais, isso representa uma enorme economia
de esforço intelectual. Assim, se for possível simplificar todo um conjunto de operação com matrizes apenas no
nível mais alto, mais abstrato, o trabalho se torna muito mais produtivo. Por isso a álgebra de matrizes é uma
ferramenta matemática das mais poderosas.
Exemplo: matriz Insumo-Produto. Para produzir
ai1, ai 2 ,
, ain
unidades dos insumos 1, 2,
qi unidades
do produto
é necessário usar
, n . Nesse exemplo podemos escrever a matriz na forma:
Insumo 
I1
I2
I3
produto 




a13
a1n 

a2 n 
a3n 


amn 
produto1   a11 a12

produto2   a21 a22
produto3   a31 a32


produtom   am1 am 2
i
a23
a33
am 3
I n produto

 q1 
q 
 2
 q3 
 
 
 qm 
Vamos formalizar uma “ÁLGEBRA” de matrizes.
Dimensão: uma matriz de dimensão
m n
[m por n] possui m linhas e n colunas. O elemento
Aij
está no
encontro da iésima linha com a jésima coluna.
Matriz NULA: Omn / Oij  0  i, j , ou seja, todos os elementos são nulos.
Matriz COLUNA:
Cm1 tem apenas uma coluna e m linhas
Matriz LINHA: L1n tem apenas uma linha e n colunas.
Matriz QUADRADA: se n  m , A é uma matriz quadrada
Função Delta de Kronecker:  ij
Amm de ordem m.
1 se i  j

0 se i  j
Matrizes quadradas especiais:
1. DIAGONAL: Dij  0
se i  j , já Dii pode tomar qualquer valor. Em termos da Delta de Kronecker
pode ser escrita como: Dij  di  ij onde d i é o elemento da diagonal i . A  ij garante que todos os
elementos fora da diagonal serão nulos.
 n
2. IDENTIDADE: Matriz diagonal na qual Iij   ij , onde n denota a ordem da matriz quadrada. Ou
seja, é uma matriz com todos os elementos da diagonal iguais a UM e todos os elementos fora da
diagonal iguais a ZERO.
3. Matriz TRIANGULAR SUPERIOR:
ij  0 se i  j ,
ou seja, todos os elementos abaixo da
diagonal são NULOS.
4. Matriz TRIANGULAR INFERIOR:
ij  0 se i  j , ou seja, todos os elementos acima da diagonal
são NULOS.
5. Matriz SIMÉTRICA:
6.
Sij  S ji
Matriz ANTISIMÉTRICA: Aij   A ji
Note que matrizes representam um conjunto de números, logo é preciso definir as operações sobre esse
conjunto.
Operação IGUALDADE:
A  B se, e somente se, Aij  Bij ij .
Os
da
elementos
Aii   Aii
diagonal
 2 Aii  0 
de
Aii  0 .
uma
matriz
antisimétrica
Operação ADIÇÃO: essa operação sobre ser efetuada sobre matrizes de mesma dimensões,
é definida como
 A  B ij  Aij  Bij .
são
Amn
nulos:
e
Bmn , e
Operação SUBTRAÇÃO: é a inversa da ADIÇÃO.
 A  B ij  Aij  Bij
Propriedades da operação ADIÇÃO de matrizes:
a.
A  B  B  A pois Aij  Bij  Bij  Aij
b.
A   B  C    A  B  C
c.
A  O  A , a matriz nula é o elemento unitário da operação adição de matrizes.
pois
Operação multiplicação por um escalar:
multiplicados pelo escalar (número)
ou seja é comutativa frente à adição.

 

Aij  Bij  Cij  Aij  Bij  Cij , ou seja, é distributiva.
 aAij  aAij ,
ou seja, todos os elementos da matriz são
a.
Propriedades da operação multiplicação por escalar:
1.
2.
3.
4.
k  A  B   kA  kB distributiva
 k1  k2  A  k1 A  k2 A
0A  O é uma matriz nula
k1  k2 A   k1k2  A
Operação TRANSPOSTA é denotada por
A  A , e é definida por Aij  Aji . Ou seja, essa operação troca
A B
linhas por colunas. Gosto da notação
A
teria que usar parênteses na notação
A , ou seja,  A  B  . Além disso a aplicação da operação transposta
porque podemos usá-la facilmente em equações como
duas vezes pode ser escrita como A e na outra como A . Matriz simétrica tem a propriedade:
que nesse caso a matriz S é obrigatoriamente quadrada.
S  S . Note
Propriedades da operação Transposta:
1.
2.
3.
 Aij  Aji  Aij .
A  B  A  B , pois  A  B    A  B  ji  A ji  B ji   A   B    A  B  .
ij
ij
ij
ij
A  A , pois Aij  A ji
kA  k A
 ij  S ji  Sij
Se A é antisimétrica então A   A , pois  A   A ji   Aij
ij
4. Se
5.
logo
S
é simétrica então
S  S , pois S
que
BBS
6.
é simétrica.
 B  B  B  B  B  B  B  B ,
simétrica.
BB A
7.
é
logo
 B  B   B  B
 B  B  B  B  B  B   B  B ,
antisimétrica.
 B  B     B  B  é antisimétrica.
é
logo
8. Toda matriz quadrada pode ser decomposta em uma matriz simétrica e uma antisimétrica. Prova:

 
1
1
1
1
1
1
1
1
M  M  M  M  M  M  M  M M  M M
2
2
2
2
2
2
2
2
1
1
M  S  A onde S  M  M e A  M  M
2
2
Prova:




logo

Operação MULTIPLICAÇÃO de matrizes:
Motivação. Suponha uma matriz que fornece as quantidades de vitaminas A, B e C nos alimentos I e II, do tipo:
vitamina
A B C
  
alimento I 
alimento II 
 4 3 0
5 0 1


Quanto existe de cada vitamina em um prato com 5 unidades do alimento I e 2 do alimento II?
5
 4 3 0
2 
   5  4  2  5 5  3  2  0 5  0  2  1   30 15 2  .
5 0 1
Note
que
multiplicamos linha por coluna para obter a quantidade de cada uma das vitaminas em um prato combinando
diferentes alimentos.
Só podemos, então, multiplicar duas matrizes A e B se o número de colunas de A for igual ao número de
linhas de B . A operação MULTIPLICAÇÃO entre uma matriz de ordem m  n e outra de ordem n  p é
n
definida por
( AB)ij   Aik Bkj , resultando em uma matriz de ordem m  p . Note que o índice repetido
k 1
da primeira matriz é o segundo, da coluna, e da segunda é o primeiro, o da linha. A regra para saber a
dimensão da matriz multiplicação é cancelar a dimensão repetida, ou seja: Amn Bn p  Cm p , ou seja, o n
repetido desapareceu.
Propriedades da operação MULTIPLICAÇÃO de matrizes:
a. Em geral
operação
AB  BA , ou seja, a operação multiplicação não comuta. Existem que casos em que a
AB está definida mas a operação BA não. Exemplo: Amn Bn p está definida pois o
A é igual ao de linhas de B , mas a operação Bn p Amn não se p  m .
Para que as duas operações AB e BA sejam definidas é necessário que se A é m  n então B é
número
n
de colunas de
n  m.
Mesmo nesse caso os produtos Amn Bnm  Cmm e Bnm Amn  Dnn , sequer
possuem a mesma dimensão., logo não podem ser iguais. Se m  n então as duas matrizes terão as
mesmas dimensões, mas ainda assim os produtos AB e BA , genericamente, são diferentes. Podem
ser iguais apenas em certas condições especiais. Note a diferença entre os dois produtos:
 AB ij   Aik Bkj e  BAij   Akj Bik
k
k
Propriedades da operação MULTIPLICAÇÃO.
1. Na álgebra de números reais sabemos que se ab  0 , então a  0 , ou
b  0 . No entanto no produto de matrizes é possível que AB  O e
exemplo:
 1 1 1 
A   3 2 1  O
 2 1 0 


e
 1 2 3
B   2 4 6   O
 1 2 3


b  0 , ou ainda a  0 e
A  O e B  O . Veja o
então:
2  4 1
3  6  3  0 0 0
 1 2 1

AB   3  4  1 6  8  2 9  12  3    0 0 0  .
 2  2
4  4
6  6   0 0 0 

2. Multiplicação pela matriz identidade: AI  IA  A , ou seja, a matriz identidade é o elemento
unitário
frente
à
operação
multiplicação
de
matrizes.
Prova:
 AI ij   Aik I kj   Aik kj  Aij   Aij ,
k
k
k
k
AI  A .
logo
Por
 IAij   Iik Akj  ik Akj  Aij   Aij , logo IA  A .
3.
4.
A B  C   AB  AC
 A  B  C  AC  BC
é distributiva à esquerda.
é distributiva à direita.
Prova:


 A  B  C  ij   Aik  B  C kj   Aik Bkj  Ckj 
k
k
  Aik Bkj   Aik Ckj   AB ij   AC ij
k
k


 A  B  C ij    A  B ik Ckj   Aik  Bkj Ckj 
k
k
  Aik Ckj   Bik Ckj   AC ij   BC ij
k
k
outro
lado
5.
A BC    AB  C , é associativa.
 A  BC   ij   Aik  BC kj   Aik  Bkl Clj 
k
k
l


  Aik Bkl Clj     Aik Bkl Clj    AB il Clj   AB  C 
ij
k l
l k
l

6.
7.
OA  O e AO  O
AB  B A , na transposta do produto é preciso comutar a multiplicação.
Prova:
8. Se
Q
 ik  Akj   B Aij
 AB    AB    A jk Bki   B
ji
 ij
k
k
é uma matriz quadrada então
QQ  S
é simétrica. Prova:
QQ   QQ  , logo Q Q  S é simétrica.
QQ  QQ  QQ
9. A multiplicação de duas matrizes triangulares superiores é triangular superior.
10. A multiplicação de duas matrizes triangulares inferiores é triangular inferior.

Matriz triangular superior é tal que ij

 T 
Já se


ij
i j
 T 

ij
 0 se i  j . Nesse caso, se i  j
j
n
j
i
j
j
então:
n
 
  ik
Tkj   ik  Tkj   ik Tkj    0Tkj   ik 0
k
k 1
k  j 1
k 1
k  j 1
então:
  ik Tkj    ik  Tkj   ik Tkj    ik Tkj  
k
k 1
k i 1
k i 1
j
  ik Tkj   0
k i 1
Logo trata-se de uma matriz triangular superior.
Matriz triangular inferior é tal que

 T 
Já se

ij
i j
i
ij  0 se i  j , nesse caso se i  j
n
i
então:
n
 
  ik
Tkj   ik Tkj     ik  Tkj   ik 0   0Tkj  0
k
k 1
k i 1
k 1
k i 1
então
logo

 T 

ij
j
i
n
i
k 1
k  j 1
k i 1
k  j 1
 
  ik
Tkj   ik Tkj   ik Tkj   ik Tkj   ik Tkj  0
k
Logo trata-se de uma matriz triangular inferior.
VETORES.
 B1 
 
B
Vetores são matrizes linha ou coluna que denotamos por A   A1 A2
An  ou B   2  .
 
 
 Bn 
Produto escalar ou produto interno. Vamos multiplicar a matriz linha A   A1 A2
An  pela matriz
 B1 
 
B
coluna B   2  . O resultado AB   A1
 
 
 Bn 
 B1 
 
B
An   2    Ai Bi se chama PRODUTO ESCALAR e é
  i
 
 Bn 
A2
denotado por A  B . Note que se B  A então A  A  A1  A2 
2
A  A  A  A12  A22 
2
 An2 e chamamos a norma de A
 An2 . A interpretação geométrica do produto escalar pode ser obtida, sem
perda de generalidade, tomando o eixo x na direção de A e colocando o vetor B no plano
ângulo  com o eixo
x.
xy
fazendo um
Nesse caso podemos usar apenas duas dimensões e os vetores são dados por
A   A, 0  e B   B cos  , B sin   . O produto escalar será A  B  AB cos . Dois vetores não nulos para os
quais A  B  0 são perpendiculares entre si. Note que cos  
1 e 1.
A B
A A B  B
é um número que varia entre
Desigualdade de Schwartz no produto escalar:
  A  B     A  B   0  pois é o produto escalar de um vetor por ele mesmo. Mas
  A  B     A  B    A  A  2 A  B  B  B  0 . Aqui usamos as propriedades distibutiva
A   B  C   A  B  A  C e comutativa A  B  B  A do produto escalar. Mas a equação
 A  A   2  A  B     B  B   0 é uma parábola em  do tipo a  b  c com o coeficiente a
positivo, pois a   A  A  0 e a desigualdade a  b  c  0 só será válida se b  4ac  0 , ou sjea não
2
2
2
2
2

existem raízes reais. Nesse caso, 4 A  B
1 
A B
A A B  B

2


 A B  1
 A  A  B  B 
2

 4 A  A B  B  0 que implica em
e
 1 .
Se A é um vetor complexo então precisamos não apenas transpor o vetor coluna mas conjugá-lo para garantir
 A1 
 
A
um número real positivo após a operação. Chamamos de adjunto do vetor A   2  o vetor linha
 
 
 An 
A†  A*   A1* A2*
An*  , ou seja, é necessário transpor e conjugar. Agora sim, o produto
A† A   A1*
A2*
 A1 
 
A
*  2
An 
  Ai* Ai   Ai
  i
i
 
 An 
2
será um número real positivo e pode ser usado na
definição da norma, ou módulo, de um vetor complexo.
Funções de Matrizes quadradas:
A nossa álgebra de matrizes nos permiet apenas realizar as operações adição, multiplicação por um escalar e
multiplicação de matrizes. A adição só pode ser realizada com matrizes de mesma dimensão e a multiplicação
exige condições sobre as dimensão das duas matrizes. Se trabalharmos apenas com matrizes quadradas tanto
as condições da adição quanto as da multiplicação serão automaticamente satisfeitas. Sabendo a operação
multiplicação podemos definir a operação potenciação de matrizes:
com matrizes quadradas.
Faz sentido falar de uma função de matrizes? Por exemplo:
An  A  A 
 A , sem problemas
exp( A) , ou cos  A ? Sabemos calcular essas
funções para um argumento real apenas. No entanto sabemos calcular a função
f  A  An
e isso é o
suficiente para definirmos uma função de matrizes desde que essa função possa ser expandida em série de
Taylor-McLaurin, ou seja, seja de classe
C
e com raio de convergência infinito. Dentre essas funções estão a
n
f    0 n
f  x  
x .
n!
n 0

exponencial, o seno, o coseno, etc. Assim, considere a série de Taylor da função
Note que
n
f    0
n!
são apenas escalares (números). Assim definimos a função de matrizes através da série:
n
f    0 n
f  A  
A
n!
n 0

Sabemos realizar essa operação? Sim, sabemos, pois sabemos calcular
escalar
n
f    0
n!
sabemos multiplicá-la por um
, e sabemos somar as matrizes:
3
f   0  2 f    0  3
f  A  f  0  I  f   0  A 
A 
A 
2!
3!
1. Se
An ,
n
f    0 n

A .
n!
D é uma matriz diagonal na forma:
 1 0
0 
2
D


0 0
Então
 f  1 

0
f  D  


 0
0
0 


n 
0
f  2 
0


.


f  n  
0
0
Para
tanto
basta
notar
 1n

 0
Dn  

 0

que
  f n  0

1n
 n 0 n!

n


 f
 0  D n  
0

n!
n 0




0


 f  1 

0
f  D  


 0
é
usando
D 
0
f  2 
0
indução
com
a
ij
k
k
Supomos verdadeiro para
D 
n 1
ij
 
n , isto é, que D
n
ij
e que
0
D 
3
ij
portanto
logo
0

0


n
n 
0
2n
0
mostramos
que
  Dik Dkj2  i k2 ik kj  i3 ij .
k
k
n
 i ij e mostramos que é verdadeiro para
  Dik Dkjn  i kn ik  kj  in 1 ij .
k
2n


0
0


 f n  0
n

2
0


n!
n 0



n
 f    0
n
0
n 

n!
n 0

 1n
0 


0 
n  0
. Uma forma de mostrar que D  



f  n  
 0

seguinte
notação:
Dij  iij . Daí
  Dik Dkj  i k ik kj  i2 ij ,
2
0

0
,

n
n 
0
Assim está provado que
k
D 
n
ij
n  1 , ou seja
 inij
é sempre
verdadeiro.
Matrizes Periódica, idempotente e nihilpotente.
Uma matriz quadrada
é a matriz
A é PERIÓDICA com período p  n  1 , n  2 , se An  A , onde An  A A
A multiplicada por si própria n vezes.
Uma matriz periódica com período 1, i.e.,
Uma matriz quadrada
A2  A , é chamada IDEMPOTENTE.
A é NIHILPOTENTE de índice p se p é o menor inteiro tal que A p  O .
A
An p1  An , n  0 .
a. Se
A é periódica com período p
b. Se
A é idempotente então An  A , n  1 .
c. Se
A é nihilpotente de índice p então A p  n  O , n  0 .
então
Determinantes:
Determinantes são uma função que associa um número real à matrizes quadradas de números reais na forma
det  A : m  m 
. A melhor forma de definir determinante é através dos tensores de Levi-Civita e por
isso vamos começar com definições e estabelecer as propriedades desses tensores.
Definições.
 1 se x  0

se x  0 .
A função sinal (sgn) é definida por sgn( x)   0
1 se x  0

n
O produtório é representado por
  j  1 2 3 n
j1
Propriedade da função sinal:
sgn  xy   sgn  x  sgn  y 
ou, generalizando,
 
sgn  xi   sgn  xi  .
i
i
A operação produtório entra e sai do argumento da função sinal.


, n   sgn    k   j  , e (1 )  1

1 j kn
quando houver apenas uma variável. Como   sgn  z  então  só pode assumnir os valores 1, 0 e  1 .
O Tensor de Levi-Civita é definido por:

  1 ,  2 ,

Esclarecendo a notação. Note que:
 ( k   j )    n   n1   n   n2 
1 j  k n
mantendo sempre
 n  1  n1  n2   n1  1    2  1 
j  k . Não podemos usar j  k
O número de termos no produtório
porque
 ( k   j ) é
1 j  k n
k   j  0 e o produtório inteiro seria nulo.
n  n  1
. Para ver isso começamos de:
2
  n  1 termos
 n  n1  n  n2   n  1 
k  n  1 j  k   n1  n2  n1  n3   n1  1    n  2  termos
k 2 jk
 2  1   1 termo
k n
jk
Então devemos somar a PA
  n  1 
S  1 2 
 n  1 n  1  1  n  n  1 .
2
     1.
Já se existirem dois então   1, 2   sgn  2  1  .
Por definição se houver apenas um
Para

2
então
n  3 temos que   1, 2 , 3   sgn  3  2  3  1   2  1  
.
n  4 temos:
  1, 2 , 3 , 4   sgn  4  3   4  2  4  1   3  2  3  1   2  1   .
Exemplos de cálculos de  s :


4
1.   4,5,1,2   sgn  2  1 2  5  2  4 1  5 1  4  5  4     1  1
 








2.   2,3,1,2   sgn  2  1 2  3  2  2 1  3 1  2  3  2    0

0



 



3.  1,2,3,4   sgn  4  3  4  2  4  1 3  2  3  1 2  1   1
 








6
4.   4,3,2,1  sgn 1  2 1  31  4  2  3  2  4  3  4     1  1
 








3
5.   3,2,1  sgn 1  2 1  3  2  3     1  1
 



Para
Note no caso 2 que se dois valores quaisquer são iguais o tensor se anula porque dois valores, o primeiro e o
último, foram iguais (2).
Inversões: existe uma inversão sempre que
conjunto
  1 ,  2 ,
 j  k
e
j  k . Cada inversão traz um sinal negativo. Se o
 1 , 2 , , n  com i   j i  j possui p inversões então
p
,  n    1 . Logo  será 1 se p for par e  será 1 se p for ímpar. Foi a contando o
número de inversões que calculamos


  4,5,1,2   sgn  2  1 2  5  2  4 1  5 1  4 5  4     1  1







4

Tem 4 inversões. Não é necessário escrever todo o produtório para contar o número de inversões. Tome o
exemplo da seqüência:
2 5 4 1 3
  
1 3 2
Tem um total de 1  3  2  6 inversões. As inversões do 2 foram o 1, o único número à direita menor do que
  2,5,4,1,3  1 .
2. As inversões do 5 foram 4, 1 e 3, e do 4 foram 1 e 3. Com 6 inversões sabemos que
1762354
54
tem

rapidamente. Por exemplo: 1762354  1 pois a seqüência
inversões. Já  25314  1 pois a seqüência 25314 tem 1  3  1  5
Contando as inversões podemos calcular o
5  4  1  10
1 31
1
inversões.
Arranjos de
 1 , 2 ,
Percebemos então que
 1 , 2 ,
, n  :
 só não é nulo se todos os  s forem diferentes. Escolhido um conjunto qualquer
, n  de  s diferentes entre si de quantas formas podemos ordenar esse conjunto? Trata-se do
problema de colocar n objetos distintos em n caixas em que a ordem dos objetos importa. Assim existem:
n  n  1  n  2  1
 n  n  1 n  2  1  n!
1 2
3
n
formas de reordenar esse conjunto.
Exemplos:
1.
2.
n  2  1,2  e  2,1  2 formas , e 2!  2 .
n  3 existem 3!  6 formas mostradas abaixo:
Total 6 arranjos
1
2 3; 1 3 2 ;  2 1 3;  2 3 1;  3 1 2 ;  3 2 1






Propriedades do tensor de Levi-Civita:
1.
  1 ,  2 ,
i   j
2.
,  n   0 se  i   j
i  j .
Corolário: se 
1  2 
 n ,
isto é,
i   j i  j
então
  1 , 2 , , n   1 .
 k  i k i  0 logo ik  k  i   0 e sgn ik  k  i   1 .
4.
, n   0
então
i  j .
 1, 2, ,n  1.
3. Se
 1 , 2 ,
 1, 2 , 3 , , n     2 , 3 , , n 
Nesse caso
5. Se
1  2 
 n ,
isto é,
i   j i  j
que nesse caso todos os termos
 k  i k i  0
n  n  1
termos, então   1 ,  2 ,
2
6.
,  n    1
  1 ,  2 ,




 1 , 2 ,
, i ,
, j ,


,  n    1
sgn  k  i k i  1 ,
e
2
. Note
como existem
.
Basta
notar
.
, n   1 ,  2 ,
2
n n1
  1  p, 2  p, , n  p     1 , 2 , , n  .
sgn k  p   j  p  sgn k   j
7.
então
n n1
, j ,
, i ,
i  j . Ou seja, a transposição de dois índices troca o sinal de  .
, n
que
 . Aqui estamos supondo
j basta analisar os termos contendo esses dois índices, pois todo restante
não muda. No produtório vamos separar os termos de acordo com a ordem k  j  i , j  l  i ,
j  i  m e m  i  j . Os termos que contém apenas i e j são:
Prova: como só vamos trocar
i
por

 




















k
j
k
i
j
l
l
i
 k  j i
  j l i
 


    j  m  i  m     j  i
 j i  m









 k   j   k  i    k  i   k   j  portanto trocar i por j nada muda nesse termo. Da
mesma forma para o termo   j  m   i  m    i  m    j  m  . Já no termo:
  j  l   l  i    1  l   j   1  i  l    12  l   j   i  l 
Agora
O
sinal
foi
trocado
duas
vezes.
2
n 
é obtido
Portanto,
trocar
trocar
i
por
j
leva
a
 i  l   l   j     j  l   l  i  .
O único termo que sobrou foi   j  i    1  i   j  , mostrando que qualquer permuta nos índices
troca o sinal de
8. Se
.
 1
  1 2
vez. Corolário: Se
então
 1
2
n 
através de
p
transposições então
n    1   1 2
n  , pois cada transposição troca o sinal uma
n  é obtido através de p transposições de 1 2
n
 1 2
  1 2
p
n    1
p
.
9. Reordenamento
 k1
k2
i  j i  j
  1 2
simultâneo:
kn 
reordenamentos de

  k
1
 1
10.
2p
kn
n    k1
n 
2
e
logo não existem índices iguais, i.e.
 
 k2
 é um reordenamento de  1
2
n 
 1
n 
2

kn  k1 k2
n 
n
kn .
n 
e
 k
1
 k2
 kn

logo as permutações são idênticas em ambos os casos.
p
2
p
  1    1  1 a igualdade está provada.


 1, 2 , 3 , , n     2 , 3 , , n 
 2,3,
 1
2
é o mesmo reordenamento de
Como
n  ,
p

p
k    1   1
 k2
k2
n ,
kn   1   1 2
k2
1
 k

n    1 2
 k1
 1 2
1 2
é sempre verdade. Então:
Para provar basta notar que
Pois
sejam
onde
 2 , 3 ,
, n 
é um reordenamento de
,n . Todos os termos com sgn  i 1  1  1 e desaparecem do produtório.
Para provar as propriedades do determinante vamos precisar ainda dos teoremas de preenchimento.
Teoremas de preenchimento:
1. Sejam
1
i  j i  j
1
1
n 
2
2
n ,
2
n .
todos os reordenamentos possíveis de
é sempre verdade, e
então
 k
1
 k2
 k1
 kn

kn 
k2
k2
k3    2 3 1 .
 3 1  :
Agora vamos reordenar
n ,
2
portanto
um reordenamento fixo de
varre todos os reordenamentos possíveis de
Antes de demonstrar o teorema vamos exemplificá-lo com
 k1
 2
1
1
n  3,
 2 3 
e
1
2 3
e escolher
e ver o que obtemos com
1
1

1
 2
3   
 2
 3

 3
2
3 
 2


2 
 3
1
3 
   2  3 1   
1 
 3
1
2 


1 
 2
2
3
1
3
1
2
1 

1 
2 

2 
3 

3 
3
2
3
1
2
1
 2  3 1  obtivemos de volta os 6 arranjos apenas em uma ordem diferente. Ou seja
1  é tão bom quanto 1  2  3  para varrer todas as possibilidades de arranjos.
Note que com
 2
3
Para
n
1
n 
2
exaurir todas as possibilidades de reordenamento ele precisa de
 k
elementos, diferentes entre si [os conjuntos]. Se
 k2
1
 kn
1
diferentes, obrigatoriamente contém todos os possíveis reordenamentos de
1
2
 k
1
n 
 k2
corresponde um
 kn
1
reordenamento de
 é igual ao de 1
2
basta provar que não existem
Suponha que os dois conjuntos
k
1
 k
 k
1
 k2
 1
 1
 kn
 kn
1
2
2
Para cada

 kn
 é um
 repetidos.
n  , diferentes entre si, levam a
 repetidos, i.e.:
k
k 
2
i
n
o que significa que
n 
n  .
 j   j j , fazendo j  ki , e, portanto que
em
Logo
contradição
não
com
há
n 
todos
os
reordenamentos
a
hipótese
repetição
 e eles varrem todos os possíveis reordenamentos de 1
2
n .
logo o número de conjuntos de
 n    1 2
2
 n    1 2
 n    1 2
2
2
2. Sejam
 ki   ki
,
conjuntos
 kn
 kn   k1
Mas isso implica que
1
1
1
 
 k2
 kn
2
n!
 n  . Na realidade  k1  k2
2
 k2
1
 k2
1
 k2
1
contém
 n  . Como o número de conjuntos são iguais entre si e igual a n ! então
 k
Vamos provar por absurdo:
dois conjuntos
 k

n ! conjuntos de
possíveis
nos
que
conjuntos
n .
2
de
de
1
2
n e
n  um reordenamento fixo de 1 2
n  , então o reordenamento
, n  n também varre todos os
n  tal que  1  1,  2  2 ,
reordenamentos possíveis de
1
2
n .
Antes de demonstrar o teorema vamos aplicá-lo para entender a regra de associação entre os diversos índices.
2 3    3 1 2  e a regra para encontrar o  é dada por
 1  3,  2  1, 3  2 . Então se 1  2  3    2 1 3 , 1  3 porque 3   3 , 2  2
1   2 e 3  1 porque 2  1 . Trata-se, portanto, de encontrar a função inversa
porque
Vamos escolher
 1
  i   i  i  1  i  .
No exemplo dado,  
1
 3 ,  2  1 e  3  2 , teremos:
1
Note que
A
 1
prova
2
1

1
 2
3   
 2
 3

 3
3 

2 
3 
   1 2
1 
2 

1 
2
3
1
3
1
2
2
com
 2
 2
Para
n
3
1
é
semelhante
e
basta
provar
 n    1 2
que
 3 1  obtivemos de volta os 6
1  é tão bom quanto 1  2  3 
n 
2
não
há
repetição,
 k
1
 k2
n 
 kn
se
logo
arranjos apenas em uma ordem diferente. Ou seja
para varrer todas as possibilidades de arranjos.
exaurir todas as possibilidades de reordenamento ele precisa de
corresponde um
seja,
então
 k
1
 k2
 kn
1
diferentes, obrigatoriamente contém todos os possíveis reordenamentos de
2
ou
n  .
elementos, diferentes entre si [os conjuntos]. Se
1
2 

3 
1 

1 
3 

2  
1
1
2
3
2
3
2 3  varreu todas as possibilidades de reordenamento de 1 2 3 também.
1  2
 n 

n 

   1 2





 1

2
n 

 i  i e i  i   i  i   j   j
1
 3

 2
 3
3   
 2
1

1
 k
 é igual ao de 1
1
2
 k2
 kn
,

n ! conjuntos de
contém
2
n!
conjuntos
n .
Para cada
logo o número de conjuntos de

 n  . Na realidade  k1  k2
 kn
 é um
reordenamento de
1
2
basta provar que não existem
 n  . Como o número de conjuntos são iguais entre si e igual a n ! então
 k
 k2
1
 repetidos.
 kn
Vamos provar por absurdo: Suponha que os dois conjuntos
diferentes entre si, levam a dois conjuntos
k
1
 
 k2
 kn   k1
Mas isso implica que
1
1
 k
1
2
2
 ki   ki
 k
 k2
i
 kn
 k2
 kn
n 
n  .
 n    1 2
2
 kn

o que significa que
 n    1 2
 n    1 2
 k2
1
1
n  ,
 repetidos, i.e.:
 j   j j , fazendo j  ki , e, portanto que
em
contradição
Logo
não
com
há
a
hipótese
repetição
 e eles varrem todos os possíveis reordenamentos de 1
nos
de
que
conjuntos
n .
2
DEFINIÇÃO DE DETERMINANTE:
O determinante é uma função que associa um número à matrizes quadradas, ou seja, é uma função de
matrizes, o domínio é o conjunto de matrizes quadradas, e o contradomínio são os reais, definida pela regra:
n
n
det( A)   
1 1  2 1
n
   1 ,  2 , ,  n  A11 A22
 n 1
An .
n
Também denotado por:
det( A) 

1 , 2 , , n
  1 ,  2 ,
,  n A1 A2
1
2
An
n
Ou ainda na forma mais abreviada:
 
det( A)     A1 A2

1
2
An
n
com
   1 , 2 , , n 
Note que a somatória é feita sobre o segundo índice dos elementos da matriz, que correspondem às colunas.
Também se percebe que a propriedade (1) das  s nos garante que podemos trabalhar apenas com
reordenamentos de
1
2
n  , evitando assim índices repetidos.
Exemplos: encontrar a forma explícita dos determinantes de matrizes 11 ,
1
1.
det A11     1 A11  A11 .
1 1
2  2 e 3 3 .
2
2.
2
det A22      1, 2  A11 A22   1,2  A11 A22    2,1 A12 A21 ,
ou
1 1 2 1
seja,
det A22  A11 A22  A12 A21 .
Trata-se da famosa regra:
3
3.
3
3
det A33       1, 2 , 3  A11 A22 A33
1 1 2 1 3 1
det A33   1,2,3 A11 A22 A33    2,3,1 A12 A23 A31    3,1,2  A13 A21 A32 
  3,2,1 A13 A22 A31   1,3,2  A11 A23 A32    2,1,3 A12 A21 A33
Agora note que
 1,2,3    2,3,1   3,1,2   1 e que   3,2,1   1,3,2     2,1,3  1
e mais ainda que varremos todos os reordenamentos possíveis [devem existir 2 começando com 1, dois
começando com 2 e 2 começando com 3]. Trata-se também de outra regra famosa:
O determinante de uma matriz 4  4 terá 4!  24 termos e o processo de cálculo vai se tornando tedioso. O
EXCEL já tem uma função embutida que faz esse cálculo. Na mão o melhor é calcular usando a regra dos
menores que provaremos adiante.
Propriedades dos determinantes:
1.
Onde
det( A) 
1 ,2 ,

1 , 2 , , n
, n 
  1 ,  2 ,
é um reordenamento de
inicial do determinante det( A) 
de
1
2
, n    1 ,  2 ,
n .
Prova: por definição temos que:

1 , 2 , , n
1
2
  1 ,  2 ,
,  n  A  A
1 1
A
2 2
n n
n  . Note que a diferença com a definição
,  n A1 A2
1
2
An
n
foi o reordenamento
det( A) 

1 , 2 , , n
 1, 2,
, n    1 ,  2 ,
,  n  A1 A2
1
Agora aplicamos dois reordenamentos iguais e simultâneos:
1, 2,
, n   1 , 2 ,
 1 , 2 ,
An
2
n
, n 
, n    1 ,  2 ,
, n 
e usamos a propriedade (7):
 1, 2, , n   1 , 2 , , n    1 , 2 , , n    1 , 2 , , n  .
Para completar, precisamos usar o teorema de preenchimento para garantir que os
reordenamentos possíveis de
1
n
2
como faziam os
 s
 s varrerão
todos o
iniciais. Isso garante que a somatória
incluirá todos os termos.
det( A) 
2.

1 , 2 , ,n
  1 ,  2 ,
, n    1 ,  2 ,
,  n  A  A
1 1
2 2
A
n n
.
Note
que
agora a somatória é feita sobre o primeiro índice, ou seja, sobre as linhas.
Prova: novamente começamos de:
det( A) 

1 , 2 , , n
 1, 2,
, n    1 ,  2 ,
,  n  A1 A2
1
 1 , 2 ,
O procedimento de reordenação agora será o seguinte – reordenar cada
mesmo
1, 2,
2
An
, n 
n
até chegar a um
 1 , 2 , , n  fixo, o que requer que     j . Se aplicamos o mesmo reordenamento para
,n obteremos  1 , 2 , , n  , ou seja, se  j virou  j então j virou  j . Como os
j
reordenamentos
são,
novamente,
simultâneos,
vale
a
propriedade
(7)
 1, 2, , n   1 , 2 , , n    1 , 2 , , n    1 , 2 , , n  . A diferença agora é que os  s
estão fixos e os
 s
variando nos reordenamentos de
que essa variação preencherá todos os
3.
,n . O teorema 2 do preenchimento garante
n ! reordenamentos. Assim a propriedade está provada.
det  A   det  A  .
det( A) 

1, 2,


1 , 2 , ,n
1 , 2 , ,n
  1 ,  2 ,
  1 ,  2 ,
, n    1 ,  2 ,
, n    1 ,  2 ,
,  n  A  A
1 1
,  n  A  A
1 1
2 2
2 2
A
nn
A
n n

 det  A 
Usando a propriedade (2). O determinante de uma matriz é igual ao da sua transposta.
A
4. Se
A multiplicando a iésima linha por 
é obtida de
A transformação é dada por
det A     1 2
Aij   Aij
então
Ak ij  Aij . Nesse caso
e
n  A11 A2 2

    1 2
n  A11 A22

     1 2
Aii
 Aii
n  A11 A22

det A   det A .
An n 
Ann 
Ann   det A
Aii
det  A   n det  A
4.a.
det  A     1 2
n  A11 A22

A
5. Se
é obtida de
Nesse caso notamos que
então
det A   det A .
 Aii
 Ann   n det A
A multiplicando a jésima coluna por  então det A   det A .
A é obtida de A multiplicando a jésima linha por  , e como det A  det A
6. Trocar duas linhas, ou duas colunas, de uma matriz troca o sinal do determinante. Para mostra a troca
det A  det A .
de colunas basta usar o fato de que
D  det( A) 

 1 , 2 ,
D 


1 , 2 , , n
Chamando
D  
1 , 2 , , n
, i ,
1 , 2 , , n


, j ,
  1 ,  2 ,



1

, n   1 ,  2 ,
 1 ,  2 ,
 1 ,  2 ,
,  n A1 A2
, i ,
, j ,
, i ,
, j ,

, j ,
An
2
, i ,
,  n A1 A2
1

,  n A1 A2
1
n
A j
2
2

, n
A j
Ai
i
An 
j
n
Ai
j
j
Ai
i
An
n
 j  i e i   j

1 , 2 , , n

 1 ,  2 ,
, i ,
, j ,

,  n A1 A2
1
2
A j 
i
An   det A
n
7. Se uma matriz tem uma linha (ou uma coluna) nula então det A  0 . Multiplica a linha por zero e usa
propriedade (4).
8. Se dua linhas (ou colunas) de A são iguais então det A  0 . Se duas linhas i e j são iguais, trocá-las
A  A . Por outro lado, pela propriedade
det A   det A  det A   det A  2det A  0  det A  0 .
não
muda
a
matriz,
i.e.,
(6)
então
9. E duas linhas (ou duas colunas) de
A são proporcionais então det A  0 . Nesse caso Aij  kAij
onde a matriz A possui duas linhas iguais, logo
A1 e A2
10. Considere duas matrizes
 A11
A
 21

A1  
 Ai1


 An1
A1n 
A2 n 


Ain 


Ann 
A12
A22
A12
A22
Ai 2
An 2
 A11
 A
21


det A  det 
 Ai1  Ai1


 An1
det A     1 ,  2 ,

    1 ,  2 ,

,  n A1 A2
1
e
An 2
1
Ai
2
A
 Ai
i i
2
i
que
só
diferem
na
 A11 A12
A
 21 A22

A1  
 Ai1 Ai2


 An1 An 2
A1n 
A2 n 

  det A  det A
Ain  Ain 


Ann 
Ai 2  Ai2
,  n A1 A2
det A  k det A  k  0  0 .
i

linha,
A1n 
A2n 

,
 
Ain


Ann 
i.e.,
então
.
An 
n
An     1 ,  2 ,
n
iésima

,  n A1 A2
1
2
Ai
i
An 
n
 det A1  det A2
A mesma propriedade vale para duas colunas.
11. Somar à uma linha um múltiplo de outra linha não altera o determinante. Basta usar as propriedades
acima: det A  det A1  det A2 mas A2 possui duas linhas proporcionais logo det A2  0 . O
mesmo vale para colunas.
12.
det  AB   det A  det B . Seja C  AB
det C     1 ,  2 ,
,  n  C1 C2
1

    1 ,  2 ,

  A1 A2

1
2
então
Cij   Aik Bkj
k
2
Cn 
n



,  n    A1 B    A2 B  

1
1 1 
2
2 2 
 1
 2

An    1 ,  2 , ,  n  B  B 
n

e nnn
1 1
2 2


  Ann Bnn   n
 n

B  
n n
Agora
 2  1 ,  2 ,
, n     1 ,  2 ,
, n    1 ,  2 ,
, n   1 desde
que
1 ,2 ,
1, 2, ,n . Logo podemos incluí-lo na somatória acima obtendo:
det C     1 ,  2 , ,  n  A1 A2
An 
, n 
seja um reordenamento de
1

   1 ,  2 ,
,  n    1 ,  2 ,
    1 ,  2 ,
,  n  A1 A2


13.
,  n  B  B
1 1
2
B
2 2
n n

An  det B  det A  det B
n
det  AB   det  BA   det  AB   det  BA   det  AB   det  BA   det A  det B
det M  det M
14. Se a matriz
Se
1
n
2
A
e
pois
det  MN   det M  det N .
n
é diagonal então
det( A)   Aii  A11 A22
i 1
Ann .
A é diagonal então Aij  Ai ij . Nesse caso o determinante é dado por:
det( A) 

1 , 2 , , n
  1 ,  2 ,
,  n  A11 A22
1
2
Ann
n
Mas os deltas de Kronecker dentro da somatória garantem que que apenas os termos com
1  1, 2  2,
, n  n
sobrevivem, logo a somatória será
det( A)  A1A2
An ,
ou seja, a
multiplicação dos elementos da diagonal.
15. Se a matriz
A
n
é triangular superior, ou inferior, então
det( A)   Aii  A11 A22
i 1
Ann .
Trata-se de uma propriedade intuitiva porque exceto pela diagonal todos os outros termos serão multiplicados
por algum elemento nulo do triângulo inferior. Basta mostrar para a triangular superior, pois a inferior sai com
det A  det A . Se A é matriz trinagular superiro então Aij  0 se i  j , o que impõe restrições nos
 s .
det( A) 
   1 ,  2 , ,  n  A1 A2 An
1 , 2 , , n
Note que para
1
2
n
A11  0 0  1  2  1  1 . Se 1  1 então i  1 i  1 . O próximo termo é o
2 , que pela propriedade da matriz deve ser menor do que 3, mas acima de 1, logo 2  2 . Continuando o
argumento percebemos que a única solução não nula é para 1  1, 2  2, , n  n e
det( A)  A11 A22 Ann .
Essa propriedade (15) é a base do método numérico de triangularização da matriz, usando o fato de que
operações elementares não alteram o determinante, mais eficiente para cálculo de determinantes.
Definição do COFATOR.
Vamos obter a matriz
ij
à partir da matriz
Ann extraindo a iésima linha e a jésima coluna. A matriz cofator
i j
ij de A é definida como: cof  Aij   1
1 0 2


Exemplo, seja A  3 1 1 .


 2 1 2


1 1 
11  
 det 11  1 cofA11  1
1
2


3
12  
2
3
13  
2
 .
det ij
1
det 12  4 cofA12  4
2 
1
det 13  1 cofA13  1
1
0 2
 21  
 det  21  2 cofA21  2
1 2
1 2
 22  
 det  22  2 cofA22  2
 2 2
1 0
 23  
 det  23  1 cofA23  1
2 1
0 2
31  
 det 31  2 cofA31  2
1
1


1 2
32  
 det 32  5 cofA32  5
3
1


1 0
33  
 det 33  1 cofA33  1
3 1
 1 4 1 
cof  A   2 2 1
 2 5 1 


Propriedades do cofator:
1.
 1
A
det A  det  21


 An1
0 
A2 n 
 A22 A23
A
A22
A2 n 
A33
A3n 
32

, ou seja,
 det 11  det






An 2
Ann 
Ann 
 An 2 An3
iniciamos com uma matriz n  n e caímos em uma matriz  n  1   n  1 . Note que os elementos
da primeira linha podem ser escritos como A1  1 , anulando todos os elementos com 1  1.
1
1
0
det( A) 


Expansão nos cofatores:
 2 ,
 2 ,

1 , 2 , , n
  1 ,  2 ,

 1,  2 ,

  2 ,
, n  1
, n  1
,  n  1 A2
1
,  n  A2
,  n  A2
2
2
2
An 
An 
n
An  det 11
n
n
 A11
A
 21

det 
 Ai1


 An1
 A11
A
 21

 det 
 0


 An1
 A11
A
 21

det 
 Ai1


 An1
Ai 2
An 2
A12
A22
0
An 2
A12
A22
Ai 2
An 2
 A11
A
 21

 Ain det 
 0


 An1
Portanto
A1n 
 A11
A
A2 n 
 21



det


Ain 
 Ai1




Ann 
 An1
A1n 
A2 n 


Ain 


Ann 
A12
A22
A12
A22
0
An 2
A1n 
 A11

A
A2 n 
 21


  Ai1 det 
Ain 
 1




Ann 
 An1
A1n 
A2 n 


1 


Ann 
det A   Aik Dik
k
com
A1n 
 A11
A
A2 n 
 21



det


0 
 0




Ann 
 An1
A12
A22
0
An 2
A12
A22
0
An 2
 A11
A
 21

Dik  det 
 0


 An1
A1n 
 A11

A
A2 n 
 21


  Ai 2 det 
0 
 0




Ann 
 An1
A12
A22
A1k
A2 k
0
1
An 2
Ank
A1n 
A2 n 


0 


Ann 
A12
A22
Ai 2
An 2
A12
A22
1
An 2
A1n 
A2n 


0 


Ann 
A1n 
A2 n 

 , com a
0 


Ann 


linha i substituida pro zeros exceto na coluna k em que é substituída por 1. Agora vamos trocando as linhas
até levar a linha i para a primeira linha na ordem. Não podemos simplesmente trocar a linha i pela linha 1
porque isso desordena o resto da matriz. Vamos fazer o seguinte: primeiro trocamos a linha i com a linha
i  1, depois com a linha i  2 e assim sucessivamente até chegar a primeira linha. Nesse processo trocamos
de linhas
 i  1 vezes, portanto:
 A11
A
 21

det 
 0


 An1
A12
A22
A1k
A2 k
0
1
An 2
Ank
A1n 
 0

A
A2 n 
 11

 A21
i 1
   1 det 
0 





Ann 
 An1
Agora vamos trocando as colunas da mesma forma até levar a coluna
 A11
A
 21

det 
 0


 An1
A12
A22
A1k
A2 k
0
1
An 2
Ank
0
A12
A22
1
A1k
A2 k
An 2
Ank
k
0 
A1n 
A2 n 




Ann 
para a primeira coluna, então:
A1n 
 1

A
A2 n 
 1k

 A2 k
i 1
k 1
   1  1 det 
0 





Ann 
 Ank
0
A11
A21
An1
0
A12
A22
An 2
0 
A1n 
A2 n 




Ann 
Ou seja
 1
A
 1k
A
ik
Dik   1 det  2 k



 Ank
0
A11
A21
An1
An 2
Pois extraimos a linha i e a coluna
Então, acabamos de provar que
0 
A1n 
A2 n 
  cof  A ik



Ann 
0
A12
A22
k.
det A   Aik cof  Aik   Akj cof  Akj
k
k
Nesse caso temos dois métodos de decomposição no cofatores para calcular um determinante – escolhe uma
linha e usa a primeira somatória, ou escolhe uma coluna e usa a segunda. A idéia é procurar linhas ou colunas
com muitos zeros para facilitar os cálculos. Para fazer determinantes 4  4 ou 5  5 na mão, dependendo da
quantidade de zeros na matriz, esse método pode ser até rápido. Se precisar de uma resposta analítica em
lugar de numérica também deve-se usar esse método. Para calcular valores numéricos de qualquer
determinante não é o mais adequado. Entretanto, o método é valioso demais para provar o teorema a seguir:
Teoremas:
 Aik cof  A jk   ij det A ou  Akj cof  Aki   ij det A
k
k
Prova: vamos criar uma matriz
A
A trocando a linha j pela i , i.e.,

 Apq se p  j
Apq  

 Aiq se p  j
à partir da
ficamos
com
i j
det A   Ajk cof  A  jk   Aik cof  A jk  0 i  j
Note
que
se
k
duas
linhas
iguais.
Agora
por conta das duas linhas iguais. Se
k
j para a expansão dos cofatores então cof  A  cof  A . Se, por outro lado, i  j , a
troca não muda nada e  Aik cof  A  det A . Nesse caso podemos então escrever que
ik
escolhemos a linha
k
 Aik cof  A jk   Akj cof  Aki  ij det A
k
Note agora que
k
 Aik cof  A jk   Aik cof  Akj   Aik Akj†
k
k
onde matriz adjunta de
A , dada por
k
Akj†  cof  A kj , é a transposta da matriz cofator. Note o que temos aqui:
AA†   det A I
ou
 1

A
A†   I
 det A 
A† A   det A I
ou
 1
†
A
 det A  A  I
Por outro lado também vale:
Logo acabamos de encontrar a matriz inversa de
A ( AA1  A1 A  I ): A1 
transposta do cofator dividida pelo determinante de
det A  0 .
A.
Note que essa fórmula só pode ser utilizada se
Assim podemos encontrar facilmente a matriz inversa de uma matriz
A
A   11
 A21
A12 
 A22

cof
A





A22 
  A12
1
A† . A inversa é a
det A
2  2 não singular:
 A21 
 A22  A12 
†

A




A11 
  A21 A11 
Ou seja, para obter a matriz adjunta simplesmente trocamos os dois elementos da diagonal e os sinais dos dois
elementos fora da diagonal. A matriz inversa é dada por:
 A22  A12 
 A
A11 
21
1

A 
( A11A22  A12 A21 )
Formalização de Matriz Inversa
1. Definição de matrizes SINGULAR e NÃO-SINGULAR. A matriz A é SINGULAR se
SINGULAR se
det( A)  0 , e é NÃO
det( A)  0 .
1.1. Divisores da matriz NULA: Se AB  O então A  O ou B  O ou A e B , as duas, são matrizes
singulares. Claro que se A  O ou B  O então AB  O . Mas estamos interssados no caso em
que
A  O , B  O mas AB  O . Aplicando o determinante temos que
det  AB   det A  det B  0 .
det A  0 ou det B  0 seria
suficiente, mas essa caso é mais forte, os dois devem ser nulos. Suponha que det A  0 e det B  0
1
1
. Mas se det A  0 então A admite inversa, portanto A AB  A O  B  O em
contradição com B  O .
Pareceria então que exigir que
2. Definição de matriz inversa. Se existir uma matriz
1
X
AX  I e que XA  I
tal que
matriz inversa de A , denotada por X  A .
2.1. Se a inversa existe ela é única. Supor que existem duas diferentes, ou seja,
X  XI  X  AY    XAY  IY  Y
inversa, se existir, é única.
2.2. Se
admite
A

AA1  I
 det AA1

e
A1 
A
então
éa
Y  X / AY  I . Mas
em contradição com X
 
X
 Y . Logo
não
singular.
det A  0
logo
a
e
1
.
det A
A é não singular então A admite inversa. Nesse caso
1
A†
det A
existe
1
A† .
det A
Então podemos afirmar
2.4. Se
X Y
é
A
 det I  1  det  A det A1  1,
inversa
det A1  0 . Mais ainda det A1 
2.3. Vale também o converso, se
ou seja
então
é
 
A é não singular.
A admite inversa
singular,
A
não
admite
inversa,
0  det A1  1  0  1 gera uma contradição.
pois
 
det  A det A1  1
logo
A é a inversa de A1 . Pois AA1  I e A1 A  I .
2.6. Se A é não singular, A também é não singular, pois det A  det A  0 .
1
1 1
2.7. Se A e B são não singulares então AB é não singular, admite inversa e  AB   B A é a
inversa de AB .
B1 A1  AB   B1 A1 A B  B1IB  B1B  I
2.5.




A é não singular então  A   A1 .
1
2.8. Se
Partindo de
AA1  I
e aplicando a transposta
AA1  I  I
 A1 A  I
logo
 
A1  A
1
.
OPERAÇÕES ELEMENTARES:
São três as operações elementares sobre matrizes quadradas.
1. Multiplicar uma linha, ou uma coluna, por um escalar   0 . O determinante é multiplicado por  .
2. Permutar duas linhas, ou duas colunas. O determinante é multiplicado por 1.
3. Adicionar à uma linha, ou uma coluna, um múltiplo de outra linha, ou coluna. Nesse caso o
determinante é preservado.
A , ou seja
ˆ . Para diferenciar operações nas linhas das colunas vamos chamar o operador nas linhas de Oˆ e o
A  OA
L
ˆ .
operador nas colunas de O
Vamos denotar um operador por
Ô
que aplicado em uma matriz
A
a modifica para a matriz
C
Teorema:

O operador
portanto

Oˆ L
.
só atua nas linhas, ou seja, apenas no primeiro índice do produto
 AB ij   Aik Bkj ,
k

 que significa Oˆ L  AB   Oˆ L A B . Já o operador Oˆ
Oˆ B  .
Oˆ L  AB ij   Oˆ L Aik Bkj
k
no índice

Oˆ L  AB   Oˆ L A B e OˆC  AB   A OˆC B
j e OˆC  AB ij   Aik
k
C só atua
C kj
Matrizes elementares.
Uma matriz elementar é obtida aplicando operadores linha e/ou coluna sobre a matriz identidade. Denotamos
essas matrizes por E e EL ou EC se a operação for apenas sobre linhas ou colunas.
0 1 0
Exemplo:
A
matriz
troca
as
linhas
1
e
2.
Veja
E1   1 0 0 
0 0 1


 0 1 0   A11 A12 A13   A21 A22 A23 
 0 0 






E1 A   1 0 0   A21 A22 A23    A11 A12 A13  . A matriz E2   0 1 0 
 0 0 1  A
 0 0 1
 


 31 A32 A33   A31 A32 A33 


1  0


multiplica a linha 1 por  . A matriz E3  0 1 0 soma à linha 1,   linha 2. Note:


0 0 1


 1  0   A11
E3 A   0 1 0   A21
 0 0 1  A

 31
Já a matriz
1
E4   
0

A12
A22
A32
0 0
1 0 
0 1 
A13   A11   A21
A23   
A21
A33  
A31
soma á coluna 1,
A12   A22
A22
A32
A13   A23 

A23


A33

  coluna 2, ou seja, opera nas colunas, em lugar das
linhas.
Teorema.
1.
det E  0 , pois selecionamos as operações elementares com essa propriedade. Note que det I  1
e que det E  k  0 para a operação multiplicar uma linha por uma constante não nula,
det E  1 para a operação trocar duas linhas e det E  1 para a operação adicionar á uma linha
um múltiplo de outra linha.
2. Realizar uma operação sobre as linhas é equivalente à pré-multiplicar a matriz pela matriz elementar
da operação desejada. Já realizar a operação sobre colunas é equivalente a pós-multiplicar pela matriz
elementar.
A  IA  OL IA   OL I  A  EL A por outro lado A  AI
3.
 OC AI  A  OL I   AEC
Como o determinante das matrizes elementares não é nulo elas admitem inversa. A inversa de E
também
é
uma
matriz
elementar.
Se
ˆ
E  OI
 I  Oˆ 1E  IE 1  Oˆ 1EE 1  E 1  Oˆ 1I ,
obtida pela operação elementar reversa aplicada na matriz identidade.
Matrizes equivalentes
A B
ou seja
E 1 também
é
Definição: A
elementares.
B , A é equivalente à B , se B
pode ser obtido de
A através de uma cadeia de operações
Teoremas:
1.
2.
3.
A A , pois A  IA e I é uma matriz elementar.
1
E21E11 A .
Se A B então B A , pois se A  E1E2 En B  B  En
1 E21E11C
Se A B e B C então A C . Note que A  E1E2 En B e B  Em
A  E1E2
En Em1
logo
E21E11C
.
4. Todas as matrizes quadrada não singulares podem ser expressas como um produto de matrizes
elementares.
A é não singular então A admite inversa. Isso significa que um conjunto de operações elementares leva
A até I , ou seja, E1E2 En A  I , logo A  En1 E21E11I  En1 E21E11 . Isso também
Se
significa que
A1  E1E2
En .
Método para achar matriz inversa através de operações elementares.
Coloque as duas matrizes, A e I lado a lado. Agora, usando operações elementares de linhas vá
transformando A na matriz identidade. Toda operação realizada sobre A também deve ser realizada sobre
I . Quando A se tornar a identidade a identidade se tornou A1 .
2
A
4
 5 3    5 2 3 2 
1
1
.
A 

10  12   4 2   2 1 
Exemplo
1:
achar
inversa
de
3
.
5 
Usando
a
matriz
adjunta
sabemos
Agora vamos usar apenas as operações elementares.
Colocar as duas lado à lado:
1 3 1
0  linha 2
 2 3 1 0  2  1 3 1 2 0    4
2
2
2





 
3





4
5
0
1

linha
1
0
1

2
1


2
4 5

 0 1

3 
3 
1 0  5
1 0  5
2
2
2
2


 0 1 2


1   1  0 1 2
1 

Então
A
1
 2 3


 4 5
1
 5
 2
 2

3 
2.
1 
que
Exemplo 2: achar inversa de
2 4 5
A   1 3 2  . Faremos mais de uma operação elementar por vez.
 2 2 3



5 1
0 0 
 2 4 5 1 0 0  2 1 2
2 2



1 3 2 0 1 0  linha1 
1
3
2
0
1
0




 2 2 3 0 0 1  2 
3
1
0 0
1 1
 linha1


2
2

1 2
5
1 0 7
3
1
0 0 
2 0 
2
2
2
2

 2  linha 2 

0 1  1  1
1 0 
 0 1  1  1
1
0 

2
2
2
2




2
 0 1 1 1
 linha 2


3 1

0 1 
1 1   3
0
0

2
2
2
2


7 
1 0 7
3
2
5
2
0   7  linha3 
6
6
6 
2
2
2
1
0
0



4
 0 1  1  1
1
0   1  linha3   0 1 0  1
1 
2
2
2
6
6
6



 0 0

 0 0 1 4
1 2
2
1 
4
 2 
3
3
3
6
6
6



Ou seja
 2 4 5
A1   1 3 2 
 2 2 3


1
 5 2 7 
1
  1 4 1  .
6

 4 4 2 
Matrizes na forma escada reduzida por linha:
Uma matriz na forma escada reduzida obedece aos seguintes critérios:
1. O primeiro elemento não nulo de uma linha é 1.
2. Se Aij é o primeiro elemento não nulo da linha
elementos da coluna
i
então
Aij  0 j  i
, ou seja, todos os
j , exceto Aij , são nulos.
3. Todas as linhas nulas estão abaixo das linhas não nulas.
4. Se as linhas 1, 2, , p são não nulas e ki é o primeiro elemento não nulo da linha
k1  k2 
Teorema: Toda matriz
 kp .
Amn pode ser colocada na forma escada através de operações elementares.
i então
A demonstração do teorema é a descrição do procedimento para atingir o objetivo – colocar a matriz na forma
escada reduzida por linhas. O procedimento é o seguinte:
1. Suponha que já se colocou as i  1 linhas com primeiro elemento não nulo iguais à 1 e todo o resto da
coluna desse elemento nula. Tome agora a linha i :
2. Se ela é nula nada precisa ser feito.
3. Se o primeiro elemento não nulo é o Aij divida a linha por Aij . Assim tornamos o primeiro elemento
não nulo igual a 1. Falta anular todos os elementos da coluna
4. Some todos os elementos da linha
todos os elementos da linha
j
k i
exceto o
com a linha
i
j.
multiplicada por
  Akj  . Assim anulamos
Aij  1.
5. Repita o procedimento para as próximas linhas. Note que os zeros abaixo e acima do elemento igual a
1 não desfazem os 1 e zeros já obtidos.
6. Permute as linhas até colocar a matriz na forma escada.
0 2 1 4


Exemplo: colocar a matriz M  3 0 5 2 na forma escada reduzida por linhas.


0 0 0 3


0 1 1
1
2
0 2 1 4 2


 1

5
 3 0 5 2  3   1 0
3
0 0 0 3
 0 0 0

 1
3

1 0 5
0 1 1
2  2  linha3
0
0
2
3




 trocar linha1


2   2  linha3   1 0 5
1
0 com linha 2  0 1
0
3 3
3
2




 0 0 0 1 
 0 0 0 1 
1 





Unicidade da forma escada reduzida por linhas.
Qualquer operação elementar de linhas em uma matriz na forma escada reduzida por linhas ou a tira da
condição de escada ou nada modifica, deixando a matriz invariante.
1. Multiplicar uma linha por   1 . Se a linha for nula nada muda. Se a linha não for nula contém o
primeiro elemento não nulo igual a 1, que se torna igual a  após a operação e a matriz não está mais
na forma escada.
2. Trocar duas linhas não nula altera a ordem escada k1  k2 
 kp .
3. Somar duas linhas não nulas colocaria 1 onde deveria ser zero
Aesc  Besc . Matematicamente podemos provar a unicidade da
  Aesc . Nesse caso então Aesc  E1E2 En A e
forma usual, supondo que existe Aesc
 o que implica que Aesc  Aesc
 .
  E1E2 Em A , logo Aesc A e Aesc

Aesc
A então Aesc Aesc
Isso significa que se
Aesc
Besc
então
Cuidado para manter apenas operações de linhas, porque operações elementares de colunas podem gerar
duas matrizes escadas. Exemplo:
1 0 0 5  1 0 5
0
3 
3


0 1 0 1   0 1 1
0
2
2

 

 0 0 1 0   0 0 0 1 

 

Nesse caso trocamos as colunas 3 e 4 e as duas matrizes, embora diferentes, estão na forma escada.
POSTO e NULIDADE de uma Matriz: ao terminar de colocar a matriz na forma escada reduzida por linhas o
número r de linhas não nulas será o posto [rank em inglês] da matriz M. Ou seja, posto de
número de linhas não nulas de
Aesc
A . A nulidade de Amn
é
A , p  A , é o
N  A  n  p , o número de colunas
subtraído do posto. Note que no caso de um sistema de equações lineares o número de colunas é igual ao
número de incógnitas.
Antes de utilizar o conceito poderoso de posto de uma matriz na resolução de sistema de equações lineares
vamos estabelecer alguns teoremas.
Teoremas do posto de uma matriz
Amn .
p  A  0 então A  O . Claro, pois todas as linhas são nulas.
p  A  m . Trivial pois Aesc também é m  n e o número de linhas não nulas não pode ser maior
1. Se
2.
do que o número de linhas.
3.
p  A  n . Aqui complica um pouco por estamos usando colunas em lugar de linhas. Isso implica que
N  A  n  p  0 . Na forma escada k1  k2   k p onde p  posto = número de linhas
não nulas. Por outro lado ki é a coluna do iésimo elemento diferente de zero da linha i . Logo ki  n
e k p  n . As condições da forma escada requerem que k1  1 , k2  k1  2 e, continuando,
k p  p . Então concluímos que p  k p  n , ou seja, p  n .
Definição equivalente de Posto.
Posto de uma matriz A é o máximo p para o qual uma sub-matriz quadrada de A na forma Ak k é não
singular, ou seja, tem determinante não nulo. Fica claro a equivalência com a definição anterior para matrizes
na forma escada. As operações elementares jamais anulam o determinante de uma matriz não singular,
portanto podemos permutar as colunas da matriz na forma escada para colocar os 1´s em colunas adjacentes
crescentes. Todas as linhas após p serão nulas, então o máximo determinante não nulo tem dimensão
p p.
Qualquer sub-matriz
Al l
terá linhas nulas com determinantes nulos. Procurar sub-matriz não
singular pode ser feito diretamente na matriz A sem necessidade de reduzi-la à forma escada. O fato de que
det E  0 sempre garante que as operações elementares sobre A jamais anularão qualquer determinante
que já não fosse nulo. A vantagem dessa definição é que facilita a demonstração de teoremas. Do ponto de
vista de operacionalidade pode ser muito fácil descobrir a sub-matriz não singular mas fica complicado
operacionalizar o procedimento de sair procurando uma a uma as submatrizes. Melhor começar pelas matrizes
de dimensão mais alta possível.
Exemplos:
0 2 1 4


Achar p  A  onde A34  3 0 5 2 . Como A34 o posto será no máximo 3. Fica fácil de ver que a


0 0 0 3


0 2 1 4


sub-matriz 3 0 5 2 marcada é triangular superior com determinante diferente de zero, logo


0 0 0 3


p  A  3 .
1
0

0

0
2 0 3 0
0 1 2 0 
Achar p  A  onde A45
. Como a última linha é nula sabemos que o posto será no
0 0 0 1

0 0 0 0
1 2 0 3 0

 1 0 0
0 0 1 2 0 

máximo 3. Esolhendo a sub-matriz 
   0 1 0  obtemos uma sub-matriz
 0 0 0 0 1   0 0 1 
0 0 0 0 0


identidade com determinante não nulo, logo p  A  3 .
Teoremas. Com essa definição fica fácil mostrar que:
1.
2.
0  p  Amn   min m, n
min m, n .
pois uma sub-matriz quadrada só pode ser, no máximo, de ordem
 
p A  p  A . Sabemos que det A  det A . Portanto se extraímos uma sub-matriz Ap p de A
com determinante não nulo também podemos extrair a
Ap p
4.
linhas quanto nas colunas, não alteram o posto de uma matriz.
5.
6.
A.
Se
A tiver uma linha
A terá uma correspondente coluna nula.
Se A é sub-matriz de A então p  A   p  A .
p  EA  p  AE   p  A , pois det  EA  det E  det A . Operações elementares, tanto nas
nula a
3.
da matriz
p   A  p  A ,   constante.
p  AB   min  p  A , p  B  .
Se
Ae B
são conformes para multiplicação então
Amn
e
Bnk
e o produto
A
que as operações elementares de linha só se aplicam à matriz
elementares podemos levar a matriz
p  AB   p  A .
Por
do produto. Através de operações
A para a forma escada com m  p  A
m  p  A
também terá, pelo menos,
outro
Amn Bnk  Cmk . Note
linhas nulas. O produto então
linhas nulas. sobre colunas só se aplica à matriz
lado
     
B . Isso implica que
p  AB   p AB  p B A  p B  p  B  ,
p  AB   min  p  A , p  B  .
então
7. O posto de uma matriz não muda se ele é pré/pós-multiplicada por uma matriz quadrada não singular.
Pré-multiplicação:
Cmn  X mm Amn . Como X
p  XA  p  A ,
é não singular então
pela teorema 6. Por outro lado
p  XA  p  A  p  XA


e
p  A  m , logo
p  A  p X 1 XA  p  XA ,
com a única solução possível
o mesmo para a pós-multiplicação
p X   m
p  AX   p  A .
que nos leva a
p  XA  p  A . Basta transpor para concluir
Dois sistemas de equações lineares são equivalentes se eles possuem as mesmas soluções e as mesmas
nulidades, ou variáveis livres.
8.
 
p AA  p  A . Note que AA é uma matriz simétrica quadrada.
Considere
o
sistema
Amn X n1  0m1
X1n Anm Amn X n1  011  0 .
Isso
e
pode
o
sistema
ser
Anm Amn X n1  0n1 .
re-escrito
como
Nesse
caso
 AX  AX   0 .
Mas
 v1 
v 
vm  e AX AX  v12  v22   vm2  0 só será
AX   2  e AX   v1 v2
 
 
 vm 
verdadeiro se vi  0 i . Logo AX  0 é a única solução para AAX  0 , ou seja, AAX  0 e
 
 
AX  0
  
são equivalentes. Igualando as nulidades
 
 
n  p  A  n  p AA
concluímos que
p AA  p  A .
Sistema de Equações Lineares:
1. Uma equação linear nas incógnitas x1, x2 , , xn é escrito como: a1x1  a2 x2
b  0 a equação é chamada de equação linear HOMOGÊNEA.

 an xn  b . Se
2. Um sistema de
a11x1  a12 x2 
m
equações lineares nas incógnitas x1, x2 ,
, xn
é escrito como:
 a1n xn  b1
 a11 a12
a
a21x1  a22 x2   a2 n xn  b2
a22
21
ou, na forma matricial: 


am1x1  am 2 x2   amn xn  bm
 am1 am 2
Se b1
 b2 
a1n  x1   b1 
  
a2 n 
 x2    b2 
   
   
amn  xn   bm 
 b1   0 
b   
0
 bm  0 , ou seja, b  0 , ou ainda  2     , o sistema é chamado de HOMOGÊNEO.
   
   
 bm   0 
3. Equações redundantes. Suponha as seguintes equações:
1.
x y 5
2. 2 x  y  3 .
A terceira equação foi
3. 3x  2 y  8
obtida simplesmente somando as duas primeiras. Não contém qualquer informação extra. É uma
equação redundante. Correta, mas desnecessária.
4. Solução. Qualquer conjunto
1,2 ,
,n 
que satisfaça a todas equações do sistema é uma
solução. Em termos das soluções os sistemas são classificados em CONSISTENTES ou INCONSISTENTES.
Os sistemas inconsistentes não admitem qualquer solução, ou seja, o conjunto solução é vazio. Os
sistemas consistentes admitem pelo menos uma solução.
Exemplo:
1. x1  x2  1
2. x1  x2  0
nos leva a 1  0 , uma inconsistência. Não existe solução para esse sistema.
O sistemas consistentes podem ter uma única solução ou infinitas soluções.
Por exemplo, a equação dois do sistema
um implica que x1
equação x1  x2
1
2
e o conjunto
1. x1  x2  1
implica que
2. x1  x2  0
1,2   1 2 , 1 2

x2  x1
que substituída na equação
 é a única solução do sistema. Por outro lado a
 1 admite infinitas soluções. Escolhe um valor qualquer para x1
SOLUÇÃO TRIVIAL: um sistema homogêneo
Um sistema homogêneo do tipo:
e x2
 1  x1 .
a11x1  a12 x2 
 a1n xn  0
a21x1  a22 x2 
 a2n xn  0
am1x1  am 2 x2 
Admite pelo menos uma solução, a solução trivial
 amn xn  0
 0,0,
,0  . Todo sistema homogêneo é consistente.
No sistema:
a11x1  a12 x2 
 a1n xn  b1
a21x1  a22 x2 
 a2 n xn  b2
am1x1  am 2 x2 
 a11 a12
a
a22
21
Chamamos Amn  


 am1 am 2
 x1 
x 
incógnitas
e
xn1   2 
 
 
 xn 
 a11 a12

a
a22
Ab
  21
m n 1 

 am1 am 2
Ax  b .
a1n 
a2 n 
de matriz dos coeficientes do sistema. Já x é o vetor das


amn 
 b1 
b 
bm1   2  . Chamamos de matriz ampliada a matriz:
 
 
 bm 
a1n b1 

a2 n b2 
. O sistema pode então ser escrito na forma matricial como:


amn bm 
 
Se o sistema for consistente então
particular do sistema, então
 amn xn  bm
Ax  b admite pelo menos uma solução. Vamos chamar xo
Axo  b
é verdadeira. O sistema homogêneo associado
consistente, logo também admite pelo menos uma solução
xo  xH
também é uma solução de
xH
tal que
AxH  0 .
uma solução
Ax  0
é sempre
Nesse caso então
Ax  b , pois A xo  xH   Axo  AxH  b  0  b . Se a única
solução do sistema homogêneo for a trivial então
xH  0
e xo
 xH  xo .
Resolução de sistemas de equações lineares:
Vamos voltar ao sistema
a11x1  a12 x2 
 a1n xn  b1
a21x1  a22 x2 
 a2 n xn  b2
am1x1  am 2 x2 
 amn xn  bm
As soluções não mudam por qualquer operação elementar entre linhas realizadas de ambos os lados da
igualdade. Considere agora a matriz dos coeficientes
  . Podemos então mostra
A e a matriz ampliada A b
os seguintes teoremas:
1. Se
Nesse
  o sistema é inconsistente e não admite qualquer solução.
p  A  p A b
caso
0 x1  0 x2 
2. Se
ao
reduzir
o
sistema à forma escada obeteríamos
que gera a inconsistência 0  bk  0 .
 0 xn  bk  0
 
p  A  p A b  n
do
tipo:
p  A  n
é porque
 k1, k2 ,

, k p  1, 2,
, n o
que
  reduzidas na forma escada tem que ser do tipo:
Ae Ab
1
0 0 0

1 0 0 
0
0
0 1 0
A
b

e
Aesc


0 0 1
0
0
0 0 0


0 0 0
0
a solução única xi  ci i  1, n .
1
0

0

0
0

0
sistema
o sistema é consistente e admite apenas uma solução. Note que a
nulidade desse sistema é zero. Se
significa que as matrizes
um
 
0
1
0
0
0
0
0
0
1
0
0
0
0 c1 

0 c2 
0 

1 c4 
0 0

0 0 
o que levaria a algumas equações redundantes e
 
p  A  p A b  n o sistema é consistente e admite infinitas soluções. Neste caso a nulidade
n  p é o número de variáveis livres que podem passar para o lado direito da equação. Sejam
k1 , k2 , , k p as colunas dos primeiros termos não nulos de cada linha. Nesse caso sabemos que
Aesc 1k1  1 , Aesc 2 k2  1 , ..., Aesc pk p  1 e que esses termos são os únicos não nulos nas colunas
3. Se
k1 , k2 ,
, k p . Passamos para o lado direito as n  p
equações do tipo:
incógnitas restantes para obter um sistema de
xk1  c1    1 j x j

j  k1 , k2 ,
j
,kp

xk2  c2    2 j x j
j
xk p  c p    pj x j
j
 xk1

 xk2


 xk
 p
   1 j1
 
   2 j1

 
   pj
 
1
 1 j2
 1 jn  p   x j
 1
 2 jn  p   x j2


 pjn  p   x jn  p

 2 j2
 pj2
  c1 
  
  c2 
 
  
  c p 

X dep  CX ind  d
Dados

x j j  k1 , k2 ,
,kp

os valores de

xi i  k1 , k2 ,
,kp
 são únicos, mas como os
x j s
podem assumir quaisquer valores existem infinitas soluções.
Suponha um sistema consistente com
n
n  p . Note então que o sistema
p variáveis dependentes. Sempre podemos escolher as ps
variáveis, posto
p
e nulidade
possui n  p variáveis livres, independentes, e
primeiras como as dependentes e as n  p últimas como independentes. Agora vamos reescrever o sistema
 a11 a12
a
 21 a22


 am1 am 2
a1n  x1   b1 
  
a2 n 
 x2    b2 
   
   
amn  xn   bm 
Exemplo: suponha que após a redução à forma escada o sistema ficou na forma:
 x1 
1 2 0 3 0 1
2 0 3 0  1
x


2



0 0 1 2 0 2
0 1 2 0   2

 x3  
no qual a matriz ampliada é dada por
. Vemos
0 0 0 0 1 3
0 0 0 1   3


 x4
 
0
0
0
0
0
0
0 0 0 0     0 


 x5 
que estamos no caso em que p  A  p A b  3  5 e a nulidade é n  p  5  3  2 . Logo existem
1
0

0

0
 
duas variáveis livres. Nesse problema, seguindo a nossa notação,
escolhemos x1 , x3
k1  1, k2  3
e
k3  5 ,
assim
e x5 para ficarem do lado esquerdo das equações:
x1  2 x2  3x4  1 
x3  2 x2
x1  1  2 x2  3x4
 2  x3  2  2 x2
x5  3  x5  3
As duas variáveis livres são
dependendo de x2
x2 e x4 , x5
está determinada mas
x1 e x3 podem
assumir infinitos valores
e x4 .
Ax  0 com n incógnitas admite uma solução NÃO TRIVIAL se, e somente se,
p  A  n . Prova: se p  A  n então p A 0  n pois o acréscimo de uma coluna de zeros
4. O sitema homogêneo
 
não altera o posto da matriz, então o sistema admite apenas uma solução. Sabemos que a solução
trivial
x0
é uma solução, logo é a única solução. Se
p  A  n
então o sistema admite infinitas
soluções. No caso do sistema acima teríamos:
x1  2 x2  3x4  0 
x3  2 x2
x1  2 x2  3x4
 0  x3  2 x2
x5  0  x5  0
Ax  0
Ann possui solução NÃO TRIVIAL, então A é singular. Se o
sistema admite solução não trivial então p  A   n , o que significa que ao reduzir a matriz para a
5. Se o sistema homgêneo
com
forma escada via operações elementares, que jamais anulam o determinante, terminaremos com uma
ou mais linhas nulas. O determinante de uma matriz com linha nula é ZERO. Logo det A  0 e A é
singular.
6. Se
p  A  p
então
A contém
uma sub-matriz quadrada
p  p com
determinante não nulo.
Novamente podemos usar o fato de que as operações elementares, via linhas ou colunas, jamais
anulam o determinante. Então podemos transformar a matriz original, via operações elementares de
linhas e ou colunas na forma:
1
0

0


0

0






1

0 0 0 0 0 0 
0 0 0
0 0 
0 0
1 0
0 1
Nesse caso o determinante da sub-matriz p  p das p primeiras linhas e colunas é obviamente não nulo,
vale 1, pois todos os elementos da diagonal valem 1. Além do resultado acima ainda podemos afirmar mais,
que todos os determinantes de sub-matrizes k  k , k  p serão nulos pois terão pelo menos uma linha
nula.
Um último ponto em relação às operações elementares é que qualquer matriz de posto
através de operações elementares de linha e ou coluna, à forma:
p
pode ser reduzida,
 I p p
O p n  p  


 O m p  p O m p  n  p  


Ou seja, a matriz identidade no canto superior esquerdo e matriz nulas nos outros 3 quadrantes. É fácil
perceber como proceder para isso. Primeiro coloca-se a matriz na forma escada com operações elementares
de linhas, depois com operações de colunas leva-se a matriz para a forma:
1

0

0
0

0

0

0
1
0
0
0
0
1
0 c11
0 c21
1 c p1
0 0
0
0 0
0
c1 n  p  

c2 n  p  


c p n  p  


0


0

Agora utilzamos os 1´s da diagonal para anular via subtração de colunas todos os termos
cij  0
da matriz
C p n p  que sobrou.
Sistemas de equações lineares com
Ax  b
com
n incógnitas e n equações. São sistemas que podem ser escritos na forma:
A sendo uma matriz n  n . Se A é não singular, i.e., det A  0 então A admite inversa e
podemos calcular o vetor
x
da única solução imediatamente através de
x  A1b .
Em particular se a
1
equação é homogênea então só existe a solução trivial x  A
A é menor do que n e teremos soluções diferentes da trivial.
0  0 . Se A é singular significa que posto de
Regra de Cramer:
x  A1b .
1n 
 v1   11 12

v  
 2n 
2
21  22
e o vetor    

  

  
 nn 
 vn    n1  n 2
b1
 A11 A12
A
A22
b2
vi   bk  ki  det  21

k

bn
 An1 An 2
Note que para matrizes dos coeficientes não singular obtivemos
 11

A†
1   21
1
A 

det A det A 

  n1
12
 22
n2
np é tal que cada componente é dada por
Por outro lado
1n  b1 

 2 n 
b
2
 
 
 
 nn  bn 
A1n 
A2 n 
de


Ann 
onde extraímos a regra de Cramer:
 A11 A12
A
A22
det  21


 An1 An 2
xi 
 A11 A12
A
A22
det  21


 An1 An 2
b1
b2
bn
A1i
A2i
Ani
A regra é: troca-se a iésima coluna da matriz do numerador pelo vetor
matriz pelo determinante da matriz dos coeficientes.
Exemplo:
A1n 
A2 n 


Ann 
A1n 
A2 n 


Ann 
b
e divide-se o detrminante dessa
2x  3 y  2
3x  2 y  1
2
det 
3
y
2
det 
3
1
A
então
 2 3
A

 3 2
2
1  2  6 4


3 4  9 5
2 
e
 2
b  
1
 1 
 x  5
então   
 y  4 
 5 
2
det 
1
x
2
det 
3
então
3
2  4  3
1


3 4  9
5

2
e
é a solução. Recalculando através da inversa:
3 
3 
 2
 2
2 
 x  5
1  2 3    5
5 
5  2  5 


então   
1   4 .


y
3
2
 4  9   3 2   3  2 
 
 

5
5
 5 
 5
 5
Combinações lineares:
Equações paramétricas.
Suponha que exista uma curva no plano x-y, ou no espaço
da curva é uma relação do tipo,
possui a relação
R  x, y   0


2
. A equação do LUGAR GEOMÉTRICO
entre as variáveis x e y. Exemplo: círculo centrado na origem
x 2  y 2  R 2 , ou x 2  y 2  R 2  0 , onde R é o raio do círculo. Vamos tentar extrair
dessa relação o y em função de x. Mas note que
y   R2  x2
não é uma função
y  x :

porque admite dois valores para cada x. Uma função é uma regra de associação entre todos os elementos de
um conjunto chamado de domínio com elementos de outro conjunto chamado contra-domínio e não admite
dúvida sobre a qual elemento do contra-domínio devemos associar cada elemento do domínio. Caso contrário
seria impossível obedecer a ordem associe os elementos através da regra – o operador ficaria em dúvida sobre
qual elemento associar.
A idéia da equação paramétrica [de parâmetro] é usar um parâmetro t em termos do qual as funções
x t  :
x

y t  :
e

existem sendo bem definidas. Podemos agora fazer um gráfico de
da seguinte forma: construímos uma coluna com os valores de
final fazemos o gráfico
y vs x
y vs
t , com ele calculamos x  t  e y  t  e no
esquecendo o t . Criamos uma função
 x  t  , y  t  :

2
. Para obter
a relação do lugar geométrico é necessário eliminar o parâmetro. Vejamos o exemplo do círculo:
x  t   R cos t
e
y  t   R sin t .
Agora elevando as duas ao quadrado e somando obtemos
x2  y 2  R2 cos2 t  sin 2 t   R2 ,
gemétrico dos pontos
x2  y 2  R2 .
eliminando o parâmetro
t e ficando com a equação do lugar
Outro exemplo interessante é o da elipse:
x2
a2
 cos t
2
com
y2
a2
 sin t
2
x  t   a cos t
x2
para obter

a2
y2
b2
e
y  t   b sin t .
Agora somamos a equação
 1.
Com um parâmetro podemos descrever uma curva, com dois uma superfície, com três um volume e assim por
diante. Note que se mantenho
R
fixo nas equações x
círculo. Mas se ganhamos a liberdade de variar
anel e até todo o plano x-y.
R
 t   R cos t
e
y  t   R sin t
consigo gerar um
de podemos preencher toda a área de um círculo, de um
Equação paramétrica da reta.
Tome um vetor
V
da
direção
reta
na
e o multiplique por
do
vetor
t . Variando t de ,   podemos gerar todos os pontos ao longo
V.
Note
que
estamos
usando
as
equações
paramétricas:
 x  t  , y  t   tV  t V1,V2  , ou seja, x  t   tV1 e y  t   tV2 . Eliminando o parâmetro obtemos
y V2
que é uma reta que passa no origem. Já a equação X  X o  tV , x  t   xo  tV1 e

x V1
y  t   yo  tV2 é uma reta que passa no ponto  xo , yo  com a equação do lugar geométrico dada por:
y  yo V2
 .
x  xo V1
1.
Mostre que se o sistema homogêneo de n equações e n incógnitas:
A11 t1 + A12 t2 + ... + A1n tn = 0
A21 t1 + A22 t2 + ... + A2n tn = 0
A21 t1 + A22 t2 + ... + A2n tn = 0
admite solução diferente da trivial, i.e,
(t1 , t2 ,
, tn )  (0, 0,
, 0)
então det(A) = 0.
2.
Prove a regra de Cramer
 A11
A
 21

A
xi   n1
 A11
A
 21

A
 n1
B1
B2
Bn
A1i
A2i
Ani
A1n 
A2n 


Ann 
A1n 
A2n 


Ann 
para as soluções do sistema de n equações
e n incógnitas:
A11 t1 + A12 t2 + ... + A1n tn = B1
A21 t1 + A22 t2 + ... + A2n tn = B2
A21 t1 + A22 t2 + ... + A2n tn = Bn
em que A é NÃO SINGULAR.
Espaços Vetoriais
Seja  o conjunto de todos os números reais positivos. Defina a operação adição  pelo produto usual de
 
u  v  u v . Seja    um escalar e defina a operação multiplicação por um escalar


através da regra   u  u . Mostre que  é um espaço vetorial. Qual a necessidade da restrição para
dois números, i.e.,
valores positivos?
Se  e  são espaços vetoriais mostre que    também é um espaço vetorial.
Considere o conjunto das matrizes m n com as operações adição e multiplicação por escalar matriciais
usuais. Mostre que esse conjunto é um espaço vetorial. Quem é o elemento nulo?
Considere o conjunto das matrizes 2  2 e as operações matriciais usuais. Encontre uma base para esse
espaço. Qual a dimensão desse espaço? O conjunto de matrizes 2  2 simétricas é um subespaço vetorial?
Encontre uma base para esse espaço. Qual a dimensão desse sub-espaço?
Sitemas superdeterminados.
n
Tome o caso em que
 aij x j  bi i  1, , m m  n . Nesse caso temos mais equações m do que
j 1
incógnitas. Em termos matriciais temos que
Amn x1n  b1m
modo que
dos desvios, i.e., se
não admite solução, queremos achar os valores
Amn x1*n  b1*m
V  Vi2  V V
Amn x1n  b1m . Mesmo que o sistema seja inconsistente, de
. Então
então
b1*m  b1m
b *  b  Ax *  b
logo
2
x1*n
para os quais de a soma
 min . A norma de um vetor é dada por
b *  b  Ax *  b  Ax *  b  x * A  b
i
logo
b  b  b  b    x A  b   Ax  b   x AA x  x Ab  b Ax  bb
Agora
*
note
*
que
*
*
b 1m Amn xn1  11
*
é
um
*
*
*
número,
um
escalar,
logo,
.
 
bAx  bAx  x Ab  x Ab , logo a nossa equação é dada por:
Min  x* AA x*  2 x* Ab  bb 


Vamos escreve-la na forma mais adequada à diferenciação:


Min   xi* AA x*j  2  xi* Aij b j  b 2  onde b 2  b
ij
i j
i j

 
A solução é dada quando o gradiente da função de
x
2
.
é nulo, ou seja:
 
*
*
*
2
x
AA
x

2
x
A
b

b
ij





  0 k  1,
i
j
i
j
ij
xk*  i j
i j

 
Mas nesse caso temos que:
, n .
então
 
*
*
*
2
x
AA
x

2
x
A
b

b








i
j
i
ij
j
ij
i j
xk*  i j


i





 ij x* x*j  i j  x* xi*   AAij x*j  2i j  x* xi*  Aij bi 
   xi* AA
j
 ij

k
k
 ij

k
   xi* AA  jk     ik AA x*j  2   ik Aij bi 
i
j
i
j
i
 ik  j  AAkj x*j  2i Akj b j
j
  xi* AA
i
Agora
AA
é simétrica, logo:
 xi*  AAik    AAkj x*j  2 Akj b j   xi*  AAki    AAkj x*j  2 Akj b j 
i
j
i
i
j
i
x*j    AA x*j  2 Akj b j  2  AA  x*j  2 Akj b j


kj
kj
kj
j
j
i
j
i
  AA
Então note que
 kj
j
2 AA x*j  2 Akj b j  0
ser escrita na forma matricial como
solução de
Ax  b
solução de
Ax  b.
Regressão linear:
implica na equação
i
  AAkj x*j   Akj b j
j
 A A x*  Ab . Então a x*   A A
minimiza o desvio
  Ax*  b
2
. Se
 0
que pode
i
1
então
Ab
embora não seja uma
 
x*  A A
1
Ab
é uma
Problema de autovalores e autovetores:
O problema de diagonalização de matrizes é resolvido através do problema de autovalor. Problema do autovalor de uma matriz M quadrada: queremos saber se existem autovetores ui e autovalores i tais que
Mui  i ui .
A forma canônica com que esse problema é resolvido é escrever a equação na forma do sistema de equações
lineares  M   I  u  0 que só admite solução diferente da trivial u  0 se det  M   I   0 . Note que isso
 M11  

M 21
leva a uma equação de grau n pois det 


 M n1
M12
M 22  
M n2
M 1n 

M 2n 
 0 e não é possível se afirmar à


M nn   
priori, mesmo se M for uma matriz real, que as raízes, correspondentes aos autovalores, serão reais ou
complexas.
Entretanto se M for real e simétrica podemos afirmar com certeza que os autovalores serão reais. Poderíamos
relaxar afirmando que se M for Hermitiana os autovalores são reais.
Matrizes Hermitianas
Uma matriz M é Hermitiana se M †  M , ou seja, M *  M . Se M é real e Hermitiana então M é
simplesmente simétrica, M   M . Ou seja, matrizes reais simétricas são Hermitianas – um sub-conjunto das
matrizes Hermitianas. Qual a propriedade interessante das matrizes Hermitianas?
1. Os autovalores são reais
2. Os autovetores são ortogonais
Prova: Temos que M ui  i ui e M u j   j u j . Aplicando o operador adjunto na segunda equação
M u 
†
j
 u †j M †   *j u †j como M †  M então u †j M   *j u †j . Agora multiplicamos a primeira equação por
u †j obtendo u †j M ui  iu †j ui e a última por ui obtendo u †j M ui  *j u †j ui . Subtraindo uma da outra temos


que i   *j u †j ui  0 . Se i  j então ui†ui  0 e a igualdade só é satisfeita se i  i* , o que significa que i
é real. Por outro lado se i  j , i   j [caso não degenerado] é preciso que u j  ui  u j ui  0 , o que significa
†
que os autovetores são ortogonais entre si. Se M é real e simétrica os autovalores e autovetores serão reais.
Agora, se além de real e simétrica M for definida positiva então os autovalores, além de reais, são
obrigatoriamente positivos, pois ui M ui  i ui  ui  0 e como ui  ui  0 sempre, então i  0 .
Existe uma arbitrariedade na escolha do autovetor uma vez que é possível multiplicar a equação M ui  i ui
por uma constante de ambos os lados sem perda de validade. Já que se pode multiplicar por uma constante
qualquer pode-se multiplicar pela constante que garanta que ui  ui  1 e ui  u j   ij . Neste caso geramos uma
base ortonormal – ortogonal normalizada à 1. Todos os autovetores são unitários, i.e., possuem norma igual a
1.
Diagonalização de Matrizes:
Vamos considerar que encontramos todos os autovalores da base ortonormal de autovetores de modo que
M ui  iui e ui  u j   ij . O que acontece se realizamos a seguinte operação:
 u1 
 
 u2  M  u u
1
2
 
 
 un 
 u j1 
 
u j2
u j    e que
 
 
 u jn 
un  . Note que nossa notação para o símbolo de vetor é de uma matriz coluna logo
 u1 
 
 u2  e u u
1
2
 
 
 un 
un  são matrizes n  n . Na primeira os vetores estão alinhados na
 u1 
 
u
forma de linhas e na segunda na forma de colunas. Além disso note que  2    u1 u2
 
 
 un 
un  . Aplicando
M a cada um dos autovetores normalizados teremos:
 u1 
 
 u2  M  u u
1
2
 
 
 un 
 u1 
 
 u2  M  u u
1
2
 
 
 un 
 u1 
 
u
un    2   1u1 2u2
 
 
 un 
 1u1  u1 2u1  u2

 u  u 2u2  u2
un    1 2 1


 1un  u1 2un  u2
nun 
nu1  un 
nu2  un 


nun  un 
 u1 
 
u2
são ortonormais para chegar ao resultado   M  u1 u2
 
 
 un 
M foi
e,
diagonalizada. A matriz que a diagonaliza é S   u1
finalmente,
que
. Agora usamos o fato de que os vetores
0
 1 0


0 2
0
. Ou seja a matriz
un   




n 
0 0
un1 
 u11 u21


u12 u22
un 2 

onde o
u2
un  




unn 
 u1n u2 n
 u1 
 
u

primeiro índice se refere ao autovetor e o segundo às suas componentes. Note que S   2  e que S S  I ,
 
 
 un 
1
ou seja, S   S . São chamadas matrizes ortogonais. Aplicando o determinante det  S S   det  I  , e usando
o fato de que det  AB   det  A det  B  , det  A  det  A e det  I   1 vemos que det
2
 S   1 que nos
leva a det  S   1. Na realidade det  S   1, sendo 1 em rotações e -1 em operações que envolvem
reflexões, que não é o caso aqui.
Então a operação S M S  D transforma a matriz M em uma matriz diagonal. Para voltar da diagonal à
basta inverter S´com S: S M S  D  SS M SS   S D S   M  S D S  .
M
Transformação de similaridade:
Quando transformamos uma matriz segundo a forma: M   S 1M S dizemos que fizemos uma transformação
de similaridade. A transformação de similaridade preserva o determinante e o traço da matriz. A preservação




do determinantes é demonstrada facilmente pois det  M    det S 1M S  det S 1S det  M   det  M  .
Já o traço é dado pela soma dos elementos da diagonal tr  M  
M
ii
e tem as seguinte propriedades:
i
tr  A  B   tr  A  tr  B  , tr  cA  ctr  A e tr  AB   tr  BA . As duas primeiras são triviais. A última é
demonstrada da seguinte forma:  AB ij 
A B
ik
kj
e tr  AB  
k
o t r  M   1  2 
D
ik
i
isso a preservação do traço pode ser facilmente demonstrada
matriz M foi diagonalizada para
 A B   B A  tr  BA . Com
tr  S M S   tr  M SS   tr  M  . Se a
ki
k
ki
k
1
ik
i
1
e o determinante e o traço são preservados então det  M   12
n e
 n .
Diagonalização da Matriz inversa:
Podemos mostrar que a mesma matriz S que diagonaliza a matriz M também diagonaliza sua inversa. Sabemos
1
que MM 1  I e S MS  D . Inserindo I  SS  dos dois lados de M: SS MSS M  I , e usando o fato de
1
que M se torna diagonal obtemos SDS M  I . Agora multiplicamos à direita e à esquerda pela inversa de S


1
ou S´ para obter S SDS M S  S IS , que se transforma em D S M 1S  I , o que significa que
 1 0

1
1
 0 2

S
M
S

D
.
Entretanto
se
D





0 0
1

 1
0


0
0
1
então D  



n 

0


0
1
2
0

0 


0 
 e também é


1 
n 
diagonal. Ou seja, a transformação S também diagonaliza a matriz inversa e, além disso, os autovalores da
matriz inversa são os recíprocos da direta.
Em resumo se i é um autovalor de M com autovetor ui então
1
i
é o autovalor de M-1 correspondendo ao
meso autovetor ui .
0
 x 0
 1 x 0

1 x
det  0


 0
0

ao
a1
a2
1
0

 x 0

 1 x 0


   x det  0
1 x





 0
0
 an1  x  

Aij   xij  an1in jn  i  j 1  ai 1 jn
a1
a2
a2
1






 an1  x  
Download