A,B,C (matrizes) a,b,k,λ%-T. n%0 D,F,G (matrizes n×n) determinante

Propaganda
A,B,C (matrizes)
a,b,k,λ%-T.
n%0
determinante: det
D transposto: DT
D,F,G (matrizes n×n)
E (matriz elementar n×n)
A matriz D é uma matriz elementar se pode ser obtida a partir da matriz identidade de
dimensões n×n através de uma única operação elementar de linhas.
[
0
0
O= 0
⋮
0
0
0
0
⋮
0
0
0
0
⋮
0



⋱

0
0
0
⋮
0
] [
1
0
I= 0
⋮
0
0
1
0
⋮
0
0
0
1
⋮
0



⋱

0
0
0
⋮
1
]
A+B=B+A
(A+B)+C=A+(B+C)
A+O=A
A-A=O
(AB)C=A(BC)
a(bA)=(ab)A
a(AB)=(aA)B=A(aB)
AO=O
A(B+C)=AB+AC
a(A+B)=aA+aB
AIn=InA=A
A-1A=AA-1=In
((A)T)T=A
(A+B)T=AT+BT
(A-B)T=AT-BT
(kA)T=kAT
(AB)T=BTAT
Definição: Uma matriz é uma tabela rectangular ordenada de números. Os números na tabela
são chamados os elementos da matriz.
Definição: Duas matrizes são iguais se tiverem o mesmo tamanho e os seus elementos
correspondentes são iguais.
Operações com matrizes:
Seja (A)ij o elemento pertencente á linha i e coluna j da matriz A.
Definição: A+B é matriz resultante da soma de A com B, a soma de matrizes é feita de acordo
com a seguinte regra (A+B)ij=(A)ij+(B)ij.
Definição: A−B é matriz resultante da subtracção de A com B, a subtracção de matrizes é feita
de acordo com a seguinte regra (A−B)ij=(A)ij−(B)ij.
Definição: cA é a matriz resultante da multiplicação do numero c pela matriz A, a multiplicação
por um numero é feita de acordo com a seguinte regra (cA)ij=c(A)ij.
Definição: AB é a matriz resultante do produto de A com B, onde A é uma matriz com r colunas e
B uma matriz com r linhas, a multiplicação de matrizes é feita de acordo com a seguinte regra
(AB)ij=(A)i1(B)1j+(A)i2(B)2i+...+(A)ir(B)rj.
Definição: A é uma matriz m×n, a transposta de A, denotada por AT é uma matriz n×m, que é
obtida de acordo com a seguinte regra (AT)ij=(A)ji.
Definição: Seja o sistema de equações lineares Ax=b, onde x e b são vectores coluna, a matriz
A é chamada de matriz coeficiente.
Seja Ax=b um sistema de equações lineares, este sistema pode ser
a11 a 22  a 1n b 1
representado numa única matriz omitindo as várias incógnitas, isto
a 21 a 22  a 2n b 2
consiste na colocação dos elementos do vector b à direita dos
⋮
⋮ ⋱ ⋮
⋮
elementos da matriz A, tudo numa só matriz. Por exemplo:
am1 am2  amn bm
[
]
Definição(Operações elementares de linhas): As operações elementares de linhas são
operações realizadas com as linhas de uma matriz que não alteram as soluções do sistema de
equações lineares que a matriz representa. As operações elementares de linha são:
i) multiplicação de uma linha por uma constante diferente de zero
ii) troca de posição de duas linhas da matrizes
iii) soma de uma linha multiplicada por uma constante a outra linha
i)
ii)
a 11 a22  a1j
k a 11 k a 22  k a1j
a 11 a22  a1j
a21 a 22  a2j
a 21 a22  a2j  a21
a 22  a 2j
a 21 a22  a2j  a11 a 22  a1j
⋮
⋮ ⋱ ⋮
⋮
⋮
⋱
⋮
⋮
⋮ ⋱ ⋮
⋮
⋮ ⋱ ⋮
ai1 a i2  aij
ai1
ai2  aij
ai1 a i2  aij
ai1 ai2  aij
[
iii)
[
a 11 a22
a 21 a22
⋮
⋮
ai1 a i2
][
][
][
 a1j
a11
a22
 a2j  a21k a11 a22 k a12
⋱ ⋮
⋮
⋮
 aij
a i1
ai2
][

a1j
 a 2jk a1j
⋱
⋮

aij
]
]
Definição(escada de linhas): Uma matriz em escada de linhas(row-echelon form) é uma matriz
com as seguintes três propriedades:
1) Se uma linha não é constituída apenas por zeros, então o primeiro numero diferente de zero
nessa linha é 1. Esse um é chamado de pivot.
2) Se existem linhas que são constituídas apenas por zeros, então estão todas juntas na parte
inferior da matriz.
3) Em quaisquer duas linhas sucessivas que não sejam constituídas apenas por zeros, o pivot da
linha inferior encontra-se mais à direita do que o pivot da linha superior.
Exemplo:
A resolução de um sistema de equações lineares pode ser feita numa
1 0 0 1 matriz que represente o sistema de equações. Um dos métodos para o
0 1 0 2 fazer é o método de eliminação de Gauss, que se baseia no uso de
0 0 1 3 operações elementares de linhas para colocar a matriz em escada de
0 0 0 0 linhas, de onde se pode voltar a escrever o sistema de equações numa
forma mais fácil de obter a solução do sistema.
[ ]
Definição(matriz inversa): Seja A uma matriz n×n, A−1 é a matriz inversa de A, A−1 é tal que
AA−1=I e A−1A=I(onde I é a matriz identidade). A matriz A−1 pode ser obtida da seguinte forma:
Escrever a seguinte matriz [A|I], fazer operações elementares de linhas até obter a matriz
identidade do lado esquerdo, isto é obter a matriz identidade no local onde no inicio estava a
matriz A, depois de isto feito a matriz obtida é [I|A−1].
Exemplo:
1 2 3 1 0 0
1 0 0 −40 16 9
2 5 3 0 1 0  0 1 0 13 −5 3
1 0 8 0 0 1
0 0 1
5
−2 1
[
][
]
Determinantes:
● Uma matriz A é invertível se e só se det(A)≠0
● Se D e F tem a mesma dimensão, então: det(DF)=det(D) det(F)
● Se D tem uma fila de zeros ou uma coluna de zeros, então det(D)=0
● Se D é uma matriz diagonal, triangular superior ou inferior,
então det(D)=d11d22...dnn
● Se E resulta da multiplicação de uma linha de In por k, então det(E)=k
● Se E resulta da troca de duas linhas de In, então det(E)=-1
● Se E resulta da adição de um múltiplo de uma linha de In a outra, então det(E)=1
det kD=k n detD
det DF=detDdetF
−1
SeDé invertivel, então: det D =
[
[
a 11
a12
a13
a 21b 21 a22 b 22 a 23b 23
det
a 31
a 32
a33
⋮
⋮
⋮
a i1
ai2
a i3
1
det D
][

a 1j
a11 a 12 a 13
 a 2jb2j
a21 a 22 a 23

a 3j =det a31 a 32 a 33
⋱
⋮
⋮
⋮
⋮

aij
ai1 ai2 ai3
] [
[ ] [
[ ][
a11
a12
a13
ba11 ba12 ba13
det a31
a32
a33
⋮
⋮
⋮
a i1
ai2
ai3
 a1j
 ba1j
 a3j =0
⋱ ⋮
 a ij
a 11 a 12 a13
a 21 a 22 a 23
det a 31 a 32 a 33
⋮
⋮
⋮
ai1 ai2 a i3
a 11 a 12
a 21 a 22
det a 31 a 32
⋮
⋮
ai1 ai2
a13
a 23
a 33
⋮
a i3



⋱

det D=detDT 
ka 11 ka 12 ka13
a21 a 22 a 23
det a31 a32 a 33
⋮
⋮
⋮
ai1
ai2
ai3
][
][
]
 a1j
a11 a 12 a13
 a2j
b 21 b 22 b23
 a3j det a31 a 32 a33
⋱ ⋮
⋮
⋮
⋮
 aij
ai1 ai2 a i3
 ka1j
 a 2j
 a 3j =k det
⋱ ⋮
 a ij
 a 1j
a 21 a22 a 23
 a 2j
a11 a12 a13
=−det
 a 3j
a31 a32 a33
⋱ ⋮
⋮
⋮
⋮
 aij
a i1 ai2 ai3



⋱

a11 a12
a 21 a22
a 31 a32
⋮
⋮
a i1 ai2
a13
a23
a33
⋮
ai3



⋱

]



⋱

a 1j
b 2j
a 3j
⋮
a ij
]
a1j
a 2j
a 3j
⋮
aij
a2j
a1j
a3j
⋮
a ij
a 1j
a11
a12
a 13
a 2j
a 21ka11 a 22ka12 a 23ka13
a 3j =det
a31
a 32
a 33
⋮
⋮
⋮
⋮
aij
ai1
ai2
ai3

a1j
 a 2jka 1j

a3j
⋱
⋮

aij
]
Definição: Uma permutação de um conjunto de inteiros {1,2,...,n} é uma ordenação desses
números de uma determinada forma, tal que a ordenação seja feita sem omissões nem
repetições. Exemplo: Existem seis permutações diferentes para o conjunto de inteiros {1,2,3}.
Estas são (1,2,3), (2,1,3), (3,1,2), (1,3,2), (2,3,1), (3,2,1)
Definição: Uma permutação é chamada par se o numero total de inversões é um numero inteiro
par, e é chamada ímpar se o numero total de inversões é um numero inteiro ímpar.
Exemplo: A tabela seguinte classifica as várias permutações de {1,2,3}
Permutação
Numero de
Classificação
inversões
(1,2,3)
0
par
(1,3,2)
1
ímpar
(2,1,3)
1
ímpar
(2,3,1)
2
par
(3,1,2)
2
par
(3,2,1)
3
ímpar
Definição(Produto elementar): Por produto elementar de uma matriz A n×n pretende-se referir
qualquer produto de n elementos da matriz A, tal que nenhum dos elementos venha da mesma
coluna ou linha. Uma produto elementar é um produto da forma a1 j a 2 j ... an j , onde (j1,j2,...,jn) é
uma permutação do conjunto {1,2,...,n}.
Teorema: Uma matriz n×n tem n! produtos elementares.
1
2
n
Definição(produto elementar com sinal): Por produto elementar com sinal de uma matriz A n×n
pretende-se referir um produto elementar multiplicado por +1 ou −1, é multiplicado por +1 se
(j1,j2,...,jn) é uma permutação par e multiplicado por −1 se (j1,j2,...,jn) é uma permutação ímpar.
Definição(determinante de uma matriz): Seja A uma matriz quadrada. A função determinante é
denotada por det, e é definido por det(A) a soma de todos os produtos elementares com sinal. O
numero det(A) é chamado de determinante de A.
O determinante de A pode ser escrito simbolicamente como det  A =∑ ±a1 j a2 j ... an j ,
onde 3 indica que os termos são para ser somados segundo todas as permutações (j1,j2,...,jn) e o
+ ou − é escolhido em cada parcela de acordo com a permutação ser ímpar ou par.
Definição: Se A é uma matriz quadrada, então o menor do elemento aij é denotado por Mij e é
definido como sendo o determinante da sub-matriz que resta após a remoção da linha numero i e
da coluna numero j da matriz A. O numero (−1)i+jMij é denotado por Cij e é chamado por cofactor
da entrada aij.
Teorema(expansão por cofactores): O determinante de uma matriz A n×n pode ser calculado
através da multiplicação dos elementos em qualquer linha(ou coluna) pelos seus cofactores e
somando os produtos resultantes; isto é, para cada 1AiAn e 1AjAn,
det(A)=a1jC1j+a2jC2j+...+anjCnj (expansão por cofactores ao longo da coluna numero j)
det(A)=ai1Ci1+ai2Ci2+...+ainCin (expansão por cofactores ao longo da linha numero i)
Teorema(regra de Cramer): Se ax=b é um sistema de n equações lineares com n incógnitas tal
que det(A)@0, então o sistema tem uma solução única. Esta solução é
b1
det  A 1
det  A 2
det  An 
b = b2
, x2 =
, ... , x n =
x1 =
det A
det  A
det  A
⋮
bn
1
2
n
[]
onde Aj é a matriz obtida pela substituição dos elementos da
coluna numero j da matriz A pelos elementos da matriz b.
Classificação de sistemas de equações lineares(SEL):
Impossíveis ou inconsistentes, se não tem soluções.
Possíveis ou consistentes:
-Determinado, se tem uma solução.
-Indeterminado, se tem infinitas soluções.
Definição: Traço de uma matriz A qualquer é a soma dos elementos da diagonal principal de A e
designa-se por tr(A).
Definição: Característica de uma matriz é o numero de linhas não nulas depois de aplicar o
método de eliminação de Gauss(MEG), denota-se por car(...).
Teorema(teorema que cresce): Seja A uma matriz n×n. Então são equivalentes as afirmações:
(a) A é invertível.
(b) O SEL Ax=0 tem apenas solução trivial.
(c) Para qualquer b, o SEL Ax=b tem sempre solução única.
(d) A pode ser expressa como produto de matrizes elementares.
(e) Car(A)=n.
(f) det(A)≠0.
Subespaços:
Teorema: U é um subespaço linear de IEn se e só se:
(ii) uv∈U ∀ u, v ∈U
(iii) ⋅u∈U ∀ u∈U,∈IE
(i) 0∈U
Definição: Um vector w é chamado de combinação linear dos vectores v1, v2, ..., vn se pode ser
expresso na forma w=k1v1+k2v2+...+knvn , onde k1, k2, ..., kn são escalares.
n
Definição: Seja v 1 , v2 ,... , vm ∈ F . Então o conjunto constituído por todas as combinações
lineares g1 v 1g 2 v 2...g m v m , onde g1 , g 2 , ..., g m ∈ F , é um subespaço de Fn. Este subespaço
é chamado de subespaço gerado por v 1 , v2 ,..., vm .
Definição: Se S={v1, v2, ..., vn} é um conjunto não-vazio de vectores, então a equação vectorial
k1v1+k2v2+...+knvn=0 tem pelo menos uma solução, nomeadamente k1=0, k2=0, ..., kn=0. Se esta é
a única solução, então S é um conjunto linearmente independente. Se existem outras soluções S
é um conjunto linearmente dependente.
Definição: Se V é um espaço qualquer e S={v1, v2, ..., vn} é um conjunto de vectores de V, então
S é uma base para V se e só se S é linearmente independente e S gera V.
Teorema: Se S={v1, v2, ..., vn} é uma base para o espaço V, então qualquer vector v em V pode
ser expresso na forma v=c1v1+c2v2+...+cnvn de apenas uma forma.
Definição: Um espaço V diferente de zero é dimensionalmente finito se contem um conjunto de
vectores finito {v1, v2, ..., vn} que formam a base. Se tal conjunto não existir, V é dimensionalmente
infinito. O espaço zero é dimensionalmente finito.
Definição: A dimensão de um espaço dimensionalmente finito V, denotado de dim(V), é o
numero de vectores de uma base para V. O espaço zero tem dimensão zero.
Espaço de soluções: O conjunto de vectores que satisfazem o sistema homogéneo Ax=0
formam um espaço chamado de espaço de soluções.
Definição: Se A é uma matriz m×n, então o subespaço de IRn gerado pelos vectores linha de A é
chamado de espaço das linhas de A, e o subespaço IRm gerado pelos vectores coluna é chamado
de espaço das colunas de A. O espaço de soluções do sistema de equações homogéneo
Ax=0,que é um subespaço de IRn, é chamado de espaço nulo de A (que é equivalente a núcleo
de A, denotado por Nuc(A)).
Teorema: Operações elementares de linhas não mudam o espaço nulo da matriz.
Teorema: Operações elementares de linhas não mudam o espaço das linhas da matriz.
Teorema: Seja A uma matriz qualquer, o espaço das linhas e o espaço das colunas de A tem a
mesma dimensão.
Definição: A dimensão comum ao espaço das linhas e ao espaço das colunas de uma matriz A é
chamado característica de A, e denotado por car(A). A dimensão do espaço nulo da A é chamado
de nulidade de A e é denotado por Nul(A).
Teorema: Seja A uma matriz qualquer, então car(A)=car(AT).
Teorema: Seja A uma matriz com n colunas, então car(A)+Nul(A)=n.
Definição: Uma função é uma regra que associa a cada elemento do domínio, um elemento do
conjunto de chegada.
Definição: Se T:V→W é uma função de um espaço vectorial V para um espaço vectorial W,
então T é chamado uma transformação linear de V para W se para todos os vectores u e v em V
e todos os escalares c
(a) T(u+v)=T(u)+T(v)
(b) T(cu)=cT(u)
No caso de V=W, a transformação linear T:V→V é chamado operador linear em V.
Definição: T:U→V é uma transformação linear, então:
Núcleo: NT={u∈U : Tu=0}⊂U
Imagem: Im T={Tu :u∈U}⊂V
Teorema: Sejam WœIRp e S={v1,v2,...vn}œIRm bases para um espaço vectorial, u um vector
pertencente a IRm, T:IRm →IRp uma transformação linear então
(T(u))W =[(T(v1))W (T(v2))W ... (T(vn))W].(u)S
Definição: Uma transformação linear T:U→V diz-se injectiva se e só se T(x)=T(y)8x=y !x,yœU
Teorema: Uma transformação linear T é injectiva se e só se Nuc(T)={0}.
Definição: Uma transformação linear T:U→V diz-se sobrejectiva se Im(T)=V.
Definição: Uma transformação linear T:U→V é bijectiva(ñisomorfismo entre U e V) se for
injectiva e sobrejectiva.
Teorema: Se T é uma transformação linear bijectiva então T-1 também é uma transformação
linear.
Definição: Seja a transformação linear T:U→U, os vectores uœU que têm a propriedade T(u)=λu
se u≠0 são chamados vectores próprios de T, os valores λ são chamados valores próprios de T e
E(λ)={uœU:T(u)=λu} o espaço próprio associado a λ.
Definição: Seja A uma matriz n×n det(A-λI) é o polinómio característico, det(A-λI)=0 a equação
característica.
Definição: A matriz quadrada A é chamada diagonalizável se existe uma matriz invertível P tal
que P-1AP é uma matriz diagonal, a matriz P é diagonalizante.
Teorema: Se A é uma matriz n×n, então as afirmações seguintes são equivalentes:
(a)A é diagonalizável, (b)A tem n vectores próprios linearmente independentes.
Teorema:Se D é uma matriz diagonal e D=P-1AP, então Ak=PDkP-1.
Procedimentos para diagonalizar uma matriz:
O teorema anterior garante que se A é uma matriz n×n com n vectores própios linearmente
independentes então é diagonalizavel.
(i) Encontrar n vectores próprios de A linearmente independentes, nomeadamente p1,p2,...,pn.
(ii) Formar a matriz P tendo p1,p2,...,pn como os seus vectores coluna.
(iii) A matriz P-1AP será então diagonal com λ1,λ2,...,λn como as suas entradas diagonais
sucessivas, onde λi é o valor próprio correspondente a pi, para i=1,2,...,n.
Definição: Chama-se espaço Euclidiano a um espaço linear com um produto interno.
Definição: O produto interno(o produto interno é designado por u•v ou <u,v>) usual designado
por u•v é dado por u•v=u1v1+u2v2+...+unvn.
Definição: Se v é um espaço Euclidiano, então a norma(ou comprimento) de um vector u um V é
denotado por ||u|| e é definido por ||u||=<u,u>1/2. A distancia entre dois pontos(vectores) u e v é
denotada por d(u,v) e é definida por d(u,v)=||u-v||.
Definição: Uma matriz quadrada com a propriedade A-1=AT é uma matriz ortogonal.
Definição: Uma matriz quadrada diz-se ortonormada se as suas colunas formarem um conjunto
ortonormado.
Teorema(Desigualdade de Cauchy-Schwarz): Se u e v são vectores de um espaço Euclidiano,
então |<u,v>|A||u|| ||v||.
Definição: Dois vectores u e v num espaço Euclidiano são ortogonais se <u,v>=0.
Definição:Seja W um subespaço de um espaço Euclidiano V. Um vector u em V é dito ser
ortogonal a W se é ortogonal a cada vector de W, e o conjunto constituído por todos os vectores
em V que são ortogonais a W é chamado de complemento ortogonal de W (W ┴).
⟨v , u⟩
v .
Teorema(Projecção de u sobre v): Pv u=
∥v∥2
Método para encontrar uma base ortogonal de vectores(Ortogonalização de GramSchmidt): Seja {v1,v2,...,vn}%IRn uma base para IRn.
w1 =v 1
w 2=v 2−Pw v 2
w3 =v 3−Pw v3 −P w v 3
⋮
1
1
2
m −1
wm =vm − ∑ P w vm
i=1
i
n
{w1,w2,...,wm} são uma base ortogonal para Ir
(u/||u|| é um vector com norma 1 e com a direcção de u).
Teorema(Melhor aproximação): Seja S um subespaço de V e v%V. Então existe um único vector
v'%S mais próximo de v do que qualquer outro vector de S. v' é exactamente a projecção
ortogonal de v sobre S. ||v-PSv||A||v-y|| !y%S (||v-PSv|| distancia de v a S).
Teorema(teorema da dimensão): Sejam U um espaço linear de dimensão finita e T uma
transformação linear que tem como espaço de partida U.
Então, o subespaço Im(T) tem dimensão finita e dim(Nuc(T))+dim(Im(T))=dim(U).
Definição: Chama-se forma quadrática(F.Q.) a uma função Q:IRn→IR que pode ser escrita na
forma Q(x)=xTAx sendo A uma matriz simétrica.
Definição: Diz-se que uma forma quadrática ou uma matriz simétrica que lhe está associada é:
1-Definida positiva se Q(x)>0, !x≠0 8 todos os valores próprios>0.
2-Definida negativa se Q(x)<0, !x≠0 8 todos os valores próprios<0.
3-Semidefinida positiva se Q(x)B0 !x 8 todos os valores própriosB0.
4-Semidefinida negativa se Q(x)A0 !x 8 todos os valores própriosA0.
5-Indefinida se Q(x) assume valores positivos e negativos 8 Uns valores próprios>0 outros<0.
Teorema: Se A é uma matiriz m×n, então:
(a)O espaço nulo de A e o espaço das linhas de A são complementos ortogonais em IRn de
acordo com o produto interno Euclidiano.
(b)O espaço nulo de AT e o espaço das colunas de A são complementos ortogonais em IRm de
acordo com o produto interno Euclidiano.
Teorema: Seja W um subespaço dimensionalmente finito do espaço Euclidiano V. Se {v1,v2,...,vr}
é uma base ortonormada para W, e u é um vector de V, então Pwu=<u,v1>v1+<u,v2>v2+...+<u,vr>vr
------------------------------------------------Apontamentos compilados por David Nuno Quelhas. Foram concretizados a partir de várias fontes de informação distintas
(Internet, Livros, slides utilizados em aulas, apontamentos pessoais). Sem desvalorizar a informação presente nestes
apontamentos, estes devem ser utilizados sempre sujeitos ao discernimento individual. Nas circunstancias em que é
necessário garantir a qualidade/exactidão da informação devem ser utilizados Livros de referencia, e/ou fontes que se saiba
serem de confiança.
Download