Manual de Álgebra Linear Cursos: LMAC, MEBiom, MEFT 1o Semestre 2011/2012 Prof. Paulo Pinto http://www.math.ist.utl.pt/∼ppinto/ Conteúdo 1 Sistemas lineares e Matrizes 1 2 Determinantes 6 3 Espaços lineares 8 4 Valores e vectores próprios para matrizes 14 5 Transformações lineares 16 6 Produtos internos 19 7 Tópicos adicionais e aplicações 24 8 Notação usada 28 Índice alfabético 29 1 Sistemas lineares e Matrizes 1. Uma matriz A = [aij ]m×n , do tipo m × n (m por n), é n colunas: a11 a12 a21 a22 A= . .. .. . am1 am2 uma tabela de mn números dispostos em m linhas e · · · a1n · · · a2n .. . ··· . ··· amn O conjunto de todas as matrizes reais m × n designa-se por Mm×n (R); ou Mm×n (C), no caso dos complexos. Matriz diagonal é uma matriz quadrada (i.e. m = n) cujas entradas fora da diagonal principal são todas nulas; as entradas a11 , a22 , ..., ann formam a diagonal principal de A. A matriz identidade I é a matriz diagonal cuja diagonal principal é toda igual a 1. Matriz nula 0 do tipo m × n é a matriz com todas as entradas iguais a zero. A matriz quadrada A diz-se triangular superior se as entrada abaixo da diagonal principal de A forem todas nulas (i.e. aij = 0 se i > j). 2. Operações algébricas • A entrada (i, j) da matriz soma A + B é dada por aij + bij sendo A = [aij ] e B = [bij ] matrizes do mesmo tipo m × n. 1 4 −1 0 −3 2 1 1 1 Exemplo: + = . −3 2 6 4 −1 −5 1 1 1 • O produto de uma matriz A = [aij ] do tipo m × n por escalar α é a matriz αA = [αaij ]. • O produto matricial A = [aij ] do tipo m × p com outra matriz B = [bij ] do tipo p × n é uma matriz C = [cij ] do tipo m × n, designada por AB, cuja entrada (i, j) é dada por p X cij = ai1 b1j + ai2 b2j + ... + aip bpj = aik bkj . k=1 1 2 1 3 5 3 1 3 1 2 7 −19 Exemplo: = , = 3 −7 2 0 −11 9 2 0 3 −7 2 4 Assim, o produto de matrizes não é comutativo! 1 • A transposta da matriz A = [aij ] de tipo m × n é a matriz AT = [aji ] de tipo n × m. • tr(A) = a11 + .... + ann é o traço da matriz A = [aij ] T 1 −3 1 4 −1 2 e tr Exemplo: = 4 −3 2 6 −1 6 do tipo n × n. 1 −3 0 4 2 7 = −6. −1 6 −9 3. Sempre que as operações sejam possı́veis temos: • (Comutatividade da soma) A + B = B + A. • (Associatividade da soma) A + (B + C) = (A + B) + C. • (Elemento neutro da soma) A + 0 = 0 + A = A, para toda a matriz A do tipo m × n. • (Simétrico) Para cada matriz A existe uma única matriz B tal que A + B = 0. (B é −A). • (Associatividade do produto por escalares) α (βA) = (αβ) A, com α, β escalares. • (Distributividade) (α + β) A = αA + βA. • (Distributividade) α (A + B) = αA + αB. • (Associatividade do produto de matrizes) A (BC) = (AB) C. • (Distributividade) A (B + C) = AB + AC e (B + C) D = BD + CD. • (Elemento neutro para a multiplicação matricial) AI = IA = A. T • α (AB) = (αA) B = A (αB), AT = A, (A + B)T = AT + B T , (αA)T = αAT , (AB)T = B T AT . • tr(AB) = tr(BA). Em geral: AB = 0 não implica que A = 0 ou B = 0. Dada A matriz quadrada, define-se A2 = AA, A3 = A(AA), ..., Ak = AAk−1 (com k ∈ N). Sejam A, B, C matrizes: define-se a soma A + B + C := (A + B) + C, caso exista. Defines o ABC := A(BC), caso exista (e por recorrência podemos definir A1 + ... + As e A1 ....As ). 4. Uma matriz n × n diz-se invertı́vel se existe outra matriz B tal que AB = BA = I. Caso exista a matriz inversa de A é única e designa-se por A−1 . Teorema: Sendo A, B invertı́veis então AB, αA, AT são invertı́veis, para qualquer escalar não nulo α e (A−1 )−1 , (AB)−1 = B −1 A−1 , (αA)−1 = α−1 A−1 , (AT )−1 = (A−1 )T . Teorema: • A matriz n × n A é invertı́vel sse car(A) = n. • Se A é invertı́vel, então o sistema linear Ax = b é possı́vel e determinada para cada b. A solução é x = A−1 b. 5. Operações elementares numa matriz qualquer A: • Li ↔ Lj , para representar que se efectuou a troca das linhas Li e Lj • αLi → Li , para representar que a linha Li foi multiplicada pelo escalar α 6= 0. • αLi + Lj → Lj , para representar que a nova linha Lj é obtida somando à linha Lj a linha Li previamente multiplicada por um escalar α. Para α = 1, esta operação elementar designa-se por operação de Jacobi. Se a matriz A foi transformada na matriz B usando uma operação elementar, então usamos a seguinte notação: A −−−−→ B, Li ↔Lj A −−−−−→ B, αLi →Li A −−−−−−−−→ B. αLi +Lj →Lj 6. Podemos usar sucessivamente as operações elementares e transformar a matriz A num matriz em escada em linha U = [uij ], onde por baixo do primeiro elemento não nulo (= pivô) de cada linha (e na mesma coluna) todos os elementos são nulos (uij = 0 para i > j); e as linhas nulas (caso existam) estão todas na parte inferior de U . Este é o método de eliminação de Gauss1 . Chama-se caracterı́stica de A, e designa-se por car(A), ao 1 Johann Carl Friedrich Gauss 1777–1855 2 número de linhas não nulas de U . No capı́tulo 3 prova-se que car(A) está bem definida e que car(A) = car(AT ). 1 1 1 Exemplo: Seja A = 2 1 4 . Assim car(A) = 3, porque: 2 3 5 1 1 1 1 1 1 1 1 1 A −−−−−−→ 0 −1 2 −−−−−−→ 0 −1 2 −−−−→ 0 −1 2 = U. −2L1 +L2 −2L1 +L3 L2 +L3 2 3 5 0 1 3 0 0 5 7. Uma matriz elementar do tipo n × n é uma matriz obtida da matriz identidade I através de uma única operação elementar. (i) A matriz Pij , chamada matriz de permutação, é a matriz elementar obtida por troca da linha i com a linha j da matriz I (i 6= j). (ii) A matriz Ei (α) é a matriz elementar obtida da matriz I através do produto do escalar α 6= 0 pela linha i. (iii) A matriz Eij (α) é a matriz elementar obtida da matriz I por soma da linha j com um múltiplo α da linha i. Exemplo: Algumas matrizes elementares 3 × 3: 0 1 0 α 0 0 1 0 0 P12 = 1 0 0 , E1 (α) = 0 1 0 , E2 (α) = 0 α 0 , 0 0 1 0 0 1 0 0 1 1 0 0 1 α 0 E12 (α) = α 1 0 , E21 (α) = 0 1 0 . 0 0 1 0 0 1 Se a matriz A foi transformada na matriz B usando uma operação elementar, então usamos a seguinte notação: Pij A −−−−→ B, Li ↔Lj Eij (α) Ei (α) A −−−−−→ B, A −−−−−−−−→ B. αLi →Li αLi +Lj →Lj (1) Teorema: • As matrizes elementares são invertı́veis, tendo-se Pij−1 = Pij , 1 Ei (α)−1 = Ei ( ), α e Eij (α)−1 = Eij (−α). • Se A −→ B usando uma operação elementar cuja matriz elementar é E. Então EA = B. E • (Decomposição triangular) Se a matriz triangular superior U é obtida por sucessivas operações elementares na matriz A, em que nenhuma das operações é do tipo permutação, então existe uma matriz triangular inferior L tal que A=LU. E E E 1 2 k Se A −→ A1 −→ A2 −→ · · · −−→ U então (Ek · · · E2 E1 )A = U . Assim, L = (E1−1 E2−1 · · · Ek−1 ). 1 1 1 1 1 1 Exemplo: Seja A = 2 1 4 . Tem-se: E23 (1)E13 (−2)E12 (−2)A = 0 −1 2 . Logo, 2 3 5 0 0 5 1 1 1 1 1 1 A = (E12 (−2))−1 (E13 (−2))−1 (E23 (1))−1 0 −1 2 = E12 (2)E13 (2)E23 (−1) 0 −1 2 , 0 0 5 0 0 5 1 0 0 1 1 1 ou ainda, A = LU com L = E12 (2)E13 (2)E23 (−1) = 2 1 0 e U = 0 −1 2 . 2 −1 1 0 0 5 3 8. (1o algoritmo para o cálculo da inversa) Teorema: Sendo A invertı́vel, podemos transformar a matriz A na matriz identidade I usando operações elementares: E E E E s 1 2 k I, A −→ A1 −→ A2 −→ · · · −−→ U −→ Ak+1 −→ · · · −→ Ek+1 isto é (Es ...Ek ...E1 )A = I, e portanto A−1 = Es · · · Ek · · · E1 . (2) 0 0 π Exemplo: Seja A = 2 3 1 . Tem-se 1 1 0 1 1 0 1 1 0 1 1 0 1 1 0 1 E3 ( π ) E12 (−2) E21 (−1) E32 (−1) P A −−−13−→ 2 3 1 −−−−−−→ 0 1 1 −−−−− −→ 0 1 1 −−−−−→ 0 1 0 −−−−−→ I. 1 −2L1 +L2 L1 ↔L3 −L2 +L1 −L3 +L2 L →L3 π 3 0 0 π 0 0 π 0 0 1 0 0 1 Assim, A−1 = E21 (−1)E32 (−1)E3 ( π1 )E12 (−2)P13 = 1 −1 0 1 0 0 1 0 = 0 1 0 0 1 −1 0 1 0 0 1 0 0 1 0 0 1 1 0 0 0 0 1 0 π 0 −2 1 0 0 1 0 = − π1 1 1 0 0 1 1 0 0 π π −1 3 1 −2 . 0 0 Além disso, se um das linhas de uma matriz for toda nula, então essa matriz não é invertı́vel. Teorema: A ∈ Mn×n invertı́vel se e só se car(A) = n. 9. Equação linear nas variáveis x1 , x2 , ..., xn é toda a equação na forma a1 x1 + a2 x2 + ... + an xn = b onde a1 , a2 , ..., an , b são escalares (reais ou complexos). 10. Um sistema de m equações lineares com n incógnitas é um conjunto de equações lineares da forma a11 x1 + a12 x2 + ... + a1n xn = b1 a21 x1 + a22 x2 + ... + a2n xn = b2 ... am1 x1 + am2 x2 + ... + amn xn = bm (3) em que aij e bk são escalares, para i, k = 1, ..., m e j = 1, ..., n. Se nada for dito em contrário, estaremos a estudar sistemas lineares com variáveis reais (e coeficientes reais). 11. Conjunto solução do sistema (3) é o conjunto, designado por SAx=b ou simplesmente S, de todas as soluções de (3), isto é n o S = (x1 , ..., xn ) ∈ Rn : (x1 , ..., xn ) é solução de todas as equações de (3) . 12. Escrita Matricial Ax = b do sistema linear (3) onde a11 a12 · · · a1n a21 a22 · · · a2n A= . .. .. , . . . ··· . am1 am2 · · · amn x= x1 x2 .. . e Matriz aumentada do sistema linear (3) é a matriz: [A|b] = a11 a21 .. . . bm a12 a22 .. . am1 am2 4 b= xn b1 b2 .. . ··· ··· ··· ··· a1n a2n .. . amn b1 b2 . bn 13. Teorema: Se a matriz aumentada [A|b] é transformada numa matriz aumentada [U |c] usando operações elementares então SAx=b = SU x=c . Note que [A|b] → [A1 |b1 ] usando uma operação elementar então é claro que SAx=b ⊂ SA1 x=b1 . Por outro lado, podemos escolher outra operação elementar tal que [A1 |b1 ] → [A|b]. Assim, temos SAx=b = SA1 x=b1 e podemos escrever os dois passos efectuados como se segue: [A|b] −−−−→ [A1 |b1 ] −−−−→ [A|b], Li ↔Lj [A|b] −−−−−→ [A1 |b1 ] −−−−−→ [A|b], Lj ↔Li αLi →Li 1 L →Li α i [A|b] −−−−−−−−→ [A1 |b1 ] −−−−−−−−−→ [A|b]. αLi +Lj →Lj −αLi +Lj →Lj 14. Se [A|b] −→ [U |c] com [U |c] em escada de linhas, então podemos escolher para variáveis livres (caso existam) do sistema Ax = b as que correspondem às colunas de U sem pivô. x 0 0 3 −9 6 3z − 9w = 6 y 5x + 15y − 10z + 40w = −45 na forma matricial é 5 15 −10 40 Exemplo: z = −45 . x + 3y − z + 5w = −7 1 3 −1 5 −7 w Consideremos então a matriz aumentada e o consequente método de eliminação de Gauss: 6 1 3 −1 5 −7 0 0 3 −9 5 15 −10 40 −45 −→ 1 3 −2 8 −9 −→ L1 ↔L3 −L1 +L2 →L2 1 3 −1 5 −7 0 0 3 −9 6 1 L →L2 5 2 1 3 −1 5 −7 1 3 −1 5 −7 0 0 −1 3 −2 . −→ −→ 0 0 −1 3 −2 3L2 +L3 →L3 0 0 3 −9 6 0 0 0 0 0 x = −3y − 2w − 5 x + 3y − z + 5w = −7 . Podemos considerar y e w como as incógnitas ⇔ Logo, z = 3w + 2. −z + 3w = −2 livres (isto é podem tomar valores arbitrários) e as incógnitas x e z as não livres. O conjunto solução é: S = {(−3y − 2w − 5, y, 3w + 2, w) : y, w ∈ R} . (4) Neste exemplo o sistema tem infinitas soluções 15. Teorema: Se x0 e x1 são duas soluções distintas x0 6= x1 do sistema Ax = b, então para cada escalar α, x0 + α(x1 − x0 ) é uma solução de Ax = b. Mais, α 6= µ sse x0 + α(x1 − x0 ) 6= x0 + µ(x1 − x0 ). Assim, p.ex., não há nenhum sistema linear com precisamente 2 soluções. 16. Classificação dos sistemas lineares: • Impossı́veis (os que têm o conjunto-solução vazio), • Possı́veis e Determinados (os que têm uma única solução), • Possı́veis e Indeterminados (os que têm um número infinito de soluções). Teorema: • Sistema Ax = b impossı́vel ⇐⇒ car(A) 6= car([A|b]), • Sistema Ax = b determinado ⇐⇒ car(A) = car([A|b]) = número de colunas de A, • Sistema Ax = b possı́vel e indeterminado ⇐⇒ car(A) = car([A|b]) 6= número de colunas de A. Exemplos: O sistema linear associado 1 1 1 1 0 0 a cada matriz aumentada seguinte 1 1 1 1 1 1 1 1 1 1 , 1 2 1 1 , 1 0 0 0 0 0 0 é impossı́vel, possı́vel e indeterminado, possı́vel e determinado (respectivamente). 17. Sistema homogéneo é todo o sistema da forma Ax = 0, cuja matriz dos coeficientes (independentes) é a matriz nula. Claro que qualquer sistema homogéneo é possı́vel, em que (x1 , ..., xn ) = (0, ..., 0) é uma solução. 5 18. Teorema: Seja S o conjunto solução do sistema Ax = b e x1 ∈ S. Seja ainda S0 o conjunto solução dos sistema homogéneo associado Ax = 0. Então temos S = x1 + S0 . Exemplo: Na equação (4) obtivemos S = {(−3y − 2w − 5, y, 3w + 2, w) : y, w ∈ R}. Note que (−3y − 2w − 5, y, 3w + 2, w) = (−5, 0, 2, 0) + (−3y − 2w, y, 3w, w). O ponto x1 = (−50, 2, 0) é uma solução particular de Ax = b e S0 = {(−3y − 2w, y, 3w, w) : y, w ∈ R} é o conjunto solução do sistema homogéneo. 19. Método de Gauss-Jordan:2 Sendo A invertı́vel, podemos aplicar operações elementares à matriz aumentada [A|I] de modo a transforma-la numa matriz na forma [I|B] (cf. (2)). Teorema: A−1 = B. 1 1 1 1 1 1 1 0 0 Exemplo: Seja A = 2 1 4 . Tem-se [A | I] = 2 1 4 0 1 0 −→ −2L1 +L2 −→L2 2 3 5 2 3 5 0 0 1 −2L1 +L3 −→L3 1 1 1 1 0 0 1 1 1 1 0 0 0 −1 2 −2 1 0 0 −1 2 −2 1 0 −→ −→ 1 L2 +L3 −→L3 L −→L3 5 3 0 1 3 −2 0 1 0 0 5 −4 1 1 1 1 1 0 0 1 1 0 9/5 −1/5 −1/5 0 −1 0 −2/5 3/5 −2/5 −1 2 −2 1 0 −→ −→ −2L3 +L2 −→L2 L2 +L1 −→L1 −4/5 1/5 1/5 0 1 −4/5 1/5 1/5 0 0 1 −L3 +L1 −→L1 1 0 0 7/5 2/5 −3/5 2/5 −3/5 1 0 0 7/5 0 −1 0 −2/5 3/5 −2/5 −→ 0 1 0 2/5 −3/5 2/5 . −L2 −→L2 0 0 1 −4/5 1/5 1/5 0 0 1 −4/5 1/5 1/5 7/5 2/5 −3/5 −1 2/5 −3/5 2/5 . é invertı́vel e A = −4/5 1/5 1/5 1 0 0 Portanto A 2 Determinantes 1. Dados os números naturais 1, 2, ..., n chama-se permutação desses n números a qualquer lista em que os mesmos sejam apresentados por ordem arbitrária. Seja Sn o conjunto de todas as permutações dos números 1, 2, ..., n. Assim, o conjunto Sn tem n! elementos. Seja (i1 i2 ...in ) uma permutação dos números naturais 1, 2, ..., n. Diz-se que um par (ij ik ) é uma inversão quando ij e ik aparecerem na permutação por ordem decrescente. Uma permutação (i1 i2 ...in ) diz-se par (ı́mpar) quando o no máximo de inversões incluı́das fôr par (ı́mpar). Exemplos: S2 = {(12), (21)} cujo no de inversões é 0 e 1, respectivamente. Para n = 3 temos a seguinte tabela: (123) (132) (213) (231) (312) (321) inversões ∅ (32) (21) (21), (31) (31), (32) (32), (31), (21) paridade par ı́mpar ı́mpar par par ı́mpar Seja A = [aij ] matriz quadrada n × n. Determinante3 de A é o escalar que se associa à matriz A e que denotamos por det(A) ou |A| definido por: +1 se (j1 j2 ...jn ) é par X det(A) = |A| = sign(σ)a1j1 a2j2 ...anjn , onde sign(σ) = −1 se (j1 j2 ...jn ) é ı́mpar. σ=(j1 j2 ...jn )∈Sn Note que sign(σ1 ◦ σ2 ) = sign(σ1 )sign(σ2 ), onde ◦ designa a composição de permutações. Dado σ = (j1 ...jn ) existe uma única permutação (k1 ...kn ) tal que a1j1 a2j2 ...anjn = ak1 1 ak2 2 ...akn n e designa-se por σ −1 (inversa); 2 3 Marie Ennemond Camille Jordan 1838–1922 O Determinante de uma matriz foi pela primeira vez considerado por Talakazu Seki 1642–1708 6 mais, sign(σ −1 ) = sign(σ). Uma transposição τ é uma permutação que se obtém da trivial por troca de 2 posicões i e j; assim τ (k) = k para qualquer k ∈ / {i, j}, τ (i) = j, τ (j) = i (é facil verificar que sign(τ ) = −1). Exemplos: a11 det a21 a11 det a21 a31 a11 0 det . .. a12 a22 0 = a11 a22 − a12 a21 . a12 a13 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 . a32 a33 a12 · · · a1n a22 · · · a2n .. .. = a11 a22 ....ann (A matriz triangular superior). . ··· . 0 ··· ann Para matrizes elementares, temos det(Pij ) = −1, det(Ei (α)) = α, det(Eij (α)) = 1. 2. Sejam A, B matrizes n × n e α um escalar. Então: • Se B fôr obtida de A multiplicando uma linha de A por α então det B = α det A, i.e. para α 6= 0 det(A) = αLi →Li α−1 det(B). • Se B fôr obtida de A somando a uma linha de A um múltiplo α de uma outra linha de A então det B = det A: det(A) = αLi +Lj →Lj det(B). • Se B fôr obtida de A trocando duas linhas de A então det B = − det A, i.e. para i 6= j det(A) = Li ↔Lj − det(B). • det AT = det(A). • Se A fôr invertı́vel det A−1 = 1 . det(A) • det (αA) = αn det(A). • A invertı́vel se e só se det(A) 6= 0. • det (AB) = det(A) det(B). • Em geral, det(A + B) 6= det(A) + det(B). Exemplo: Aplicando elementares operações tem-se: 0 1 3 1 4 7 1 0 1 3 0 A= 1 4 7 −→ −→ L1 ↔L2 −2L1 +L2 →L2 2 1 −1 2 1 −1 0 pelo que det(A) = − det(U ) = −6. A matriz A é invertı́vel 4 7 1 4 7 0 1 3 = U, 1 3 −→ 7L2 +L3 →L3 −7 −15 0 0 6 pois det(A) 6= 0. 3. Seja A = [aij ] matriz n × n. Seja Aij a matriz do tipo (n − 1) × (n − 1) que se obtém de A suprimindo a linha i e a coluna j de A. Chama-se a Aij o menor-(i, j) da matriz A. Fórmula de Laplace: 4 det A = n X i+j aij (−1) det Aij e j=1 Exemplo: 4 7 0 0 3 2 1 0 4 0 −1 0 −2 1 0 −2 −3 7 0 0 = +2 2 1 4 0 −1 −2 det A = n X aij (−1)i+j det Aij . i=1 4 = 14 1 −1 −2 Pierre-Simon Laplace 1749–1827 7 = 14(−2 + 4) = 28. 4. Cálulo da matriz inversa usando os cofactores: A entrada (i, j) da matriz dos cofactores cof A de uma matriz A é dada por: (cofA)i,j = (−1)i+j det(Aij ). A matriz adjunta de A é a matriz cofA)T e designa-se por adj(A). T (−1)i+j det(A ) ji Teorema: (cofA)AT = A(cofA)T = det(A)I. Se A é invertı́vel então (A−1 )i,j = (cofA) . det(A) = det(A) a b Exemplo: Seja A = ∈ M2×2 (R). Então A é invertı́vel se e só se det A = ad − bc 6= 0 e nesse caso c d 1 d −b −1 A = . ad − bc −c a −1 7 0 0 3 2 1 0 4 Exemplo: 0 −1 0 −2 = 1 0 −2 −3 1,4 − det −1 det(A4,1 ) 28 = 0 0 3 1 0 4 −1 0 −2 28 = 0 28 = 0. 5. (Regra de Cramer5 .) Seja A ∈ Mn×n (R) invertı́vel. Então a única solução do sistema de equações lineares Ax = b é dada por 1 (cofA)T b. x = A−1 b = det A T T Isto é, sendo x = x1 . . . xn e b = b1 . . . bn tem-se xj = det Bj , det A onde Bj é a matriz obtida de A substituindo a coluna j de A pela matriz coluna b dos termos independentes. 2x + y = 8 −x + 2y + 4z = 7 pode ser resolvido usando a regra de Cramer: Exemplo: O sistema de equações lineares −x + z = 1 2 8 0 2 1 8 8 1 0 −1 7 4 −1 2 7 7 2 4 −1 1 1 −1 0 1 1 0 1 = 13, = −18 = 14. y= e z= x= 2 1 0 2 1 0 2 1 0 −1 2 4 −1 2 4 −1 2 4 −1 0 1 −1 0 1 −1 0 1 3 Espaços lineares 1. Seja V um conjunto não vazio munido com duas operações: soma entre elementos de V e produto de escalares com elementos de V . Munido com estas operações, V é um espaço linear (ou vectorial) se os seguintes 10 axiomas forem satisfeitos: (a) (Fecho da soma). Para quaisquer u, v ∈ V tem-se u + v ∈ V . (b) (Fecho do produto por escalares). Para quaisquer α ∈ R e u ∈ V tem-se αu ∈ V . (c) (Comutatividade da soma). Para quaisquer u, v ∈ V , u + v = v + u. (d) (Associatividade da soma). Para quaisquer u, v, w ∈ V , u + (v + w) = (u + v) + w. (e) (Elemento neutro da soma). Existe um elemento de V designado por 0 tal que, para qualquer u ∈ V , u + 0 = u. (f) (Simétrico). Para cada (qualquer) u ∈ V existe v ∈ V tal que u + v = 0. A v chama-se o simétrico de u e denota-se por −u. 5 Gabriel Cramer 1704–1752 8 (g) (Associatividade do produto por escalares). Para quaisquer α, β ∈ R e u ∈ V , α (βu) = (αβ) u. (h) (Distributividade em relação à soma de vectores). Para quaisquer α ∈ R e u, v ∈ V , α (u + v) = αu + αv. (i) (Distributividade em relação à soma de escalares). Para quaisquer α, β ∈ R e u ∈ V , (α + β) u = αu + βu. (j) Para qualquer u ∈ V , 1u = u. Se os escalares forem os reais, então dizemos que V é um espaço linear sobre R. Se os escalares forem os complexos, então dizemos que V é um espaço linear sobre C. Por defeito, estaremos a trabalhar com espaços lineares reais. 2. Seja U um subconjunto, não vazio, de um espaço linear V . Dizemos que U é um subespaço linear de V se U é um espaço linear, munido pelas mesmas operações de V . Teorema: U é um subespaço linear de V se e só se: • 0 ∈ U, • u, v ∈ U =⇒ u + v ∈ U , • α escalar, u ∈ U =⇒ αu ∈ U . Exemplos: • V = Rn é um espaço linear munido com a soma vectorial e multiplicação usuais. • V = Cn é um espaço linear munido com a soma vectorial e multiplicação por reais usuais. • V = Cn é um espaço linear munido com a soma vectorial e multiplicação por complexos usuais. • O conjunto dos polinómios Pn com coeficientes reais de grau menor ou igual a n é um espaço linear. • O conjunto dos polinómios P com coeficientes reais. • O conjunto V = {f : R → R} das funções reais de variável real é um espaço linear munido com a soma de funções e multiplicação de escalares por funcções usuais (i.e., (f + g)(t) = f (t) + g(t), (αf )(t) = αf (t)). • O conjunto Mm×n (R) das matrizes reais m × n é um espaço linear com a soma matricial e multiplicação por escalares definidas no Capı́tulo 1. Exemplos de subespaços lineares: • Se V é um espaço linear, então V e {0} são subespaços lineares de V . • U = {(x, y, z) ∈ R3 : x − y + 4z = 0, x + 3y = 0} é subsespaço linear de R3 . • U = {p(t) ∈ P2 : p(2) = 0} é um subespaço linear de P2 . • Seja A matriz real 2 × 2. Então U = {X ∈ M2×2 (R) : AX = XA} é um subespaço linear de M2×2 (R). 3. Núcleo de uma matriz: Seja A ∈ Mm×n (R). O núcleo de A é o conjunto de solução do sistema homogéneo associado à matriz A e designa-se por N (A), i.e. N (A) = {u ∈ Rn : Au = 0}. Teorema: N (A) é um subespaço linear de Rn . Exemplo: Seja U = {(x, y, z, w) ∈ R4 : x − 2y + 3z + 4w = 0, 7x − w = 0}. Então U é um subespsço linear de 1 −2 3 4 R4 , uma vez que U = N (A) onde A = . 7 0 0 −1 4. Combinação linear: Um vector v ∈ V é combinação linear de uma lista de vectores v1 , ..., vk se existirem escalares α1 , ..., αk tais que α1 v1 + α2 v2 + ... + αk vk = v. O conjunto de todas as combinações lineares de v1 , ..., vk é designado por L({v1 , ..., vk }). Teorema: L({v1 , ..., vk }) é um subespaço linear de V . Mais, é o menor subespaço linear de V que contém os vectors v1 , ..., vk e que também é designado por subespaço gerado (ou expansão linear) por v1 , ..., vk . P.ex., v1 ∈ L({v1 , ..., vk }), pois v1 = 1v1 + 0v2 + ... + 0vk . O vector nulo 0 ∈ L({v1 , ..., vk }). Se vk+1 ∈ L({v1 , ..., vk }), então L({v1 , ..., vk }) = L({v1 , ..., vk , vk+1 }). Se v1 6= 0, L({v1 }) é uma recta. Se v1 e v2 não são colineares em R3 , L({v1 , v2 }) é um plano. 9 Exemplo: • Se V = Rn , então v ∈ L({v1 , ..., vk }) se e só se o sistema Ax = b é possı́vel onde as colunas de A são formadas pelas vectores v1 , ..., vk e b é o vector v escrito em coluna (A é do tipo n ×k). −1 1 0 −1 2 1 2 • (−1, 2, 7) ∈ L({(−1, 1, 6), (1, 2, −3), (0, 1, 1)}) pois o sistema cuja matriz aumentada é 1 6 −3 1 7 é possı́vel. Analogamente, podemos verificar que (1, 2, 7) ∈ / L({(−1, 1, 6), (1, 2, −3), (0, 1, 1)}). • Como (0, 1, 1) = 13 (−1, 1, 6)+ 31 (1, 2, −3), temos L({(−1, 1, 6), (1, 2, −3), (0, 1, 1)}) = L({(−1, 1, 6), (1, 2, −3)}). 5. Espaço das colunas e das linhas de uma matriz: Seja A matriz m × n. O subespaço linear de Rn gerado pelas linhas de A é o espaço linhas de A e designado por L(A) ou LA . O subespaço linear de Rm gerado pelas colunas de A é o espaço colunas de A e designado por C(A) ou CA . Note que v ∈ C(A) se v = Au para algum vector u, pois a11 a12 · · · a1n a1n a11 v1 a21 a22 · · · a2n u1 . . . .. . = Au = .. .. .. .. = u1 .. + ... + un .. . . . ··· . amn am1 un vm am1 am2 · · · amn Assim, CAT = LA e LAT = CA . −1 1 0 Exemplo: • A = , temos LA = L({(−1, 1, 0), (1, 2, 1)}) e CA = L({(−1, 1), (1, 2), (0, 1)}). 1 2 1 • Se V = L({v1 , ..., vk }) subespaço de Rn , então V = C(A) onde as colunas de A são os vectores v1 , ..., vk . 6. Intersecção e soma de subespaços lineares: Se V1 , V2 são subespaço lineares de V , sejam V1 ∩ V2 = v ∈ V : v ∈ V1 e v ∈ V2 , V1 + V2 = v ∈ V : v = v1 + v2 com v1 ∈ V1 , v2 ∈ V2 . Teorema: V1 ∩ V2 e V1 + V2 são subespaços lineares de V . Dizemos que V1 e V2 estão em soma directa se V1 ∩ V2 = {0}; e escrevemos V1 ⊕ V2 para designar V1 + V2 . Se V1 = L(S1 ) e V2 = L(S2 ) então V1 + V2 = L(S1 ∪ S2 ). Note que a união de subespaços lineares, em geral, não é subespaço linear. Exemplos: • Se V1 = L({(−1, 1, 0), (1, 2, 1)}) e V2 = {(x, y, z) ∈ R3 : y + z = 0, −x − y + 3z = 0}. Vamos descrever V1 através de equações lineares homogéneas e descrever V2 como a expansão linear de vectores. Ora v = (x, y, z) ∈ V1 sseexistirem escalares α1 , α2 tais que α1 (−1, 1, 0) + α2 (1, 2, 1) = v, i.e. se o sistema cuja −1 1 x matriz aumentada é 1 2 y for possı́vel. Usando o método de eliminação de Gauss temos: 0 1 z −1 1 x −1 1 x −1 1 x −1 1 x 1 2 y −→ 0 3 x + y −→ 0 1 . z −→ 0 1 z 0 1 z 0 1 z 0 3 x+y 0 0 x + y − 3z (5) Portanto (x, y, z) ∈ V1 se e só se x + y − 3z = 0; pelo que V1 = {(x, y, z) ∈ R3 : x + y − 3z = 0}. Relativamente a V2 , em primeiro lugar temos que encontrar as variáveis livres do sistema homogéneo associado. Podemos considerar z como livre e vem y = −z e x = −y +3z = 4z. Portanto v = (x, y, z) ∈ V2 se e só se v = (4z, −z, z); como (4z, −z, z) = z(4, −1, 1) podemos concluir que V2 = L({(4, −1, 1)}). Assim V1 ∩ V2 = {(x, y, z) ∈ R3 : x + y − 3z = 0, y + z = 0, −x − y + 3z = 0} e V1 + V2 = L({(−1, 1, 0), (1, 2, 1), (4, −1, 1)}). • Em R3 , considere os subespaços: U = L ({(1, −1, 1), (1, 2, 2)}) e V = L ({(2, 1, 1), (−1, 1, 3)}) . Seja v ∈ U , então v = α(1, −1, 1) + β(1, 2, 2) = (α + β, −α + 2β, α + 2β), 10 com α, β ∈ R. Para que v esteja também em V é preciso que: v = (α + β, −α + 2β, α + 2β) = λ(2, 1, 1) + µ(−1, 1, 3) = (2λ − µ, λ + µ, λ + 3µ) , α + β = 2λ − µ −α + 2β = λ + µ Considerando a matriz aumentada tem-se com λ, µ ∈ R. Deste modo, α + 2β = λ + 3µ. 1 1 2λ − µ 1 1 2λ − µ 1 1 2λ − µ −1 2 λ + µ 0 3 0 3 3λ 3λ −→ −→ L1 +L2 →L2 − 13 L2 +L3 →L3 1 2 λ + 3µ −L1 +L3 →L3 0 1 −λ + 4µ 0 0 −2λ + 4µ Logo, α=µ α + β = 2λ − µ β = 2µ β=λ ⇐⇒ λ = 2µ. 0 = −2λ + 4µ. Assim, v = α(1, −1, 1) + β(1, 2, 2) = µ(1, −1, 1) + 2µ(1, 2, 2) = (3µ, 3µ, 5µ) = µ(3, 3, 5). Logo, U ∩ V = {(3µ, 3µ, 5µ) : µ ∈ R} ={µ(3, 3, 5) : µ ∈ R} = L ({(3, 3, 5)}) . 7. Vectores geradores: S = {v1 , ..., vk } gera V se qualquer vector de V for combinação linear de vectores de S, i.e. se V = L({v1 , ..., vk }). Teorema: Sejam S1 ⊂ S2 subconjuntos de um espaço linear V . Então S2 gera V se S1 gera V . Se S = {v1 , ..., vk } são vectores de Rn então S gera V se e só se o sistema Ax = b for possı́vel para todo o vector (coluna) b ∈ V , onde as colunas de A são formadas pelos vectors de S. 2 Exemplos: • Os vectores v1 = (1, 0), v2 = (0, 1) geram R , porque o sistema cuja matriz aumentada é 1 0 x é possı́vel para qualquer b = (x, y) ∈ R2 ! 0 1 y 1 2 x 2 • Os vectores v1 = (1, 1), v2 = (2, 2) não geram R , porque o sistema cuja matriz aumentada é 1 2 y não é possı́vel para qualquer b = (x, y) ∈ R2 ! Os vectores geram o subespaço definido pela equação x − y = 0, i.e. 1), (2, 2)}) = {(x, y) ∈ R2 : x − y = 0} uma vez que o sistema cuja matriz aumentada é V = L({(1, 1 2 y é possı́vel para qualquer b = (y, y) ∈ V ! 1 2 y −1 2 x • Os vectores v1 = (−1, 1, 0), v2 = (1, 2, 1) não geram R3 pois o sistema 1 2 y não é possı́vel para 0 1 z qualquer b = (x, y, z) ∈ R3 . Os vectores geram o subespaço linear {(x, y, z) ∈ R3 : x + y − 3z = 0}; ver (5). 8. Independência linear: v1 , ..., vk dizem-se linearmente independentes se: α1 v1 + α2 v2 + .... + αk vk = 0 =⇒ α1 = α2 = ... = αk = 0. Caso contrário, os vectores dizem-se linearmente dependentes. Teorema: Se S1 ⊂ S2 subconjuntos de um espaço linear V . Então os vectores de S1 são linearmente independentes se os de S2 o forem. Se v1 , ..., vk ∈ Rn então os vectores v1 , ..., vk são linearmente independentes sse o sistema homogéneo Ax = 0 for determinado, i.e. car(A) = k, onde as colunas de A são os vectores de v1 , ..., vk . 1 0 Exemplos: • (1, 0), (0, 1) são linearmente independentes pois car = 2 (neste caso k = 2). 0 1 1 0 2 • (1, 0), (0, 1), (2, 2) são linearmente dependentes pois car = 2 (neste caso k = 3). 0 1 2 11 1 0 • (1, 1, 1), (0, 1, 1) são linearmente independentes pois car 1 1 = 2 (neste caso k = 2). 1 1 1 0 0 • (1, 1, 1), (0, 1, 1), (0, 0, 1) são linearmente independentes pois car 1 1 0 = 3 (neste caso k = 3). 1 1 1 1 0 0 1 • (1, 1, 1), (0, 1, 1), (0, 0, 1), (1, 2, 3) são linearmente dependentes pois car 1 1 0 2 = 3 (k = 4). 1 1 1 3 9. Base e Dimensão: v1 , v2 , ..., vk é uma base de V se: • v1 , v2 , ..., vk geram V e • v1 , v2 , ..., vk são linearmente independentes. Teorema: • Sejam B1 e B2 duas bases de V , então o número de vectores de B1 é igual ao número de vectores de B2 (eventualmente infinito). • Dado um espaço linear sobre os reais ou complexos, então existe uma base de V . A dimensão, dim(V ), de V é o número de vectores de uma base de V , p.ex. se B = {v1 , ..., vk } é uma sua base, dim(V ) = k. Teorema: Se U é um subespaço de V , então dim(U ) ≤ dim(V ). Teorema: Seja U = L({v1 , v2 , ..., vk }). Se v1 , v2 , ..., vk são linearmente independentes, então dim(V ) = k e {v1 , v2 , ..., vk } é uma base para U . Exemplos: • dim (Rn ) = n, dim(Mm×n (R)) = mn, dim (Pn ) = n + 1, dim (P) = +∞. • {(1, 0), (0, 1} é uma base de R2 (designada base canónica de R2 ). • {(1, 1), (1, −1} é uma base de R2 . • {(1, 1), (1, 1} não é uma base de R2 . • {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é uma base de R3 (designada base canónica de R3 ). • {(1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 1)} não é uma base de R3 . • {1, t, t2 , t3 } é uma base de P3 (designada base canónica de P3 ). • C2 é um espaço linear usando C como os escalares. Neste caso dim(C2 ) = 2 e {(1, 0), (0, 1)} é base de C2 . • C2 é um espaço linear usando R como os escalares. Neste caso dim(C2 ) = 4 e {(1, 0), (0, 1), (i, 0), (0, i)} é uma base de C2 . 10. Teorema de Steinitz: Sejam v1 , ..., vk um conjunto de vectores linearmente independentes num espaço linear V de dimensão finita. Então existe uma base de V que inclui os vectores v1 , ..., vk . Para vectores em Rn , considere u1 , ..., up uma base para V e seja A a matriz cujas colunas são formadas pelos vectores v1 , ...., vk , u1 , .., up (escritos por esta ordem e em coluna). Então V = C(A) e uma base para C(A) inclui os vectores v1 , ..., vk pois as colunas na matriz final em escada de linhas tem pivôs nas primeiras k colunas (pois v1 , ..., vk são linearmente independentes). 11. Identidade de Grassman6 ou Teorema das Dimensões: Sejam V1 e V2 subespaços lineares de dimensão finita de um espaço linear V . Então temos: dim(V1 + V2 ) = dim(V1 ) + dim(V2 ) − dim(V1 ∩ V2 ). Para subespaços de Rn podemos considerar uma base {u1 , ..., up } de V1 ∩V2 . Em seguida completamos, usando o teorema de Steinitz, esta base e assim obtém-se {u1 , ..., up , v1 , ...vk } base W1 e {u1 , ..., up , w1 , ...wr } base de V2 . Considerando a matriz A cujas linhas são os vectores u1 , ..., up v1 , ...vk , w1 , ...wr , facilmente se conclui que car(A)=dim(V1 + V2 ) e portanto a identidade de Grassman. 12. Bases e dimensão para núcleo, espaço linhas e espaço colunas de uma matriz: Seja A uma matriz m × n e vamos supor que é transformada numa matriz em escada de linhas U usando o método de Gauss. 6 Hermann Grassmann 1809–1877 12 Teorema: N (A) = N (U ), L(A) = L(U ) e car(A) = dim(C(A)) = dim(L(A)), car(A) + dim(N (A) = no de colunas de A e car(A)=car(AT ). É óbvio que L(A) = L(U ) e N (A) = N (U ). Além disso, se U é uma matriz em escada de linhas então as suas linhas não nulas são vectores linearmente independentes, pelo que car(A) =dimL(A) e que car(A) + dim(N (A)) = n. Vamos provar que dim(C(A)) = dim(L(A)). Seja k = car(A), R1 , ...Rk as linhas não nulas de U e L1 , ..., Lm as linhas de A. Como L(A) = L(U ), existem escalares cij tais que L1 = c11 R1 + ... + c1k Rk , ..., Lm = cm1 R1 + ... + cmk Rk . Para i = 1, ..., m, sejam aij e rij as componentes j das linhas Li e Ri respectivamente. Assim tem-se, a1j = c11 r1j + ... + c1k rkj , ou matricialmente ..., amj = cm1 r1j + ... + cmk rkj , a1j c11 c1k .. . . . = r1j .. + ... + rkj .. . amj cmk cmk a1j Como ... é a coluna j de A, a última igualdade prova que dimC(A) ≤ dimL(A). Aplicando esta desigualamj dade à matriz AT obtém-se dimC(AT ) ≤ dimL(AT ), i.e. dimL(A) ≤ dimC(A). Portanto dimC(A) = dimL(A). Também podemos concluir que car(A)=car(AT ). Teorema: N (A) ∩ L(A) = {0}, L(A) + N (A) = Rn . • Uma base para L(A) = linhas não nulas de U . • Uma base para C(A) = colunas da matriz inicial A que correspondem às colunas de U com pivô. • Uma base para N (A) = vectores envolvidos na escrita do vector geral do conjunto solução do sistema homogéneo U x = 0 (escolhendo para variáveis livres aquelas que correspondem às colunas de U sem pivô). Para provar N (A) ∩ L(A) = {0} basta ver que N (AT ) ∩ C(A) = {0}. Seja v ∈ N (AT ) ∩ C(A) (uT e v T são uma matrizes coluna). Então AT v T = 0 existe u tal que v T = AuT . Logo X 0 = u(AT v T ) = (uAT )v T = vv T = vi2 , pelo que v1 = ... = vm 1 Exemplo: A = −1 1 = 0, i.e. v = 0. 1 1 −1 1 1 1 −1 1 1 1 −1 −1 −1 1 −→ 0 0 0 0 −→ 0 0 1 2 = U. 1 2 1 0 0 1 2 0 0 0 0 Como car(A) = 2 temos dim(L(A)) = C(A) = 2 e dim(N (A)) = n − 2 = 2. Assim, {(1, 1, 1, −1), (0, 0, 1, 2)} é uma base para L(A) e {(1, −1, 1), (1, −1, 2)} é uma base para C(A). Finalmente, N (A) = N (U ) e podemos considerar as variáveis y e w livres, obtendo z = −2w, x = −y −z +w = −y + w. Portanto N (A) = {(−y + w, y, −2w, w) ∈ R4 : y, w ∈ R} e como (−y + w, y, −2w, w) = y(−1, 1, 0, 0) + w(1, 0, −2, 1) temos que {(−1, 1, 0, 0), (1, 0, −2, 1)} é uma base para N (A). 13. Coordenadas de um vector numa base: Seja B = {v1 , v2 , ..., vk } uma base ordenada de V (i.e. uma base de V onde se fixou uma ordem nos vectores dessa base) e seja v ∈ V . As coordenadas do vector v na base B são os (únicos) escalares α1 , α2 , ..., αk da combinação linear: v = α1 v1 + α2 v2 + ... + αk vk . 13 Designamos por vB = (α1 , ..., αk ) as coordenadas de v em B. Exemplos: • Seja B = {(1, 0), (0, 1)} a base canónica de R2 . As coordenadas vB do vector v = (x, y) em B coincidem com v, pois (x, y) = x(1, 0) + y(0, 1). x−y • Seja B = {(1, 1), (1, −1)} base de R2 . As coordenadas vB de um vector v = (x, y) em B são vB = ( x+y 2 , 2 ), x−y x+y pois (x, y) = 2 (1, 1) + 2 (1, −1). • Seja B = {(1, 1, 0), (1, −1, 0)} uma base para o subespaço V de R3 . As coordenadas vB de v = (3, −1, 0) na base B são vB = (1, 2), porque v = 1(1, 1, 0) + 2(1, −1, 0). Matriz mudança de base: Sejam B1 = {v1 , v2 , . . . , vn } e B2 = {w1 , w2 , . . . , wn } duas bases ordenadas de V . Seja SB1 →B2 a matriz cujas colunas são as coordenadas dos vectores de B1 em relação à base B2 . Isto é, SB1 →B2 = [sij ]n×n com vj = n X sij wi para todo o j = 1, ..., n. i=1 A matriz SB1 →B2 é invertı́vel e chama-se matriz de mudança de base (da base B1 para B2 ). Se v = α1 v1 + ... + αn vn , isto é, se (α1 , ..., αn ) forem as coordenadas do vector u na base B1 então as coordenadas (β1 , ..., βn ) de v na base B2 são dadas por β1 α1 α1 β1 .. . . . −1 −1 . = SB1 →B2 .. , .. = SB2 →B1 .. , SB1 →B2 = SB2 →B1 , SB2 →B1 = SB1 →B2 . βn αn αn βn Exemplo: Sejam B1 = {(1, 0), (0, 1)} e B2 = {(1, 1), (1, −1)} duas bases ordenadas de R2 . Temos −1 1 1 1 1 1 1 1 . SB2 →B1 = e SB1 →B2 = = 1 −1 1 −1 2 1 −1 Finalmente, para v = (x, y), temos vB1 = (x, y) e para calcular vB2 podemos usar SB1 →B2 : x+y x + y x − y x 2 , i.e. vB2 = , . SB1 →B2 = x−y y 2 2 2 4 Valores e vectores próprios para matrizes 1. Valores e vectores próprios: Seja A matriz quadrado n × n. Um vector u não nulo tal que Au = λu (para algum escalar λ) diz-se vector próprio de A e λ diz-se o valor próprio associado. p(λ) = det(A − λI) é o polinómio caracterı́stico de A; p(λ) é de facto um polinómio de grau n, em que det(A) e o coeficiente do termo independente e (−1)n é o coeficiente do termo de grau n. Espectro de A é o conjunto de todos os valores próprios de A e designa-se por σA . Teorema: λ é valor próprio de A se e só se λ for zero do polinómio caracterı́stico. Multiplicidade algébrica, ma (λ), de um zero λ de p(λ) é o número de vezes que λ é zero do polinómio. A soma das multiplicidades algébricas de todos os valores próprios de A é igual a n. Se A for matriz real, os coeficientes de p(λ) são todos reais, mas os zeros de p(λ) são números complexos. Exemplos: • Se 1 • Se A = 1 1 próprios λ1 = 0 A é do tipo 2 × 2, então p(λ) = λ2 − tr(A)λ + det(A). 1 1 1−λ 1 1 1 1 ; p(λ) = det 1 1−λ 1 = −λ2 (λ − 3). Portanto A tem dois valores 1 1 1 1 1−λ e λ2 = 3; ma (λ1 ) = 2 (zero duplo) e ma (λ2 ) = 1 (zero simples). 14 2. λ = 0 valor próprio de A se e só se A não invertı́vel. 3. Espaço próprio associado ao valor próprio λ é Eλ = N (A − λI). Os vectores não nulos de Eλ são os vectores próprios de A associados ao valor próprio λ. Mutliplicidade geométrica, mg (λ), de λ é igual à dim(Eλ ). Então λ valor próprio de A ⇐⇒ det(A − λI) = 0 ⇐⇒ A − λI não invertı́vel ⇐⇒ dim(Eλ ) 6= 0 ⇐⇒ λ ∈ σA . Teorema: Em geral temos 1 ≤ mg (λ) ≤ ma (λ). 1 1 1 Exemplo: A = 1 1 1 ; Eλ1 = N (A − 0I) = 1 1 1 −2 1 uma base para Eλ1 . Eλ2 = N (A − 3I) = N 1 base para Eλ2 . Assim, mg (λ1 ) = 2 e ma (λ2 ) = 1. 1 1 1 N (A) = N 0 0 0 0 0 0 1 1 1 −2 1 =N 0 1 −2 0 , portanto {(−1, 1, 0), (−1, 0, 1)} é 1 −2 1 −1 , portanto {(1, 1, 1)} é uma 0 0 Teorema: Se A tiver valores próprios distintos λ1 , ..., λr e se u1 , ..., ur forem vectores próprios associados, então u1 , ..., ur são linearmente independentes. 4. A e B dizem-se semelhantes se existir uma matriz S invertı́vel tal que B = SAS −1 . A diz-se diagonalizável se existir uma matriz diagonal D e uma matriz P invertı́vel: D = P AP −1 . Teorema: A diagonalizável sse mg (λ) = ma (λ) para cada valor próprio λ de A. Teorema: A diagonalizável sobre os reais sse existe uma base de Rn formada por vectores próprios de A. Nestas condições D = λ1 0 .. . 0 0 λ2 .. . 0 ··· ··· ··· ··· 0 0 .. . λn em que λ1 , ..., λn são os valores próprios de A, incluindo as respec tivas multiplicidades algébricas, e as colunas de P −1 são os vectores de bases dos espaços próprios associados. Assim, temos: Teorema: P = SBvp →Bc , P −1 = SBc→Bvp onde Bc é a base canónica e Bvp é uma base formada por vectores próprios de A e P −1 D = AP −1 , i.e: D = P AP −1 . Note que se D = P AP −1 , 1 1 Exemplos: • A = 1 1 1 1 então A = P −1 DP , A2 = P −1 D2 P, ..., Ak = P −1 Dk P para cada k ∈ N. 1 1 ; A diagonalizável pois mg (λ1 ) = ma (λ1 ) e mg (λ2 ) = ma (λ2 ). Mais, 1 0 0 0 −1 0 1 D = 0 0 0 , S −1 = 1 −1 1 . 0 0 3 0 1 1 4 1 0 1 2 •A= ; p(λ) = (λ − 4) , λ1 =4 valor próprio com ma (λ1 ) = 2 e Eλ1 = N (A − 4I) = N , pelo 0 4 0 0 que {(1, 0)} é uma base para Eλ1 e mg (λ1 ) = 1. Assim, mg (λ1 ) 6= ma (λ1 ) e portanto A não é diagonalizável. 0 −1 •A= ; p(λ) = λ2 + 1, pelo λ1 = i e λ2 = −i são os valores próprios (complexos) de A. Assim, A 1 0 não é diagonalizável enquanto matriz real. A matriz A é diagonalizável enquanto matriz complexa. Teorema: Se ma (λ) = 1 para todos os valores próprios λ de A, então A é diagonalizável. 15 5 Transformações lineares 1. Sejam V1 , V2 espaços lineares. Uma função T : V1 → V2 é uma transformação linear se • T (u + v) = T (u) + T (v) para quaisquer u, v ∈ V1 e • T (αu) = αT (u) para qualquer u ∈ V1 e escalar α. Exemplos: • T : R2 → R3 tal que T (x, y) = (2x − y, x, 4y) é uma transformação linear. • Seja A matriz real m × n. Então T : Rn → Rm definida por T (u) = Au é uma transformação linear. • Seja T : R2 → R2 transformação linear tal que T (1, 1) = (3, 4) e T (1 − 1) = (0, 0). Vamos determinar T (x, y) para um vector (x, y) qualquer. Em primeiro lugar determine-se as coordenadas de (x, y) na base x−y {(1, 1), (1, −1)}. Temos (x, y) = x+y 2 (1, 1) + 2 (1, −1); por outro lado usando o facto de T ser uma transformação linear, temos T (x, y) = T x+y x+y x−y x−y (1, 1) + (1, −1) = T (1, 1) + T (1, −1) = 2 2 2 2 = x+y x−y 3x + 3y 4x + 4y (3, 4) + (0, 0) = ( , ). 2 2 2 2 • T (p(t)) = p(1) + t(p(t)0 ) é uma transformação linear T : P5 → P5 . • T(X) = X+X T 2 é uma transformação linear T : Mn×n (R) → Mn×n (R). 2. N (T ) = {u ∈ V1 : T (u) = 0} é o núcleo da transformação linear T e I(T ) = {T (u), u ∈ V1 } é a imagem (ou contradomı́nio) de T . Teorema: N (T ) subespaço linear de V1 e I(T ) subespaço linear de V2 . Exemplo: Se T : Rn → Rm é dada por T (u) = Au. Então N (T ) = N (A) e I(T ) = C(A). Teorema: Dada T : V1 → V2 transformação linear, tem-se • T injectiva se e só se N (T ) = {0}. • T sobrejectiva se e só se I(T ) = V2 . Se T for injectiva e sobrejectiva então dizemos que T é um isomorfismo entre V1 e V2 . Escrevemos V1 ' V2 se existir um isomorfismo entre V1 e V2 . 3. Sejam U e V espaços lineares de dimensões finitas, dim U = n e dim V = m. Sejam B1 = {u1 , u2 , . . . , un } e B2 = {v1 , v2 , . . . , vm } bases ordenadas de U e V respectivamente. Seja T : U → V uma transformação linear. Considere-se a matriz A = (aij )m×n ∈ Mm×n (R) cuja coluna j, para cada j = 1, ..., n, é formada pelas coordenadas de T (uj ) na base B2 . Isto é, T (uj ) = m X aij vi . i=1 Chama-se a esta matriz A a representação matricial de T em relação às bases B1 e B2 e escreve-se A = M (T ; B1 ; B2 ). Teorema: Sendo α1 , α2 , ..., αn as coordenadas de um vector u ∈ U na base ordenada B1 então as coordenadas β1 , β2 , ..., βm de T (u) ∈ V na base ordenada B2 são dadas por β1 α1 β2 α2 .. = M (T ; B1 ; B2 ) .. . . . βm αn Exemplos: • Para a transformação identidade I : V → V tal que I(u) = u, tem-se M (I; B1 ; B2 ) = SB1 →B2 . 16 3 2 • T : R3 → R2 tal que T (x, y, z) = (2x − y, x + 3y − z); B1 a base canónica de R e B2 a base canónica de R ; 2 −1 0 então M (T ; B1 ; B2 ) = pois T (1, 0, 0) = (2, 1), T (0, 1, 0) = (−1, 3) e T (0, 0, 1) = (0, −1). 1 3 −1 • Fixando uma matriz Am×n , seja T : Rn → Rm definida por T (u) = Au. Então M (T ; B1 , B2 ) = A onde B1 e B2 são as bases canónicas de Rn e Rm , respectivamente. • Seja T : R2 → R2 definida por T (x, y) = (4x − 2y, 2x + 6y). Vamos fixar a mesma base no espaço de partida e no espaço de chegada, B = {(1, 1), (1, −1)}. Assim, T (1, 1) = (2, 8) = 5(1, 1) − 3(1, −1), 5 1 e portanto M (T ; B; B) = . −3 5 T (1, −1) = (6, −4) = 1(1, 1) + 5(1, −1) 4. Teorema: • Se T1 : V1 → V2 e T2 : V2 → V2 são transformações lineares e α é um escalar, então T1 + T2 e αT1 também s ao transformações lineares e M (T1 + T2 ; B1 ; B2 ) = M (T1 ; B1 ; B2 ) + M (T2 ; B1 ; B2 ), M (αT1 ; B1 ; B2 ) = αM (T1 ; B1 ; B2 ). • Se T1 : V1 → V2 e T2 : V2 → V3 são transformações lineares; B1 , B2 , B3 bases de V1 , V2 , V3 respectivamente, e A1 = M (T1 ; B1 ; B2 ), A2 = M (T2 ; B2 ; B3 ). Então a composição T2 ◦ T1 é uma transformação linear e M (T2 ◦ T1 ; B1 ; B3 ) = A2 A1 . Se T : V → V transformação linear e B1 , B2 bases de V , A = M (T ; B1 ; B1 ), B = M (T ; B2 ; B2 ) e S = SB1 →B2 . Então T = I ◦ T ◦ I −1 e B = SAS −1 . (6) 2 Exemplo: Seja T : R2 → R2 definida por T (x, y) = (4x − 2y, 2x + 6y) e B1 a base canónica de R e 4 −2 B2 = {(1, 1), (1, −1)}. Como T (1, 0) = (4, 2) e T (0, 1) = (−2, 6), temos A = M (T ; B1 ; B1 ) = . 2 6 Mais, −1 1 1 1 1 1 1 1 −1 S := SB2 →B1 = , S = SB1 →B2 = = . 1 −1 1 −1 2 1 −1 5 1 1 1 4 −2 1 1 1 −1 . = Portanto B = M (T ; B2 ; B2 ) = SAS = 2 −3 5 1 −1 2 6 1 −1 • Seja T1 : R2 → R2 definida por T1 (x, y) = (4x−2y, 2x+6y), T : R2 → R3 definida por T2 (x, y) = (x−2y, 2x+ 4 −2 2 3 3y, x) e B1 = B2 a base canónica de R e B3 a base canónica de R . Então A1 = M (T1 ; B1 ; B2 ) = 2 6 1 −2 e A2 = M (T2 ; B2 ; B3 ) = 2 3 . Assim 1 0 1 −2 0 −14 4 −2 M (T2 ◦ T1 ; B1 ; B3 ) = A2 A1 = 2 3 = 14 14 . 2 6 1 0 4 −2 Em particular, temos (T2 ◦ T1 )(x, y) = (−14y, 14x + 14y, 4x − 2y). 5. Sejam U e V dois espaços lineares de dimensões finitas. Seja T : U → V uma transformação linear. Sejam S1 e S10 duas bases ordenadas de U . Sejam S2 e S20 duas bases ordenadas de V . Seja M (T ; S1 ; S2 ) a matriz que representa T em relação às bases S1 e S2 . Então, a matriz M (T ; S10 ; S20 ) que representa T em relação às bases S10 e S20 , é dada por −1 M (T ; S10 ; S20 ) = SS2 →S20 M (T ; S1 ; S2 ) SS1 →S10 , 17 (7) onde SS2 →S20 e SS1 →S10 são as matrizes de mudança das bases S2 para S20 e de S1 para S10 respectivamente. Note que (6) é um caso muito particular de (7). Assim, o diagrama seguinte é comutativo. (U, S1 ) M (T ;S1 ;S2 ) −→ T SS1 →S10 ↓ I (U, S10 ) (V, S2 ) I ↓ SS2 →S20 T −→ M (T ;S10 ;S20 ) (V, S20 ) 6. Teorema: Se T : V1 → V2 é um isomorfismo e A = M (T ; B1 ; B2 ), então T −1 é uma transformação linear e M (T −1 ; B2 ; B1 ) = A−1 . 2 Exemplo: Seja T : R2 → R2 definida por T (x, y) = (4x−2y, 2x+6y) e B a base canónica de R (B =B1 = B2). 4 −2 3 1 1 Temos A = M (T ; B; B) = , e A é invertı́vel e portanto M (T −1 ; B; B) = A−1 = 14 . 2 6 −1 2 −x+2y Assim, T −1 (x, y) = ( 3x+y 14 , 14 ). 7. Teorema: Seja T : V1 → V2 uma transformação linear. • Se v1 , .., vk geram V1 , então T (v1 ), ..., T (vk ) geram I(T ). • Se T é injectiva e v1 , .., vk são linearmente independentes, então T (v1 ), ..., T (vk ) também são linearmente independentes. Teorema: T : V1 → V2 e A = M (T ; B1 ; B2 ). Então • dim N (T ) = dim N (A), • u ∈ N (T ) sse uB1 ∈ N (A), onde uB1 são as coordenadas de u em B1 . • v ∈ I(T ) sse vB2 ∈ C(A), onde vB2 são as coordenadas de v em B2 . dim I(T ) = dim C(A) = car(A), dim N (T ) + dim I(T) = dim(V1 ). 1 1 Exemplo: Seja T : R2 → R3 tal que A = M (T ; B1 ; B2 ) = 0 −1 , onde B1 = {(1, 1), (1, −1)} e 3 3 B2 = {(1, 2, 3), (1, 2, 0), (1, 0, 0)}. Temos car(A) = 1, pelo que dim(C(A)) = 2 (logo T não é sobrejectiva) e dim(N (A)) = 0 (logo T é injectiva). Além disso, {(1, 0, 3), (1, −1, 3)} é uma base para C(A). Como 1(1, 2, 3) + 0(1, 2, 0) + 3(1, 0, 0) = (3, 2, 3), 1(1, 2, 3) − 1(1, 2, 0) + 3(1, 0, 0) = (3, 0, 3), logo {(3, 2, 3), (3, 0, 3)} é uma base para o contradomı́nio de T . 8. Teorema: Se B = {v1 , ..., vn } é uma base de V , então T : V → Rn definida por T (v) = vB é um isomorfismo. Seja U subespaço linear de V de dimensão k, então U é isomorfo a um subespaço de Rn de dimensão k. Assim, Pn ' Rn+1 , Mm×n (R) ' Rmn . 9. Equação linear é qualquer equação que pode ser escrita na forma T (u) = v para alguma transformação linear T : V1 → V2 entre espaços lineares. Resolver, em V1 , a equação linear T (u) = v (com v ∈ V2 fixo) é descrever o conjunto S = {u ∈ V1 : T (u) = v}. Teorema: • T (u) = v tem soluções sse v ∈ I(T ). • T (u) = v tem uma única solução sse v ∈ I(T ) e T for injectiva. • Se v ∈ I(T ), então S = u1 + N (T ), com u1 solução particular em S. Exemplos: • Dada uma matriz Am×n e T : Rn → Rm tal que T (u) = Au. Então a equação linear T (u) = v é igual ao sistema linear Au = v! 18 • Seja B = {p1 , p2 , p3 } base de P2 onde p1 (t) = 1 + 2t + 3t2 , p2 (t) = 2 + 3t, p3 (t) = 1. Seja T : P2 → P2 a transformação linear definida por: T (p1 (t)) = p2 (t), T (p2 (t)) = p3 (t), T (p3 (t)) = 0. 0 0 0 Então a matriz M (T ; B; B) que representa T na base B é 1 0 0 . 0 1 0 Como N (M (T ; B; B)) = L ({(0, 0, 1)}), então N (T ) = L ({0p1 (t) + 0p2 (t) + 1p3 (t)}) = L ({p3 (t)}). O conjunto {1} é uma base de N (T ) pois gera N (T ) e é linearmente independente. Quanto ao contradomı́nio, como B = {p1 , p2 , p3 } gera P2 : I(T ) = L ({T (p1 (t)) , T (p2 (t)) , T (p3 (t))}) = L ({p2 (t), p3 (t)}) = L ({2 + 3t, 1}) . O conjunto {2 + 3t, 1} é uma base de I(T ) pois gera I(T ) e é linearmente independente. Finalmente vamos resolver, em P2 , a equação linear T (p(t)) = 3 + 3t. Como T (p(t)) = 3 + 3t = (2 + 3t) + 1 = T (p1 (t)) + T (p2 (t)) = T é linear T (p1 (t) + p2 (t)) = T 3 + 5t + 3t2 , logo 3 + 5t + 3t2 é uma solução particular de T (p(t)) = 3 + 3t, pelo que a solução geral de T (p(t)) = 3 + 3t é dada por: 3 + 5t + 3t2 + N (T ) = α + 3 + 5t + 3t2 com α ∈ R. 10. T : V → V transformação linear; u ∈ V vector não nulo é vector próprio de T se existe um escalar λ tal que T (u) = λu (λ é o valor próprio associado a u). Eλ = N (T − λI) é o espaço próprio de T associado a λ. Se dim(V ) < +∞, seja A = M (T ; B; B) onde B uma base de V . Teorema • λ valor próprio de T se e só se λ valor próprio de A. • u vector próprio de T se e só se uB vector próprio de A (uB designa as coordenadas de u em B). Dizemos que T é diagonalizável se existir uma base de V formada por vectores próprios de T . Teorema: T diagonalizável se e só se A diagonalizável. Exemplo: Seja T : P2 → P2 tal que T (a0 + a1 t + a2 t2) = (a0 + a1 + a2 ) + (a0 + a1 + a2 )t + (a0 + a1 + a2 )t2 . 1 1 1 Com B = {1, t, t2 } base canónica de P2 , temos A = 1 1 1 cujos valores próprios são λ1 = 0 e λ2 = 3 1 1 1 pois p(λ) = −λ2 (λ − 3); Temos {(−1, 0, 1), (0, −1, 1), (1, 1, 1)} é uma base de R3 formada por vectores próprios da matriz A, pelo que {−1 + t2 , −t + t2 ), 1 + t + t2 } é uma base de P2 formada por vectores próprios de T . Portanto A é diagonalizável e assim T também o é. 6 Produtos internos 1. Seja V um espaço linear real. Uma aplicação h, i : V × V → R é um produto interno (p.i.) em V se: • (Linearidade) hu + αv, wi = αhu, wi + hv, wi para todo o escalar α e todos u, v, w ∈ V , • (Simetria) hu, vi = hv, ui para todos u, v ∈ V e • (Positividade) hu, ui > 0 para qualquer u ∈ V , u 6= 0. Espaço euclidiano é um espaço linear munido com um produto interno. Exemplos: • h(x1 , ..., xn ), (y1 , ..., yn )i = x1 y1 + x2 y2 + ... + xn yn é um produto interno (usual) em Rn . • h(x1 , x2 ), (y1 , y2 )i = 2x1 y1 x1 y2 + x2 y1 + x2 y2 define um produto interno (diferente do usual) em R2 . Note que h(x1 , x2 ), (x1 , x2 ) = x21 + (x1 + x2 )2 > 0 para qualquer (x1 , x2 ) 6= (0, 0). 2. Se V um espaço linear complexo, h, i : V × V → C é um produto interno em V se os axiomas da linearidade e positividade forem satisfeitos e o axioma da simetria é substituı́do por hu, vi = hv, ui, com u, v ∈ V . O produto interno usual em Cn é h(x1 , ..., xn ), (y1 , ..., yn )i = x1 y1 + x2 y2 + ... + xn yn . 19 3. Seja h, i um produto interno num espaço linear (real) V de dimensão finita e {v1 , ..., vn } uma base ordenada de V . Seja u = α1 v1 + ... + αn vn e v = β1 v1 + ... + βvn . Seja A = [aij ] a matriz da métrica, definida por aij = hvi , vj i. Teorema: A matriz A é simétrica A = AT e hu, vi = α1 α2 . . . αn A β1 β2 .. . . βn Exemplos: • Considerando a base canónica de • Com a base canónica de R2 Rn e o produto interno usual tem-se A = I. e o p.i. h(x1 , x2 ), (y1 , y2 )i = 2x1 y1 x1 y2 + x2 y1 + x2 y2 , tem-se A = 2 1 . 1 1 4. Fixando um produto interno em V , então p • ||v|| = hv, vi é a norma de v ∈ V . • u e v dizem-se ortogonais se hu, vi = 0. • projuv = hu,vi hv,vi v é a projecção ortogonal de u sobre v. • Desigualdade de Cauchy-Schwarz: |hu, vi| ≤ kuk kvk. • arcos∠(u, v) = hu,vi ||u||||v|| é o ângulo entre u e v. 5. Bases ortogonais: Seja B1 = {u1 , ..., un } base de V . Dizemos que B2 = {v1 , ..., vn } é base ortogonal de V se B2 é uma base de V e os vectores de B2 forem ortogonais hvi , vj i = 0, para i 6= j. Dizemos que B3 = {w1 , ..., wn } é base ortonormada de V se B3 é uma base ortogonal de V e ||vi || = 1 para i = 1, ..., n. Exemplo: • A base canónica de Rn é uma base ortonormada (para o produto interno usual). • {(1, 0), (0, 2)} é uma base ortogonal de R2 , no entanto não é ortonormada. • {(1, 1), (0, 1)} é uma base de R2 , que não é ortogonal. • {(1, 1, 1), (1, 1, −2)} não é uma base ortogonal de R3 ; mas sim, uma base ortogonal para o subespaço linear U = {(x, y, z) ∈ R3 : x − y = 0}. Teorema: Conjunto de vectores não nulos ortogonais 2 a 2 é um conjunto linearmente independente. Método de ortogonalização de Gram-Schmidt uma base B1 de V : 7 permite-nos construir a base ortogonal B2 a partir de v1 = u1 , v2 = u2 − projv1 u2 = u2 − hu2 , v1 i v1 , hv1 , v1 i v3 = u3 − projv2 u3 − projv1 u3 = u3 − ... hu3 , v1 i hu3 , v2 i v1 − v2 , hv2 , v1 i hv2 , v2 i vn = un − projv1 un − ... − projvn−1 un . Dada uma base ortogonal B2 podemos construir uma base ortonormada de V normalizando cada vector de B2 , i.e. w1 = ||vv11 || , w2 = ||vv22 || , ..., wn = ||vvnn || . 6. Teorema: Se {v1 , ..., vn } é base ortogonal de V , então v= hv,v1 i hv1 ,v1 i v1 + hv,v2 i hv2 ,v2 i v2 + ... + hv,vn i hvn ,vn i vn . 7. Teorema: Seja B = {w1 , w2 , ..., wn } uma base de Rn . Então, existe um único produto interno em Rn para o qual esta base é ortonormada. 7 Jorgen Pedersen Gram 1850–1916. Erhard Schmidt 1876–1959 20 β1 . αn I .. . Como βn Se uB = (α1 , ..., αn ), vB = (β1 , ..., βn ) então teremos que ter hu, vi = u1 SBc→B ... = un α1 · · · α1 v1 β1 . . .. e S T T T T Bc→B .. = .. temos hu, vi = u(S IS)v = u(S S)v com S = SBc→B . . αn vn βn 8. Complemento ortogonal Seja V um espaço euclidiano e U subconjunto de V , não vazio. O complemento ortogonal de U em V denota-se por U ⊥ e é definido como: U ⊥ = {v ∈ V : hv, ui = 0, para todo o u ∈ U }. Teorema: • U ⊥ é subespaço linear de V . Temos V ⊥ = {0} e {0}⊥ = V . • Se U1 ⊂ U2 então U2⊥ ⊂ U1⊥ . • Se dim(V) < ∞ e U1 , U2 subespaços lineares de V . Então temos (U1⊥ )⊥ = U1 , (U1 + U2 )⊥ = U1⊥ ∩ U2⊥ , (U1 ∩ U2 )⊥ = U1⊥ + U2⊥ . • Se U = L{u1 , ..., uk }, então U ⊥ = {v ∈ V : hv, ui i = 0, para i = 1, ..., k}. Teorema: Se U é subespaço linear de V então • U ∩ U ⊥ = {0}. • U + U⊥ = V . Teorema: Se V = Rn munido com o produto interno usual e U = L({u1 , ..., uk }), então: • U ⊥ = N (A) onde as linhas de A são os vectores u1 , ..., uk . • dim(U ) + dim (U ⊥ ) = n. • N (A)⊥ = L(A), L(A)⊥ = N (A). 1 0 0 0 1 0 0 0 ⊥ . e U = N Exemplo: Seja U = L({(1, 0, 0, 0), (1, 1, 1, 2)}). Então U = L 1 1 1 2 1 1 1 2 Assim, {(1, 0, 0, 0), (0, 1, 1, 2)} é uma base para U e {(0, −1, 1, 0), (0, −2, 0, 1)} é uma base para U ⊥ . 9. Projecões ortogonais Seja V Seja V um espaço euclidiano de dimensão finita e U subespaço de V . Seja {u1 , ..., uk } uma base ortogonal de U e {v1 , ..., vr } uma base ortogonal de U ⊥ . Assim, k + r = dim(V ). Projecção ortogonal de V sobre U é a transformação linear PU : V → V definida por PU (w) = hw, u1 i hw, u2 i hw, uk i u1 + u2 + ... + uk . hu1 , u1 i hu2 , u2 i huk , uk i Projecção ortogonal de V sobre U ⊥ é a transformação linear PU ⊥ : V → V definida por PU ⊥ (w) = hw, v1 i hw, v2 i hw, vk i v1 + v2 + ... + vr . hv1 , v1 i hv2 , v2 i hvr , vr i Teorema: • PU (w) ∈ U , PU ⊥ (w) ∈ U ⊥ para qualquer w ∈ V . • PU ◦ PU = PU , PU ⊥ ◦ PU ⊥ = PU ⊥ . • PU ◦ PU ⊥ = PU ⊥ ◦ PU = 0. • PU + PU ⊥ = I. Em particular, dado w ∈ V , podemos decompor w = u + v em que u ∈ U e v ∈ U ⊥ . De facto: u = PU (w) e v = PU ⊥ (w). Exemplo: Seja V = L (1, 1, 0, 0), (1, 0, 1, −1) . Vamos determinar u ∈ U e v ∈ U ⊥ tais que (1, 1, 1, 1) = u + v. Os vectores u1 = (1, 1, 0, 0), u2 = (1, 0, 1, −1) formam uma base de V . Seja {v1 , v2 } a base ortogonal de 21 V que se obtém aplicando o processo de ortogonalização de Gram-Schmidt aos vectores u1 e u2 . Portanto, v1 = u1 = (1, 1, 0, 0) e v2 = u2 − hu2 , u1 i 1 1 1 u1 = (1, 0, 1, −1) − (1, 1, 0, 0) = ( , − , 1, −1). hu1 , u1 i 2 2 2 Assim, u = PV (1, 1, 1, 1) = h(1, 1, 1, 1), v1 i h(1, 1, 1, 1), v2 i 2 0 1 1 v1 + v2 = (1, 1, 0, 0) + ( , − , 1, −1) = (1, 1, 0, 0) hv1 , v1 i hv2 , v2 i 2 5/2 2 2 e v = PV ⊥ (1, 1, 1, 1) = (1, 1, 1, 1) − PV (1, 1, 1, 1) = (0, 0, 1, 1). 10. Distância entre um ponto e um espaço linear: Seja u ∈ V e U subespaço linear de V . A distância entre v e U é d(v, U ) = ||PU ⊥ (v)||. A distância entre v e U ⊥ é d(v, U ⊥ ) = ||PU (v)||. Exemplo: Seja U = L({(1, 0, 1), (1, 1, 0)}) e v = (1, 1, 3). Portanto U⊥ =N 1 0 1 1 1 0 e {(−1, 1, 1)} é uma base de U ⊥ . Assim, √ h(1, 1, 3), (−1, 1, 1)i (−1, 1, 1)|| = ||(−1, 1, 1)|| = 3, h(−1, 1, 1), (−1, 1, 1)i √ d(v, U ⊥ ) = ||PU (v)|| = ||v − PU ⊥ (v)|| = ||(1, 1, 3) − (−1, 1, 1)|| = 8. d(v, U ) = ||PU ⊥ (v)|| = || Note que {(1, 0, 1), (1, 1, 0)} nã é uma base ortogonal de U . Teorema de Pitágoras: 8 ||PU (v)||2 + ||PU ⊥ (v)||2 = ||v||2 . 11. Equações cartesianas de planos, rectas, etc.: k-plano é todo o subconjunto de Rn da forma p+U com p ∈ Rn e U um subespaço de dimensão k. (U = p+U .) U subespaço linear de Rn se e só se p ∈ U . Note que U é paralelo a U. A distância entre v e U é d(v, U) = ||PU ⊥ (v − p)||. Dado U subespaço linear de R, podemos construir uma matriz A tal que U = N (A); as equações lineares homogéneas são as equações cartesianas de U . As equações cartesianas de U obtêm-se a partir das de U usando o facto de p ∈ U. 0 −1 1 0 Exemplo: Seja p = (0, 1, 2, −3) e U = L({(1, 0, 0, 0), (1, 1, 1, 2)}). Então U = N , e portanto 0 −2 0 1 −y + z = 0, −2y + w = 0 são equações cartesianas de U . Assim para encontrar as equações cartesianas de U, temos que calcular b1 , b2 tais que −y + z = b1 , −2y + w = b2 . Como p = (0, 1, 2, −3) ∈ U temos −1 + 2 = b1 , −2 − 3 = b2 , isto é −y + z = 1, −2y + w = −5 são as equações cartesianas de U. 12. Diagonalização de matrizes reais simétricas: • Uma matriz real Q diz-se matriz ortogonal se Q−1 = QT . (Q ortogonal sse QT ortogonal). Assim, Q matriz ortogonal se as colunas de Q forem uma base ortonormada de Rn . • A ortogonalmente diagonalizável se existir base ortonormada de Rn formada por vectores próprios de A. • A ortogonalmente diagonalizável =⇒ A diagonalizável. • Se A = AT matriz real simétrica, então os valores próprios de A são todos reais, e vectores próprios associados a valor próprios diferentes são ortogonais. Teorema: A ∈ Mn×n (R) ortogonalmente diagonalizável se e só se A = AT . 8 Pitágoras 570 a.C– 496 a.C (aprox.) 22 Nesta caso, podemos construir D matriz diagonal real e Q matriz ortogonal tais que: D = QAQT . Algoritmo para determinar D e Q: (a) Calcular o polinómio caracterı́stico de A e os respectivos valores próprios. (b) Encontar uma base para cada espaço próprio de A. (c) Apliquar o processo de ortogonalização de Gram-Schmidt a cada base de cada espaços próprio (obtendo uma base ortogonal de Rn constituı́da por vectores próprios de A). Normalizar esta base (construindo assim, uma base {v1 , ..., vn } ordenada e ortonormal de Rn constituı́da por vetores próprios de A). (d) Seja QT a matriz cujas colunas são formadas pelos vectores {v1 , ..., vn } colocados em coluna e D a matriz diagonal cuja entrada (i, i) é o valor próprio de A associado ao vector próprio vi , com i ∈ {1, ..., n}. (e) A teoria garante que D = QAQT . 4 2 2 Exemplo: • Seja A = 2 4 2 . Com A é simétrica sabemos que existe uma matriz ortogonal Q e uma 2 2 4 matriz diagonal D tais que D = QAQT . Vamos então construir QT , D e naturalmente Q = (QT )T . (a) o polinómio caracterı́stico de A é 4−λ 2 2 4−λ 2 = ... = (λ − 2)2 (λ − 8), p(λ) = det(A − λI) = det 2 2 2 4−λ pelo que os valores próprios de A são λ1 = 2 (raiz dupla) e λ2 = 8 (raiz simples). (b) O espaço próprio associado a λ1 é Eλ1 = N (A − 2I) e os vectores u1 = (−1, 1, 0), u2 = (−1, 0, 1) formam uma base de Eλ1 . O espaço próprio associado a λ2 é Eλ2 = N (A − 8I) e o vector u3 = (1, 1, 1) é uma sua base. (c) Aplicando o processo de Gram-Schmidt às bases {u1 , u2 } e {u3 } e depois normalizando, obtém-se a seguinte base ortonormada de R3 : 1 1 w1 = − √ , √ , 0 , 2 2 1 1 2 1 1 1 w2 = − √ , − √ , √ , w3 = √ , √ , √ . 6 6 6 3 3 3 − √12 − √16 √13 2 0 0 (d) Então temos D = 0 2 0 , QT = √12 − √16 √13 e podemos verificar que D = QAQT . √2 √1 0 0 8 0 6 3 1 1 • A matriz A = não é ortogonalmente diagonalizável porque A 6= AT ; contudo, A é diagonalizável 0 0 porque tem 2 valores próprios distintos. 13. Teorema Seja B uma base ordenada de uma espaço linear real V e (u)B as coordenadas de u em B. Então hu, vi = (u)B A (v)TB é um produto interno no espaço linear real V se e só se A matriz simétrica A = AT e os valores próprios de A são todos estritamente positivos. 14. Diagonalização de matrizes normais T T Para matrizes complexas, A é a matriz transconjugada de A = [aij ], onde A = [aij ]. Notação: A∗ := A . Uma matriz A diz-se matriz hermitiana se A = A∗ . Uma matriz A diz-se matriz normal se AA∗ = A∗ A. U ∈ Mn×n (C) matriz unitária se U for invertı́vel e U −1 = U ∗ . Teorema: Dada um matriz A ∈ Mn×n (C), temos hAu, vi = hu, A∗ vi, para todos os vectores u, v ∈ Cn . 23 Os valores próprios de uma matriz hermitiana são números reais. Além disso, vectores próprios associados a valores próprios distintos são ortogonais. Se λ for um valor próprio de uma matriz unitária U , então |λ| = 1. Se A é uma matriz ortogonal, então AT e A−1 são matrizes ortogonais. Se A é uma matriz unitária, então A∗ e e A−1 são matrizes unitárias. Se A e B são duas matrizes ortogonais então AB é uma matriz ortogonal. Se A e B são duas matrizes unitárias então AB é uma matriz unitária. Se A e B são duas matrizes simétricas então AB é uma matriz simétrica se e só se A e B comutarem. Se A e B são duas matrizes hermitianas então AB é uma matriz hermitiana se e só se A e B comutarem. Dizemos que que a matriz A é unitariamente diagonalizável se existir uma base ortonormada de Cn constituı́da por vectores próprios de A. Teorema: A ∈ Mn×n (C) unitariamente diagonalizável se e só se A é uma matriz normal. Nestes casos, podemos construir uma matriz diagonal D e uma matriz unitária U tais que D = U AU ∗ . Assim A = U ∗ DU , pelo que em geral A∗ 6= A, pois A∗ = U ∗ D∗ U . Conclusão: A pode ser unitariamente diagonalizável sem ter de ser necessariamente hermitiana. 0 −1 Exemplos: • A matriz real A = é normal, pois AA∗ = I = A∗ A, no entanto A não é simétrica 1 0 (nem hermitiana). 1 1 não é normal nem simétrica, pelo que A não é unitariamente nem ortogonal• A matriz real A = 0 2 mente diagonalizável. Todavia A é diagonalizável, pois os seus valores próprios são todos distintos. A prova do último teorema pode basear-se no seguinte Lemma de Schur: 9 Seja A ∈ Mn×n (C) qualquer. Então existe uma matriz unitária U tal que U AU ∗ é uma matriz triangular superior. 7 Tópicos adicionais e aplicações 1. Formas quadráticas é uma função Q : Rn → R que pode ser escrita na forma Q(u) = n X aij xi xj , com u = (x1 , ..., xn ), aij ∈ R. (8) i,j=1 Classificação das formas quadráticas Seja Q forma quadrática; Q é • definida positiva se Q(u) > 0, ∀u ∈ Rn , u6= 0, • definida negativa se Q(u) < 0, ∀u ∈ Rn , u6= 0, • semidefinida positiva se Q(u) ≥ 0, ∀u ∈ Rn , • semidefinida negativa se Q(u) ≤ 0, ∀u ∈ Rn , • indefinida se existem u e v tais que Q(u) > 0 e Q(v) < 0. A equação (8) pode ser escrita na forma Q(u) = uAuT , com A = [aij ]; mas podemos também escrever T T Q(u) = u A+A uT com a vantagem de A+A ser uma matriz simétrica. 2 2 9 Issai Schur 1875–1941 24 Exemplo: Q : R2 → R tal que Q(x1 , x2 ) = a11 x21 + a12 x1 x2 + a21 x2 x1 + a22 x22 . Temos a12 +a21 a11 a12 a11 x1 x1 2 = x1 x2 Q(x1 , x2 ) = x1 x2 . a12 +a21 a21 a22 x2 a22 x2 2 Teorema: Seja Q(u) = uAuT forma quadrática com A simétrica. Então: • Q definida positiva se e só se todos os valores próprios de A forem positivos. • Q definida negativa se e só se todos os valores próprios de A forem negativos. • Q semidefinida positiva se e só se todos os valores prṕrios de A forem não negativos. • Q semidefinida negativa se e só se todos os valores prṕrios de A forem não positivos. • Q indefinida se e só se A tiver pelo menos um valor próprio positivo e outro negativo. Supondo que A é uma matriz real e simétrica, então Q(u) = uAuT é uma forma quadrática definida positiva se e só hu, vi = uAv T define um produto interno em Rn . Exemplo: Seja Q(x1 , x2 ) = 2x21 + 4x1 x2 + 2x22 . Então A = 2 2 , cujos valores próprios são λ1 = 0 e λ2 = 4. 2 2 Assim, Q é uma forma quadrática semidefinida positiva. 2. Equações diferenciais ordinárias com coeficientes constantes • Se f : R → R é solução da equação diferencial f 0 (t) = λf (t) (com λ escalar fixo), então existe um escalar c tal que f (t) = c eλt . • Considere funções x1 (t), x2 (t), · · · , xn (t) diferenciáveis na variável real t. O sistema da forma a11 x1 (t) + a12 x2 (t) + ... + a1n xn (t) = x01 (t) a21 x1 (t) + a22 x2 (t) + ... + a2n xn (t) = x02 (t) ... am1 x1 (t) + am2 x2 (t) + ... + amn xn (t) = x0m (t) (9) chama-se sistema linear de equações diferenciais de primeira ordem, em que aij é uma constante e x0i (t) designa a derivada de xi (t) (i = 1, ..., m, j = 1, ..., n). O sistema (9) pode escrever-se na forma matricial: x0 (t) = Ax(t) onde A = [aij ] ∈ Mn×n (R), 0 x1 (t) x1 (t) x2 (t) x0 (t) 2 0 x(t) = . , x (t) = . . .. .. x0n (t) xn (t) • Resolução de x0 = Ax com A diagonalizável Se a matriz A = [aij ] ∈ Mn×n (R) é diagonalizável, para resolver x0 (t) = Ax(t) em primeiro lugar encontra-se uma matriz mudança de base S = SBc→Bvp , S −1 = SBvp →Bc onde Bvp = {v1 , v2 , · · · , vn } é uma base de Rn formada por vectores próprios de A tal que o valor próprio associado a vi é λi , i = 1, 2, · · · , n, Bc é a base canónica de Rn e matriz diagonal D = diag(λ1 , λ2 , · · · , λn ) (formada pelos valores próprios de A) tais que D = SAS −1 . Depois, usa-se a mudança de variável Sy = x e e transforma-se o sistema x0 = Ax no sistema y 0 (t) = Dy(t) com as funções separadas, cuja solução geral c1 eλ1 t c2 eλ2 t é y(t) = onde λ1 , · · · , λn são os valores próprios de A e c1 , · · · , cn são constantes. Finalmente, a .. . cn eλn t solução geral do sistema inicial x0 (t) = Ax(t) é 25 | x(t) = S −1 y(t) = v1 | .. . ··· .. . c eλ1 t 1 | c eλ2 t 2 vn .. . | cn eλn t porque x0 (t) = Ax(t) ⇐⇒ x0 (t) = S −1 DSx(t) ⇐⇒ Sx0 (t) = DSx(t) ⇐⇒ y 0 (t) = Dy(t). Exemplo: Vamos determinar a solução geral do seguinte sistema de equações diferenciais: 2x1 (t) + x2 (t) = x01 (t) −2x1 (t) + 5x2 (t) = x02 (t) (10) 2 1 Claro que A = , cujas valores próprios são λ1 = 3 e λ2 = 4, pelo que A é diagonalizável, {(1, 1)} é −2 5 uma base para o espaço próprio para Eλ1 e {(1, 2)} é uma base para o espaço próprio para Eλ1 . Assim, 3 0 1 1 −1 D= , S = 0 4 1 2 e portanto a solução geral do sistema de equações diferenciais (10) é c1 e2t + c2 e4t c1 e2t 1 1 c1 e2t x1 (t) −1 . = = =S x(t) = c1 e2t + 2c2 e4t c2 e4t 1 2 c2 e4t x2 (t) Vamos calcular a única solução de (10) sujeita às condições iniciais x1 (0) = 1, x2 (0) = −1. Ora (x1 (0), x2 (0)) = (c1 + c2 , c1 + 2c2 ), pelo que c1 = 3c2 = −2 e a única soluçã de (10) é (x1 (t), x2 (t)) = (3e2t − 2e4t , 3e2t − 4e4t ). 3. Mı́nimos quadrados Seja A ∈ Mm×n (R) e b ∈ Mm×1 (R). • O sistema linear Ax = b é impossı́vel se e só se b 6∈ C(A) (i.e. SAx=b = ∅). • Vamos procurar vectores b x que tornem mı́nima a distância entre Ab x e b, isto é ||Ab x − b|| = minx {||Ax − b||}. Dizemos que tal b x é uma solução de mı́nimos quadrados associado aos sistema linear Ax = b. Assim, ||Ab x − b|| ≤ ||Ax − b|| para todo x; Ab x − b o vector erro e ||Ab x − b|| erro de mı́nimos quadrados. • Claro que Ax ∈ C(A) para todo o x, pelo que ||Ax − b|| é minimizado se Ax = projC (b), (11) onde projC (b) designa a projecção ortogonal de b sobre C(A). Temos Ax = projC (b) é sempre um sistema possı́vel e as suas soluções são as soluções de mı́nimos quadrados do sistema inicial Ax = b. Teorema: b x solução de mı́nimos quadrados de Ax = b sse b x é solução do sistema linear Ax = projC (b). Teorema: Existe uma única solução de mı́nimos quadrados do sistema Ax = b sse car(A) = n. • Como resolver o sistema linear (11)? Podemos usar a decomposição b = projC(A) (b) + projC(A)⊥ (b) (note que C(A)⊥ = L⊥ = N (AT )) e concluir AT que Teorema: b x uma solução do sistema linear Ax = projC (b) sse b x é uma solução do sistema linear (AT A)b x = AT b. A equação (AT A)b x = AT b é designada por equação normal. Teorema: • N (A) = N (AT A). • SAT Abx=AT b 6= ∅, SAx=b ⊂ SAT Abx=AT b . • Se SAx=b 6= ∅, então SAx=b = SAT Abx=AT b . • Se car(A) = n, b x = (AT A)−1 AT b é a única solução da equação normal AT Ab x = AT b. 26 1 2 1 Exemplo: Sejam A= , b= . O sistema linear Ax = b é impossı́vel. Por outro lado car(A) 6= 2 −2 −4 2 pelo que a solução de mı́nimos quadrados não é única. Podemos verificar isso mesmo, determinando o con−3 −6 −3 junto solução de AT Ab x = AT b. Calculando temos AT A = e AT b = , pelo que o conjunto −6 −12 −6 solução de AT Ab x = AT b é {(x, y) ∈ R2 : x + 3y = 1} (o conjunto solução de mı́nimos quadrádros de Ax = b). • Ajusto de curvas a uma tabela Pretende-se encontrar uma função y = f (x) que se ajuste a um conjunto de dados experimentais (p.e. em R2 ) P1 = (x1 , y1 ), P2 = (x2 , y2 ), ..., Pn = (xn , yn ) da melhor maneira possı́vel. Seja R a recta y = α + βx α + βx1 = y1 α + βx2 = y2 Para Pi ∈ R temos o sistema linear nas variáveis α, β, para o qual A= .. . α + βxn = yn Modelo Linear: Se Pi 6∈ R para algum i, então o sistema linear é impossı́vel. Nesse caso, procuramos aproxima dos pontos, cuja solução é α = (AT A)−1 AT b. b x= β 1 1 Exemplo: Sejam P1 = (1, 3/2), P2 = (2, 1/2), P3 = (3, 3). Assim A= 1 2 , b= 1 3 1/6 e a recta pretendida é: y = 61 + 34 x. (AT A)−1 AT b = 3/4 Modelo quadrático: 1 x1 .. .. , b= . . 1 xn y1 .. . . yn a recta que melhor se 3/2 1/2 , cuja solução é 3 y = α + βx + γx2 , 1 x1 x21 α .. β = originando o sistema ... ... . 2 γ 1 xn xn y1 .. nas variáveis α, β, γ. . yn e1 e2 e3 4. Produto externo: Seja e1 , e2 , e3 a base canónica de R3 ; o produto externo é u × v = det u1 u2 u3 = v1 v2 v3 u2 u3 u1 u3 u1 u2 = det e1 − det e2 + det e3 = u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 . v2 v3 v1 v3 v1 v2 • u × v = −v × u, u × u = 0, hu, u × vi = hv, u × vi = 0, • Se u, v são ortogonais e não nulos, então {u, v, u × v} é uma base ortogonal de R3 , • ||u × v|| = ||u|| ||v||sen(θ) onde θ é o ângulo entre u e v, • ||u × v|| é a área do paralelogramo de lados adjacentes u e v. u1 v1 w1 • Produto misto é hu, v × wi = det u2 v2 w2 . u3 v3 w3 • hu, u × vi = hu, v × ui = 0, hu, v × wi = hu × v, wi. • V = |hu, v × wi| é o volume do paralelipı́pedo formado pelos vectores u, v e w. Note que V = ||u × v|| | {z } área da face determinada por u e v 27 ||w|| |cos(θ)| . | {z } altura 8 Notação usada N Z Q R C A = [aij ] Mm×n (K) car(A) AT A∗ Tr(A) A−1 S ou SAx=b det(A) ou |A| cofA adj(A) L(S) dim(V ) V1 ⊕ V2 N (A) C(A) L(A) V1 ' V2 vB SB1 →B2 p(λ) = det(A − λI) σA Eλ = N (A − λI) ma (λ) mg (λ) M (T ; B1 ; B2 ) N (T ) I(T ) ou C(T ) hu, vi ||u|| ∠(u, v) U⊥ PU ou projU d(u, U) u×v (AT A)b x = AT b números naturais números inteiros números racionais números reais números complexos matriz com entrada aij conjunto das matrizes m × n com entradas em K caracterı́stica da matriz A transposta da matriz A matriz transconjugada de A traço da matriz A inversa de A (caso exista) conjunto solução do sistema Ax = b determinante de A a matriz dos cofactores de A a matriz adjunta de A espaço gerado pelo conjunto de vectores S (expansão linear de S) dimensão do espaço linear V (subsespaços em) soma directa de subespaços núcleo de A espaço colunas de A espaço linhas de A isomorfismo entre V1 e V2 coordenadas do vector v na base ordenada B matriz mudança de base da base B1 para a base B2 polinómio caracterı́stico de A espectro de A espaço próprio associado ao valor próprio λ multiplicidade algébrica do valor próprio λ multiplicidade algébrica geométrica do valor próprio λ matriz que representa a transformação linear T nas bases B1 e B2 núcleo da transformação linear T imagem (ou contradomı́nio) de T produto interno entre u e v norma do vector u ângulo entre u e v complemento ortogonal do subespao̧ linear U projecção ortogonal de V sobre U distância entre u e o k-plano U := v + U produto externo entre os vectores u e v (de R3 ) equação normal associada ao sistema Ax = b 28 Índice k-plano, 22 ângulo entre vectores, 20 ajusto de curvas a uma tabela, 27 base base base base base canónica, 12 e dimensão, 12 ordenada, 13 ortogonal, 20 ortonormada, 20 caracterı́stica de uma matriz, 2 combinação linear, 9 complemento ortogonal, 21 conjunto solução, 4 contradomı́nio de uma transformação linear, 16 coordenadas de um vector numa base, 13 decomposição triangular, 3 determinante de uma matriz, 6 diagonalização de matrizes simétricas, 22 distância entre um ponto e um subespaço linear, 22 eliminação de Gauss, 2 equação linear, 4, 18 equação normal, 26 equações cartesianas, 22 espaço colunas de uma matriz, 10 espaço euclidiano, 19 espaço linear, 8 espaço linhas de uma matriz, 10 espaço próprio, 15, 19 espectro de uma matriz, 14 expansão linear, 9 fórmula de Laplace, 7 forma quadrática, 24 Gauss-Jordan, 6 identidade de Grassman, 12 imagem de uma transformação linear, 16 independência linear, 11 intersecção e soma de subespaços lineares, 10 isomorfismo, 16 mı́nimos quadrados, 26 método de ortogonalização de Gram-Schmidt, 20 matriz adjunta, 8 matriz aumentada, 4 matriz da métrica, 20 matriz diagonal, 1 matriz diagonalizável, 15, 19, 22 matriz dos cofactores, 8 matriz elementar, 3 matriz hermitiana, 24 matriz identidade, 1 matriz mudança de base, 14 matriz normal, 23 matriz ortogonal, 22 matriz ortogonalmente diagonalizável, 22 matriz simétrica, 22 matriz transposta, 2 matriz triagular superior, 1 matriz unitária, 23 matriz unitariamente diagonalizável, 24 matrizes invertı́veis, 2 matrizes semelhantes, 15 multiplicidade algébrica/geométrica, 14 núcleo, 9, 16 operação elementar, 2 pivô, 2 polinómio caracterı́stico, 14 produto externo, 27 produto interno, 19 produto misto, 27 projecção ortogonal, 20, 21 regra de Cramer, 8 representação matricial de transformações lineares, 16 sistema de equações diferenciais ordinárias, 25 sistema de equações lineares, 4 sistema homogéneo, 5 sistemas impossı́veis, 5 sistemas possı́veis e determinados, 5 sistemas possı́veis e indeterminados, 5 subespaço linear, 9 subespaços em soma directa, 10 teorema de Steinitz, 12 traço de uma matriz, 2 transformação diagonalizável, 19 Transformação injectiva, 16 transformação linear, 16 Transformação sobrejectiva, 16 valor próprio, 14, 19 variáveis livres, 5 vector próprio, 14, 19 vectores geradores, 11 vectores linearmente dependentes, 11 vectores ortogonais, 20 29