Álgebra Linear e Geometria Analı́tica Licenciatura em Engenharia Biomédica 2005/2006 A álgebra de matrizes 1 Generalidades Ao longo deste capı́tulo, K designa C ou R, e m e n elementos de N. [Definição] Chama-se matriz do tipo m × n sobre K a todo o quadro que se obtém dispondo mn elementos de K segundo m linhas e n colunas a11 a12 a13 . . . a1n a21 a22 a23 . . . a2n a a a . . . a A = 31 32 33 3n . . .. .. .. .. . . . am1 am2 am3 . . . amn Os elementos aij dizem-se os elementos ou componentes da matriz. Uma matriz diz-se real ou complexa consoante os seus elementos sejam números reais ou complexos. [Notação] O conjunto de todas as matrizes do tipo m×n sobre K representa-se por Mm×n (K). Usamos a notação Mn (K) para Mn×n (K) e a notação Km para Mm×1 . É costume usarem-se letras maiúsculas para designar matrizes. Exceptuam-se os casos das matrizes coluna (i.e. matrizes em Mm×1 (K)) e das matrizes linha (i.e. matrizes em M1×n (K)), para as quais se utilizam, mais frequentemente, letras minúsculas. A matriz A da definição anterior pode também ser apresentada na forma A = [aij ]m×n , ou, simplesmente, A = [aij ] se não houver ambiguidade. Para cada i e j, o elemento de A situado na linha i e na coluna j, aij , é também referido como o elemento de A na posição (i, j). [Exemplo] Sejam " A= 1 −2 0, 5 4 −3 0 # " , B= 4 −2 −3 0 # e 5 v = 5 . 5 A matriz A é uma matriz real do tipo 2 × 3. Assim, A ∈ M2×3 (R). O elemento de A na posição (2, 1) é 4 e o elemento na posição (1, 3) é 0, 5. B é uma matriz real do tipo 2 × 2 e v é uma matriz coluna pertencente a R3 . 1 [Definição] Duas matrizes com o mesmo número de linhas (m) e de colunas (n) são matrizes do mesmo tipo. Duas matrizes do mesmo tipo A = [aij ]m×n e B = [bij ]m×n são iguais se aij = bij , para quaisquer i ∈ {1, . . . , m} e j ∈ {1, . . . , n}. [Exemplo] Sejam " −1 1 2 0 # " −1 a b 0 # A= e B= . As matrizes A e B são iguais se e somente se a = 1 e b = 2. Apresentamos, agora, alguns tipos especiais de matrizes. [1] Se o número de linhas de uma matriz A ∈ Mm×n (K) é igual ao número de colunas, ou seja, se m = n, a matriz diz-se quadrada de ordem n. Se m 6= n, a matriz diz-se rectangular. Os elementos diagonais de A = [aij ] ∈ Mn (K) são a11 , a22 , . . . , ann . A sequência ordenada constituı́da por estes elementos diz-se a diagonal principal de A. [2] Seja A = [aij ] quadrada. A matriz A diz-se triangular superior se aij = 0 quando i > j, triangular inferior se aij = 0 quando i < j, e diagonal se aij = 0 quando i 6= j. Note-se que as matrizes diagonais são um caso particular das matrizes triangulares. Por uma questão de simplificação de escrita, dada uma matriz diagonal de ordem n a11 0 . . . 0 0 a22 . . . 0 A= .. .. .. , . . . 0 0 . . . ann escrevemos A = diag(a11 , a22 , . . . , ann ). [3] Uma matriz escalar é uma matriz diagonal da forma A = diag(a, a, . . . , a), com a ∈ K. A matriz identidade de ordem n, In , é a matriz escalar de ordem n com os elementos diagonais iguais a 1, ou seja, 1 0 ... 0 0 1 ... 0 In = . . .. . . .. .. 0 0 ... 1 2 [4] A matriz nula m × n é a matriz do tipo m × n cujos elementos são todos iguais a zero. Representa-se por 0m×n ou, simplesmente, por 0 se o tipo da matriz estiver claro no contexto. [5] Apresentamos, de seguida, um tipo especial de matrizes: as matrizes elementares. .. Di (a) = 1 . 1 a 1 .. . 1 Pij = .. Eij (b) = , 1 , . 1 ··· .. . b .. . 1 .. . 1 1 .. . . 1 0 1 1 .. . 1 1 0 1 .. . 1 Às matrizes elementares da forma Pij chamamos matrizes de permutação elementares. Note-se que estas matrizes se obtêm da matriz identidade por troca de uma linha com outra. Mais geralmente, chamamos matriz de permutação a qualquer matriz que se obtenha da matriz identidade por trocas de linhas. [Exemplos] Sejam " # 1 2 −3 1 0 0 0 1 3 A = 4 −5 6 , B = , C = −1 2 0 , 0 2 4 −7 8 9 2 0 3 5 0 0 3 3 3 0 0 0 D = 0 −1 0 , E = 0 3 3 e F = 1 0 0 . 0 0 2 0 0 3 2 3 0 3 A matriz A é uma matriz quadrada de ordem 3 cujos elementos diagonais são 1, −5 e 9. A sua diagonal principal é (1, −5, 9). A matriz B é uma matriz rectangular pertencente a M2×3 (R). As matrizes C e F são triangulares inferiores, E é triangular superior e D é uma matriz diagonal. 2 Operações com matrizes Nesta secção, definimos algumas operações com matrizes e apresentamos certas propriedades que estas satisfazem. [Definição] Sendo A = [aij ], B = [bij ] ∈ Mm×n (K) e α ∈ K, define-se: (i) A + B como sendo a matriz do tipo m × n cujo elemento na posição (i, j) é aij + bij . Assim, A + B = [aij + bij ]. (ii) αA como sendo a matriz do tipo m × n cujo elemento na posição (i, j) é α aij . Assim, αA = [α aij ]. [Exemplos] Sendo 1 −2 3 2 A= 4 0 e B = 0 2 , −5 0, 2 2 1 tem-se 4 0 3 −6 A+B = 4 2 e 3 A = 12 0 . −3 1, 2 −15 0.6 Vejamos, agora, algumas propriedades da adição de matrizes e da multiplicação escalar. [Definição] Sendo A = [aij ]m×n , define-se −A = [−aij ]m×n . [Teorema] Sejam A, B, C ∈ Mm×n (K). Então (i) (A + B) + C = A + (B + C). [associatividade da adição] (ii) A + B = B + A. [comutatividade da adição] (iii) A + 0 = 0 + A. [ 0 é o elemento neutro da adição] (iv) A + (−A) = (−A) + A = 0. [−A é o simétrico de A] Demonstração Demonstramos, apenas, a propriedade (i), deixando as restantes como exercı́cio. 4 Sejam A = [aij ], B = [bij ] e C = [cij ] matrizes em Mm×n (K). Sejam D = (A + B) + C = [dij ] e E = A + (B + C) = [eij ]. Note-se que D e E são matrizes do tipo m × n. Por definição, sabemos que dij = (aij + bij ) + cij e eij = aij + (bij + cij ), para todo o i ∈ {1, . . . , m} e todo o j ∈ {1, . . . , n}. Mas a associatividade da adição em K permite-nos afirmar que (aij + bij ) + cij = aij + (bij + cij ), pelo que dij = eij , para quaisquer i ∈ {1, . . . , m} e j ∈ {1, . . . , n}. Assim, D = E. 2 [Teorema] Sejam A, B ∈ Mm×n (K) e α, β ∈ K. Então (i) α(A + B) = αA + αB. (ii) (α + β)A = αA + βA. (iii) (αβ)A = α(βA). (iv) 1A = A. Demonstração Demonstramos, apenas, a propriedade (ii), deixando as restantes como exercı́cio. Sejam A = [aij ] ∈ Mm×n (K) e α ∈ K. Sejam C = (α + β)A = [cij ] e D = αA + βA = [dij ]. Observe-se que C e D são matrizes do tipo m × n. Por definição, temos que cij = (α + β)aij e dij = αaij + βaij , para todo o i ∈ {1, . . . , m} e todo o j ∈ {1, . . . , n}. Atendendo às leis distributivas em K, podemos concluir que (α + β)aij = αaij + βaij e, por conseguinte, cij = dij , para quaisquer i ∈ {1, . . . , m} e j ∈ {1, . . . , n}. Portanto, C = D. 2 [Definição] Sendo A = [aij ] ∈ Mm×n (K) e B = [bij ] ∈ Mn×p (K), define-se AB como sendo a matriz do tipo m × p cujo elemento na posição (i, j) é ai1 b1j + ai2 b2j + · · · + ain bnj . Assim, " n # X AB = aik bkj . k=1 m×p Como se pode ver da definição anterior, o produto AB da matriz A pela matriz B apenas está definido no caso em que o número de colunas de A coincide com o número de linhas de B. O elemento de AB situado na linha i coluna j de B: · · · b1j ··· ··· ··· ··· · · · b2j ai1 ai2 · · · ain .. .. . . ··· ··· ··· ··· · · · bnj e na coluna j obtém-se a partir da linha i de A e da ··· ··· .. . ··· ··· = ··· ··· Vemos, assim, que 5 ai1 b1j ··· + ai2 b2j + . . . + ain bnj ··· ··· ··· ··· (i) cada entrada de AB é o produto de uma linha de A por uma coluna de B: (AB)ij = (linha i de A)(coluna j de B) (ii) cada coluna de AB é o produto da matriz A por uma coluna de B: (coluna j de AB) = (matriz A)(coluna j de B) (iii) cada linha de AB é o produto de uma linha de A pela matriz B: (linha i de AB) = (linha i de A)(matriz B) [Exemplo] Sendo " # 1 −2 3 2 1 A= 4 , 0 e B= 0 2 −1 −5 3 tem-se AB = = 1 × 3 + (−2) × 0 1 × 2 + (−2) × 2 1 × 1 + (−2) × (−1) 4×3+0×0 4×2+0×2 4 × 1 + 0 × (−1) −5 × 3 + 3 × 0 −5 × 2 + 3 × 2 −5 × 1 + 3 × (−1) 3 −2 3 12 8 4 −15 −4 −8 e " 3 × 1 + 2 × 4 + 1 × (−5) 3 × (−2) + 2 × 0 + 1 × 3 BA = 0 × 1 + 2 × 4 + (−1) × (−5) 0 × (−2) + 2 × 0 + (−1) × 3 " # 6 3 = . 13 −3 # Apresentamos, de seguida, algumas propriedades da multiplicação de matrizes. [Teorema] Sejam A, B ∈ Mm×n (K), C, D ∈ Mn×p (K), E ∈ Mp×q (K) e α ∈ K. Então (i) AIn = Im A = A. (ii) A0 = 0, 0A = 0. (iii) (AC)E = A(CE). [associatividade da multiplicação] (iv) A(C + D) = AC + AD, (A + B)C = AC + BC. [distributividade da multiplicação em relação à adição] 6 (v) α(AC) = (αA)C = A(αC). (vi) AC = 0 ; (A = 0 ou C = 0). (vii) (AC = AD e A 6= 0) ; (C = D). (viii) a multiplicação de matrizes não é comutativa. Demonstração Demonstraremos, apenas, as propriedades (iii), (vi) e (viii), deixando as restantes como exercı́cio. Sejam A = [aij ] ∈ Mm×n (K), C = [cij ] ∈ Mn×p (K) e E = [eij ] ∈ Mp×q (K). Então (AC)E e A(CE) são ambas matrizes do tipo m × q. Por definição, sabemos que o elemento na posição (i, j) de AC é n X aik ckj , k=1 pelo que o elemento na posição (i, l) de (AC)E será ! p n X X aik ckt etl . t=1 k=1 De modo análogo, o elemento na posição (i, l) de A(CE) é ! p n X X ckt etl . aik k=1 t=1 Utilizando as propriedades distributiva da multiplicação em relação à adição, associativa da multiplicação e da adição e comutativa da adição em K, tem-se ! ! p p p p X n X n n n X X X X X X aik (ckt etl ) = (aik ckt ) etl = aik ckt etl . aik ckt etl = k=1 t=1 k=1 t=1 t=1 t=1 k=1 k=1 Podemos, pois, concluir que (AC)E = A(CE) e, consequentemente, que a propriedade (iii.) é válida. Consideremos as matrizes " A= 2 −1 −2 1 # " e C= 1 2 2 4 # . Temos que AC = 0, mas A 6= 0 e C 6= 0. Além disso, " # −2 1 CA = , −4 2 pelo que AC 6= CA. Provámos, deste modo, as propriedades (vi) e (viii). 7 2 3 Inversa de uma matriz quadrada Dado um número não nulo, real ou complexo, podemos falar do seu inverso multiplicativo. Vejamos o que se passa relativamente às matrizes. [Definição] Seja A uma matriz quadrada de ordem n. Dizemos que A é invertı́vel se existir uma matriz X, quadrada de ordem n, para a qual AX = XA = In . Se não existir uma tal matriz X, A diz-se não invertı́vel ou singular. [Teorema] Seja A ∈ Mn (K). Então existe no máximo uma matriz X ∈ Mn (K) tal que AX = XA = In . (Nestas condições, X diz-se a inversa de A e representa-se por A−1 .) Demonstração Sejam X, Y matrizes quadradas de ordem n tais que AX = XA = In = AY = Y A. Então Y = Y In = Y (AX) = (Y A)X = In X = X. Logo, existe no máximo uma matriz X nas condições referidas. 2 [Exemplo] Sendo " 1 1 −1 1 A= # , temos que " 1/2 −1/2 1/2 1/2 A−1 = # , uma vez que " A 1/2 −1/2 1/2 1/2 # " 1/2 + 1/2 −1/2 + 1/2 = −1/2 + 1/2 1/2 + 1/2 " # 1/2 −1/2 = A = I2 1/2 1/2 # [Exemplo] A matriz " A= 2 2 2 2 # não admite inversa: suponhamos que existe X ∈ M2 (R) tal que AX = XA = I2 . Sendo " # a b X= , c d temos que " AX = 2a + 2c 2b + 2d 2a + 2c 2b + 2d # " = 1 0 0 1 # , pelo que 1 = 2a + 2c = 0, o que é impossı́vel. Logo, não existe uma tal matrix X e A não é invertı́vel. [Teorema] Sejam A, B ∈ Mn (K) invertı́veis. Então 8 (i) A−1 é invertı́vel e A−1 −1 = A. (ii) AB é invertı́vel e (AB)−1 = B −1 A−1 . Demonstração A propriedade (i) é trivial. Mostremos, de seguida, a propriedade (ii). Como (AB) B −1 A−1 = A BB −1 A−1 = AIn A−1 = AA−1 = In e B −1 A−1 (AB) = B −1 A−1 A B = B −1 In B = B −1 B = In , podemos concluir que AB é invertı́vel e que a sua inversa é B −1 A−1 . 4 2 Transposição de matrizes [Definição] Dada uma matriz A = [aij ] ∈ Mm×n (K), define-se a transposta de A como sendo a matriz AT = [bij ] ∈ Mn×m (K) onde bij = aji , para i = 1, . . . , n, j = 1, . . . , m. A matriz A diz-se simétrica se AT = A. [Exemplo] Se " A= 1 −3 2 −1 4 5 # , então 1 −1 AT = −3 4 . 2 5 A matriz 1 2 5 2 4 3 5 3 0 é simétrica, mas a matriz 1 2 5 2 4 3 5 1 0 já não o é, dado que os elementos nas posições (2, 3) e (3, 2) são distintos. Note-se que os elementos da coluna i de AT são precisamente os da linha i de A, para i = 1, . . . , m, e uma matriz é simétrica se e só se for quadrada e forem iguais os elementos situados em posições simétricas relativamente à diagonal principal. [Proposição] A transposição de matrizes goza das seguintes propriedades: T (i) AT = A. 9 (ii) (A + B)T = AT + B T . (iii) (αA)T = αAT . (iv) (AB)T = B T AT . (v) Ak T = AT k , sendo k um número natural. (vi) Se A for invertı́vel, então AT também é invertı́vel e AT −1 = A−1 T . Demonstração Demonstraremos, apenas, a propriedade (iv). As restantes ficam como exercı́cio. Sejam m, n, p ∈ N e A = [aij ]m×p e B = [bij ]p×n . Por um lado, AB = [cij ]m×n onde, para cada i ∈ {1, 2, ..., m} e para cada j ∈ {1, 2, ..., n}, cij = ai1 b1j + ai2 b2j + .... + aip−1 bp−1j + aip bpj . Logo, (AB)T = [dij ]n×m onde, para cada i ∈ {1, 2, ..., n} e para cada j ∈ {1, 2, ..., m}, dij = cji = aj1 b1i + aj2 b2i + .... + ajp−1 bp−1i + ajp bpi . Por outro lado, como AT = [eij ]p×m e B T = [fij ]n×p , onde eij = aji e fij = bji , temos que B T AT = [xij ]n×m onde, para cada i ∈ {1, 2, ..., n} e para cada j ∈ {1, 2, ..., m}, xij = fi1 e1j + fi2 e2j + ... + fip−1 ep−1j + fip epj = b1i aj1 + b2i aj2 + .... + bp−1i ajp−1 + bpi ajp = aj1 b1i + aj2 b2i + .... + ajp−1 bp−1i + ajp bpi , pelo que dij = xij , para cada i ∈ {1, 2, ..., n} e para cada j ∈ {1, 2, ..., m}. Logo, (AB)T = B T AT . 2 [Definição] Uma matriz quadrada A diz-se ortogonal se for invertı́vel e A−1 = AT . [Exemplo] A matriz # " √ √ 2/2 − 2/2 √ A= √ 2/2 2/2 é ortogonal. 10 [Proposição] O produto de matrizes ortogonais é ainda uma matriz ortogonal. Demonstração Sejam A, B matrizes ortogonais. Em particular, A e B são matrizes invertı́veis, pelo que AB é invertı́vel. Mais, (AB)−1 = B −1 A−1 = B T AT = (AB)T . 2 [Proposição] A inversa de uma matriz ortogonal é também uma matriz ortogonal. Demonstração Seja A uma matriz ortogonal. Então A−1 = AT . Assim, A−1 −1 = AT −1 = A−1 T . Temos, então, que a inversa de A−1 é igual à transposta de A−1 , donde A−1 é ortogonal. 2 [Definição] Sendo A = [aij ] ∈ Mm×n (C), define-se a conjugada de A como sendo Ā = [aij ] ∈ Mm×n (C). Escrevemos A∗ = ĀT . A matriz A diz-se hermı́tica se A = A∗ . [Teorema] As matrizes complexas gozam das seguintes propriedades: (i) (A∗ )∗ = A. (ii) (A + B)∗ = A∗ + B ∗ . (iii) (αA)∗ = ᾱA∗ , sendo α um número complexo. (iv) (AB)∗ = B ∗ A∗ . (v) Ak ∗ = (A∗ )k , onde k ∈ N. ∗ (vi) se A for invertı́vel, então A∗ também é invertı́vel e (A∗ )−1 = A−1 . 2 Demonstração Exercı́cio. 11