Á LGEBRA L INEAR Pedro Resende Departamento de Matemática, Instituto Superior Técnico, Lisboa, Portugal 2010/2011 Capı́tulo 1 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA 1. L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. 2. G. Strang, Linear Algebra and Its Applications, 1988, 3a. ed., Academic Press. 3. S. Lipschutz, Álgebra Linear, 1994, Schaum’s Outline Series. McGraw-Hill. 4. T.M. Apostol, Cálculo, 1994, Vols. I e II. Reverté. 5. G. Strang, Introduction to Linear Algebra, 2003, Wellesley–Cambridge Press. 6. H. Anton, C. Rorres, Elementary Linear Algebra — Applications Version, 1994, John Wiley & Sons. H OR ÁRIOS DE D ÚVIDAS Serão afixados em breve na página da cadeira, na barra lateral esquerda com o tı́tulo “Horários de Dúvidas”. AVALIAÇ ÃO T ESTE 1: Nas aulas da 5a semana (18–23/10), com 40 minutos de duração. T ESTE 2: Sábado, 4/12/2010, com 50 minutos de duração. T ESTE 3: Sábado, 8/1/2011, com 90 minutos de duração. Os três testes são classificados com números inteiros de 0 a 20, respectivamente T1 , T2 e T3 . A classificação geral é o número inteiro T de 0 a 20 que resulta de arredondar o valor 2T1 + 3T2 + 5T3 . 10 AVALIAÇ ÃO P ROVAS DE RECUPERAÇ ÃO : No dia 25/1/2011 haverá uma prova escrita de recuperação, com duração máxima de 3 horas. Os alunos que se apresentarem a esta prova receberão um enunciado correspondente a toda a matéria, dividido em duas partes. As classificações da primeira parte e da segunda parte são números inteiros R12 e R3 , respectivamente, ambos de 0 a 20, havendo duas opções de recuperação: AVALIAÇ ÃO R ECUPERAÇ ÃO PARCIAL : O aluno entrega a prova ao fim de um tempo máximo igual a 90 minutos e assinala qual das duas partes deve ser classificada: I Se assinalar a primeira parte, no cálculo de T o valor 2T1 + 3T2 é substituı́do por 5R12 , se este for superior; I Se assinalar a segunda parte, no cálculo de T o valor T3 é substituı́do por R3 , se este for superior. R ECUPERAÇ ÃO TOTAL : O aluno assinala ambas as partes e ambas são classificadas. O valor T é substituı́do pela média arredondada de R12 e R3 , se esta for superior. AVALIAÇ ÃO I NSCRIÇ ÕES NAS PROVAS ESCRITAS : Haverá, para cada prova escrita, um perı́odo de inscrição (no fénix), o qual decorrerá durante a semana da prova (que será sempre num sábado) desde as 8:00 de 2a feira até ao meio dia da 4a feira. Todos os alunos que pretendem fazer uma prova escrita devem inscrever-se, a fim de que seja feita uma previsão correcta do número de salas necessárias e assim não venham a faltar lugares para todos. A inscrição não é vinculativa: se um aluno se inscrever e por qualquer razão tiver de faltar à prova não sofre qualquer penalização. Mas, pelo contrário, se um aluno não se inscrever poderá ver-se impedido de realizar a prova. AVALIAÇ ÃO AVALIAÇ ÃO CONT ÍNUA : Durante o semestre será avaliada a resolução de problemas pelos alunos nas aulas de problemas. A classificação final desta componente é um número inteiro P ∈ {0, 1, 2} que contribui com uma bonificação para a nota global N de acordo com a tabela seguinte: I Se T ≤ 9 então N = T + P; I Se 10 ≤ T ≤ 13 então N = T + dP/2e; I Se 14 ≤ T ≤ 15 então N = T + bP/2c; I Se 16 ≤ T então N = T. AVALIAÇ ÃO P ROVA ORAL : Se N ≥ 18 o aluno pode fazer uma prova oral (facultativa) em data a combinar oportunamente com o responsável da cadeira. A classificação da prova oral é um número inteiro de 0 a 20. A PROVAÇ ÃO E CLASSIFICAÇ ÃO FINAL : Se tiver havido prova oral, a classificação final F será a da prova oral. Caso contrário a classificação final será F = min{17, N}. Há aprovação na cadeira se e só se T3 ≥ 8 e F ≥ 10. I N ÍCIO DAS AULAS As aulas iniciam-se pontualmente 10 minutos depois da hora indicada no horário. P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações S ISTEMAS DE EQUAÇ ÕES LINEARES E XPRESS ÕES LINEARES : I x + y − 3z I 5z − 2x I 2y E XPRESS ÕES N ÃO LINEARES : I 5x2 + y I xyz I 3 2y + 2z = 6 x + 2y − z = 1 S ISTEMA DE EQUAÇ ÕES LINEARES : x+y+z = 4 I Método da substituição I Método da redução M ÉTODO DA ELIMINAÇ ÃO DE G AUSS F IGURA : O alemão Carl Friedrich Gauss (30/04/1777 – 23/02/1855), considerado por muitos um dos mais geniais matemáticos de sempre. M ÉTODO DA ELIMINAÇ ÃO DE G AUSS 2y + 2z = 6 x + 2y − z = 1 x + y + z = 4 x + 2y − z = 1 2y + 2z = 6 x + y + z = 4 x + 2y − z = 1 2y + 2z = 6 −y + 2z = 3 (Permutámos a primeira e a segunda equações.) (Subtraı́mos a primeira equação da terceira.) M ÉTODO DA ELIMINAÇ ÃO DE G AUSS x + 2y − z = 1 y + z = 3 (Dividimos por 2 ambos os lados da segunda equação.) −y + 2z = 3 x + 2y − z = 1 + z = 3 y (Adicionámos a segunda equação à terceira.) 3z = 6 = 1 x y = 1 (Aplicámos o substituição.) método da z = 2 M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES 2y + 2z = 6 x + 2y − z = 1 x + y + z = 4 0x + 2y + 2z = 6 1x + 2y + (−1)z = 1 1x + 1y + 1z = 4 I 0 2 2 6 1 2 −1 1 1 1 1 4 Este quadro designa-se por matriz. M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES 2y + 2z = 6 x + 2y − z = 1 x + y + z = 4 0 2 2 6 Matriz aumentada do sistema: 1 2 −1 1 1 1 1 4 0 2 2 Matriz dos coeficientes do sistema: 1 2 −1 1 1 1 6 Matriz dos termos independentes do sistema: 1 4 M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES 0 2 2 1 2 −1 1 1 1 6 1 2 −1 1 → 0 2 2 4 1 1 1 1 1 2 −1 6 → 0 2 2 4 0 −1 2 1 2 −1 1 1 1 1 3 → 0 → 0 0 −1 2 3 0 x + 2y − z y + z → 3z 2 −1 1 1 0 3 = 1 = 3 = 6 1 3 6 1 6 3 M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES 1. Podem permutar-se linhas da matriz aumentada sem que a solução do sistema se altere. 2. Pode adicionar-se a uma linha um múltiplo de outra linha (distinta) sem que a solução do sistema se altere. 3. Pode multiplicar-se uma linha por um número diferente de zero sem que a solução do sistema se altere. N ÚMEROS COMPLEXOS I Os números que surgem nos sistemas de equações lineares e nas correspondentes matrizes podem ser de vários tipos. I Nesta disciplina vamos sobretudo considerar os números racionais, os reais e os complexos. I Os números racionais são representados por fracções m/n em que m e n são números inteiros. I Os números reais são definidos a partir dos racionais e incluem números como π = 3, 141592654..., e = 2, 71828..., etc., e há várias formas de os definir (uma será vista em CDI-I). I Os números complexos são representados por pares de números reais: o número (a, b) é usualmente representado na forma z = a + ib, onde a é a parte real de z e b é a parte imaginária de z. N ÚMEROS COMPLEXOS Podemos também representar o número complexo z = a + ib geometricamente no plano de Argand, em que a parte real é a abcissa e a parte imaginária é a ordenada (coordenadas cartesianas): N ÚMEROS COMPLEXOS I Soma, subtracção e multiplicação de números complexos: (a + ib) + (c + id) = (a + c) + i(b + d) (a + ib) − (c + id) = (a − c) + i(b − d) (a + ib)(c + id) = (ac − bd) + i(ad + bc) (Análogo a operações com polinómios a + bx e c + dx, onde x é substituı́do por i e temos i2 = −1.) I Divisão de números complexos: a + ib (a + ib)(c − id) ac + bd bc − ad = = 2 + i . c + id (c + id)(c − id) c + d2 c2 + d2 I w = c − id é o conjugado de w = c + id. I 2 Na divis √ ão usámos a igualdade ww = |w| , onde |w| = c2 + d2 é o módulo de w. N ÚMEROS COMPLEXOS A representação do número complexo z = a + ib pode também ser em coordenadas polares, com a = r cos θ e b = r sen θ (r = |z|): N ÚMEROS COMPLEXOS Neste caso z é definido pela operação de exponenciação de números complexos: z = reiθ (no ensino secundário era usual a notação r cis θ , onde “cis” corresponde a “cos ...i sen”). Multiplicação e divisão de números complexos em coordenadas polares: iθ1 iθ2 r1 e r2 e = (r1 r2 )ei(θ1 +θ2 ) iθ1 iθ2 r1 e / r2 e = (r1 /r2 )ei(θ1 −θ2 ) N ÚMEROS COMPLEXOS I Os conjuntos dos números racionais, dos números reais e dos números complexos denotam-se por Q, R e C, respectivamente. I Munidos das operações algébricas de soma, multiplicação, divisão, etc., têm a estrutura de um corpo algébrico. (Voltaremos a ver esta noção mais à frente.) I O corpo C distingue-se de Q e de R pelo facto de ser completo. Por outras palavras, verifica-se o Teorema Fundamental da Álgebra: Vamos rever o Teorema Fundamental da Álgebra: T EOREMA Qualquer polinómio com coeficientes complexos e grau maior ou igual a 1 tem pelo menos uma raiz complexa. C OROL ÁRIO Para qualquer polinómio p(z) = a0 + a1 z + · · · an zn de coeficientes complexos com n ≥ 1 existem z1 , . . . , zn ∈ C tais que p(z) = an (z − z1 ) · · · (z − zn ) . N OTA z1 , . . . , zn são as raı́zes do polinómio. Para cada i, o número de factores em que ocorre a raiz zi é a multiplicidade dessa raiz. Capı́tulo 2 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 1.2,1.5 e o inı́cio de 1.3. R EVIS ÃO 2y + 2z = 6 x + 2y − z = 1 x + y + z = 4 0 2 2 6 Matriz aumentada do sistema: 1 2 −1 1 1 1 1 4 0 2 2 Matriz dos coeficientes do sistema: 1 2 −1 1 1 1 6 Matriz dos termos independentes do sistema: 1 4 M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES 0 2 2 1 2 −1 1 1 1 1 2 −1 6 1 → 0 2 2 4 1 1 1 1 2 −1 1 6 → 0 2 2 4 0 −1 2 1 2 −1 1 1 1 1 3 → 0 → 0 0 −1 2 3 0 x + 2y − z y + z → 3z 2 −1 1 1 0 3 = 1 = 3 = 6 E NTRADAS DUMA MATRIZ I 2 1 4 2 0 −10 A= 6 1 −1 2 −10 −4 a11 a12 a13 a14 A = a21 a22 a23 a24 a31 a32 a33 a34 aij é a entrada da linha i e da coluna j. I a23 = 0, a34 = −4, etc. I Exemplo: linha 2 = [6 1 0 − 10] 1 Exemplo: coluna 2 = 1 2 I I I 1 3 6 1 6 3 M ÉTODO DA ELIMINAÇ ÃO DE G AUSS COM MATRIZES R EGRA DA PERMUTAÇ ÃO : Podem permutar-se linhas da matriz aumentada sem que a solução do sistema se altere. R EGRA DA ELIMINAÇ ÃO : Pode adicionar-se a uma linha um múltiplo de outra linha (distinta) sem que a solução do sistema se altere. R EGRA DA MULTIPLICAÇ ÃO : Pode multiplicar-se uma linha por um número diferente de zero sem que a solução do sistema se altere. R EGRA DA ELIMINAÇ ÃO 2x + y + 4z = 2 6x + y = −10 −x + 2y − 10z = −4 I 2 1 4 2 0 −10 Matriz aumentada do sistema: 6 1 −1 2 −10 −4 Pivot = 2 I Adicionar à segunda linha I I 6 − × (primeira linha) = [−6 − 3 − 12 − 6] : 2 2 1 4 2 0 −2 −12 −16 −1 2 −10 −4 R EGRA DA ELIMINAÇ ÃO I 2 1 4 2 0 −2 −12 −16 −1 2 −10 −4 Pivot = 2 I Adicionar à terceira linha I (−1) 1 − × (primeira linha) = 1 2 1 : 2 2 2 1 4 2 0 −2 −12 −16 5 0 −8 −3 2 R EGRA DA ELIMINAÇ ÃO I 2 1 4 2 0 −2 −12 −16 5 0 −8 −3 2 Segundo pivot = -2 I Adicionar à terceira linha I I I 5 (5/2) − × (segunda linha) = 0 − − 15 − 20 : (−2) 2 2 1 4 2 0 −2 −12 −16 0 0 −23 −23 O processo de eliminação terminou (o terceiro pivot teria sido −23). Um pivot é necessariamente diferente de zero! E SBOÇO DE ALGORITMO ( INSUFICIENTE ) I Seja A a matriz aumentada dum sistema. I Se a11 6= 0 escolhe-se a11 como pivot para obter uma nova matriz B com b21 = b31 = . . . = 0. I Se b22 6= 0 escolher b22 como pivot para obter uma nova matriz C com c32 = c42 = . . . = 0. I Se c33 6= 0 escolher c33 como pivot, etc. I Se alguma entrada que queremos usar como pivot for nula podemos recorrer à regra da permutação para tentar obter um pivot válido. I A regra da multiplicação é teoricamente desnecessária mas serve para simplificar os cálculos (e às vezes para minorar problemas numéricos com arredondamentos). I Um pivot não tem de ser uma entrada aij com i = j como nos exemplos anteriores: 2 1 4 2 2 1 4 2 A = 0 0 −1 −10 → 0 0 −1 −10 0 0 1 −4 0 0 0 −14 (A eliminação terminou e os pivots são 2, −1 e −14.) I Neste caso a regra da permutação não permite obter uma matriz com um pivot na posição i = j = 2. I O objectivo da eliminação de Gauss é obter uma matriz na forma de “escada de linhas”, como veremos de seguida. D EFINIÇ ÃO Seja A uma matriz com m linhas e n colunas. Para cada i seja zi o número total de zeros consecutivos a contar da esquerda na linha i (ou seja, o maior número em {0, . . . , n} tal que aij = 0 para qualquer j ∈ {0, . . . , zi }). Diz-se que A tem a forma de escada de linhas, ou que é uma matriz em escada de linhas, se para quaisquer i, k ∈ {1, . . . , m} tais que i < k então: I se zi = n então zk = n e I se zi < n então zi < zk . E XEMPLO A matriz 0 0 0 0 0 2 0 0 0 0 1 4 2 0 −1 −10 0 0 −14 0 0 0 0 0 0 está na forma de escada de linhas: z1 = 1 z2 = 3 z3 = 4 z4 = 5 (= número de colunas) z5 = 5 A LGORITMO I Seja A uma matriz. Se z1 ≤ zi para qualquer linha i então o primeiro pivot é a1j com j = z1 + 1. I Em caso contrário, primeiro permuta-se a linha 1 com uma linha i que tenha zi mı́nimo e só depois se escolhe o pivot da primeira linha. I Aplica-se a regra da eliminação com o primeiro pivot a todas as linhas por forma a obter uma matriz B. I Se z2 ≤ zi para qualquer linha i > 2 de B então o segundo pivot é b2j com j = z2 + 1. I Em caso contrário, primeiro permuta-se a linha 2 de B com uma linha i > 2 que tenha zi mı́nimo e só depois se escolhe o pivot da segunda linha. I Assim por diante até obter uma matriz na forma de escada de linhas. E XEMPLO / C ARACTER ÍSTICA DE UMA MATRIZ 0 1 A= 1 1 2 2 6 1 2 −1 1 1 2 −1 1 2 −1 1 2 6 2 2 6 → 0 2 → 0 1 1 4 1 1 1 4 0 −1 2 3 1 1 1 1 1 1 1 0 −1 2 0 1 0 → 0 0 2 −1 1 1 2 −1 1 2 2 6 2 6 → 0 2 0 3 6 0 0 3 6 0 3 3 0 0 0 −3 =B Há quatro pivots: diz-se então que a matriz B (e, conforme veremos adiante, também a matriz A) tem caracterı́stica igual a 4 (numa matriz em escada de linhas a caracterı́stica é igual ao número de linhas não nulas, ou seja, que têm pelo menos uma entrada não nula). R EVIS ÃO Um vector de Rn é uma lista de n números reais a = (a1 , . . . , an ). Vectores especiais e operações com vectores: I Vector nulo: 0 = (0, . . . , 0) I Soma: a + b = (a1 + b1 , . . . , an + bn ) I Produto por um escalar: ab = (ab1 , . . . , abn ) Exemplos: em R2 a interpretação geométrica é a dos vectores no plano: o vector nulo é a origem; a soma é definida pela regra do paralelogramo; o produto por escalar altera o comprimento e o sentido de um vector mas não a direcção. Idém para R3 e vectores no espaço. D EFINIÇ ÃO Uma solução de um sistema de equações lineares em n incógnitas x1 , . . . , xn é um vector (a1 , . . . , an ) ∈ Rn tal que todas as equações são verdadeiras se se substituir xi por ai para cada i ∈ {1, . . . , n}. Um sistema diz-se: I possı́vel se tiver pelo menos uma solução. I determinado se tiver exactamente uma solução. I indeterminado se tiver mais do que uma solução. I impossı́vel se não tiver nenhuma solução. E XEMPLOS Para as seguintes matrizes aumentadas (já na forma de escada de linhas) os respectivos sistemas são: 1 2 −1 1 Impossı́vel — a carac 0 2 6 2 terı́stica da matriz aumenI 0 0 3 6 tada é superior à da matriz −3 0 0 0 dos coeficientes. Determinado (e portanto 1 2 −1 1 0 2 possı́vel) com solução (1, 1, 2) 2 6 — a caracterı́stica (de ambas as I 0 0 6 3 matrizes) é igual ao número de 0 0 0 0 incógnitas. 1 2 −1 1 0 2 2 6 Indeterminado (e portanto possı́vel) I 0 0 0 0 0 0 0 0 S OLUÇ ÃO GERAL DE UM SISTEMA INDETERMINADO 1 0 0 0 2 −1 2 2 0 0 0 0 1 x + 2y − z = 1 2y + 2z = 6 6 → 0 0 = 0 0 0 = 0 A coluna da incógnita z (a terceira coluna) não tem nenhum pivot e portanto o valor de z não fica determinado: podemos considerar z uma incógnita livre e definir as outras incógnitas em função de z, pelo método da substituição: x + 2(−z + 3) − z = 1 x = 3z − 5 → y = −z + 3 y = −z + 3 O conjunto-solução do sistema é {(x, y, z) ∈ R3 | x = 3z − 5, y = −z + 3} . D ESCRIÇ ÃO PARAM ÉTRICA DO CONJUNTO - SOLUÇ ÃO O conjunto {(x, y, z) ∈ R3 | x = 3z − 5, y = −z + 3} é o conjunto dos vectores da forma (3z−5, −z+3, z) = (3z, −z, z)+(−5, 3, 0) = z(3, −1, 1)+(−5, 3, 0) . A incógnita livre z é um parâmetro (neste caso único) em função do qual é definido o vector. 1 0 0 0 2 −1 2 3 2 2 0 2 0 0 2 2 0 0 0 0 1 6 0 0 x1 + 2x2 − x3 + 2x4 + 3x5 2x2 + 2x3 + 2x5 → + 2x4 + 2x5 0 = = = = 1 6 0 0 As incógnitas livres são x3 e x5 . O grau de indeterminação é 2 = número de incógnitas livres = número de incógnitas menos o número de pivots = número de colunas da matriz dos coeficientes menos a caracterı́stica (de ambas as matrizes). (Nota: um sistema é determinado ⇐⇒ é possı́vel com grau de indeterminação = 0.) x1 + 2x2 − x3 + 2x4 + 3x5 2x2 + 2x3 + 2x5 + 2x4 + 2x5 0 = = = = 1 6 0 0 O conjunto-solução é o conjunto dos vectores (x1 , x2 , x3 , x4 , x5 ) ∈ R5 tais que x1 = 3x3 + x5 − 11 x2 = −x3 − x5 + 6 x4 = −x5 Na forma paramétrica há dois parâmetros, x3 e x5 : x1 x2 x 4 z }| { z }| { z}|{ (3x3 + x5 − 11, −x3 − x5 + 6, x3 , −x5 , x5 ) = x3 (3, −1, 1, 0, 0) + x5 (1, −1, 0, −1, 1) + (−11, 6, 0, 0, 0) P ROPOSIÇ ÃO Qualquer sistema indeterminado tem infinitas soluções. Capı́tulo 3 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 1.3. C OMPLEMENTO DA AULA PASSADA D EFINIÇ ÃO Um sistema diz-se homogéneo se os termos independentes forem todos nulos, ou seja, se a matriz aumentada for da forma seguinte: a11 · · · a1n 0 .. .. .. . . . 0 am1 · · · amn 0 P ROPOSIÇ ÃO Qualquer sistema homogéneo é completamente definido pela matriz dos coeficientes e é um sistema possı́vel cujo conjunto-solução contém o vector nulo. Se o sistema for determinado então a (única) solução é o vector nulo. C OMPLEMENTO DA AULA PASSADA T EOREMA Seja A uma matriz e B uma matriz em escada de linhas obtida de A aplicando as três regras do método de eliminação de Gauss por uma ordem arbitrária. Qualquer que seja a matriz B assim obtida o número de pivots é sempre o mesmo. D EFINIÇ ÃO A caracterı́stica de uma matriz A é o número de pivots de qualquer matriz em escada de linhas B obtida de A pelo método de eliminação de Gauss. M AIS TERMINOLOGIA PARA MATRIZES I I I I I I Uma matriz com m linhas e n colunas a11 · · · a1n .. .. A = ... . . am1 · · · amn diz-se uma matriz m por n, ou uma matriz de dimensão m × n, ou simplesmente uma matriz m × n. Se m = n a matriz diz-se quadrada, caso contrário diz-se rectangular. Se a matriz for quadrada a sua diagonal principal é a lista (a11 , . . . , ann ). Se m = 1 diz-se que A é uma matriz linha. Se n = 1 diz-se que A é uma matriz coluna. O conjunto de todas as matrizes m × n denota-se por Matm×n . V ECTORES COMO MATRIZES COLUNA Há uma correspondência evidente entre os vectores x = (x1 , . . . , xn ) de Rn e as matrizes coluna de dimensão n × 1 x1 .. X= . . xn Por esta razão chamaremos também vectores coluna às matrizes coluna e usaremos tanto a notação X de matriz ou a notação x de vector, para este tipo de matrizes, consoante as circunstâncias. V ECTORES COMO MATRIZES COLUNA S LOGAN Nesta disciplina vamos usar a convenção Rn = Matn×1 . A notação de vector ou a notação de matriz serão escolhidas em função das circunstâncias. Em particular os números reais são identificados com as matrizes 1 × 1: R = Mat1×1 . (Também poderia estabelecer-se uma correspondência entre vectores e matrizes linha, como é óbvio, mas não adoptaremos essa convenção.) O PERAÇ ÕES COM MATRIZES As operações de vectores de Rn (soma e produto por escalar) podem ser definidas para matrizes mais gerais (desde que tenham todas a mesma dimensão): D EFINIÇ ÃO Sejam A e B duas matrizes m × n e seja r ∈ R. Definem-se as matrizes A + B e rA da forma seguinte: a11 + b11 · · · a1n + b1n .. .. .. A+B = . . . am1 + bm1 · · · amn + bmn ra11 · · · ra1n .. .. rA = ... . . ram1 · · · ramn N OTAÇ ÕES ALTERNATIVAS I Usa-se por vezes a notação abreviada [aij ] para denotar a matriz A. Com esta notação, a soma e o produto por escalar de matrizes são definidos por [aij ] + [bij ] = [aij + bij ] r[aij ] = [raij ] . I Para qualquer expressão E que represente uma matriz, por exemplo A + (B + 3C), a respectiva entrada da linha i e da coluna j é usualmente denotada por (E )ij . Em particular tem-se, portanto: (A)ij = aij (A + B)ij = aij + bij (rA)ij = raij . D EFINIÇ ÃO Para qualquer dimensão m × n denota-se por 0 a matriz nula definida por (0)ij = 0, e por −A = (−1)A o simétrico de A. P ROPOSIÇ ÃO As operações com matrizes satisfazem as seguintes propriedades: A SSOCIATIVIDADE DA SOMA : A + (B + C) = (A + B) + C C OMUTATIVIDADE DA SOMA : A + B = B + A E LEMENTO NEUTRO DA SOMA : A + 0 = A A SSOCIATIVIDADE DO PRODUTO POR ESCALAR : (rs)A = r(sA) S IM ÉTRICO DE UMA MATRIZ : A + (−A) = 0 E LEMENTO ABSORVENTE À ESQUERDA : 0A = 0 E LEMENTO ABSORVENTE À DIREITA : r0 = 0 (Escrevemos habitualmente A − B em vez de A + (−B).) O PERAÇ ÕES ENVOLVENDO DIMENS ÕES DIFERENTES D EFINIÇ ÃO A transposta de uma matriz A m × n é a matriz AT n × m definida por (AT )ij = aji . Uma matriz A diz-se: I simétrica se A = AT ; I anti-simétrica se A = −AT . P ROPOSIÇ ÃO Algumas propriedades: (AT )T (A + B)T (rA)T = A = AT + BT = rAT D EFINIÇ ÃO Sejam A e B duas matrizes, respectivamente de dimensões m × p e p × n. O produto de A por B é a matriz AB de dimensão m × n definida da seguinte forma: p (AB)ij = ∑ aik bkj . k=1 O produto AB só está definido se o número de colunas de A for igual ao número de linhas de B! p (AB)ij = ∑ aik bkj k=1 E XEMPLO Sejam x, y ∈ Rn . O produto interno (ou produto escalar) de x e y (que generaliza o produto escalar de R2 ou R3 visto no ensino secundário) é o número real n x · y = x1 y1 + . . . + xn yn = ∑ xi yi . i=1 Logo, o produto escalar dos vectores coincide com o produto de matrizes y1 xT y = x1 · · · xn ... . yn E XEMPLO Seja A uma matriz m × n e seja x ∈ Rn . Então tem-se a11 x1 + . . . + a1n xn .. Ax = . . am1 x1 + . . . + amn xn Logo, o sistema de equações a11 x1 + . . . + a1n xn = b1 .. . am1 x1 + . . . + amn xn = bm é equivalente à equação matricial Ax = b . D EFINIÇ ÃO Para qualquer dimensão n × n denota-se por I a matriz identidade (quadrada) definida por 0 se i 6= j (I)ij = 1 se i = j P ROPOSIÇ ÃO As operações com matrizes satisfazem as seguintes propriedades: A SSOCIATIVIDADE DO PRODUTO : A(BC) = (AB)C D ISTRIBUTIVIDADE À ESQUERDA : A(B + C) = AB + AC D ISTRIBUTIVIDADE À DIREITA : (B + C)A = BA + CA E LEMENTO NEUTRO DO PRODUTO : AI = IA = A E LEMENTO ABSORVENTE : A0 = 0A = 0 T RANSPOSTA DUM PRODUTO : (AB)T = BT AT O BSERVAÇ ÃO IMPORTANTE O produto de matrizes não é em geral comutativo, pois mesmo para matrizes quadradas da mesma dimensão pode ter-se AB 6= BA: 1 0 0 0 0 0 0 0 1 0 = 0 6= = 1 0 1 1 2 0 1 1 1 0 Nota: existem matrizes A e B não quadradas tais que os produtos AB e BA também estão ambos definidos (exercı́cio: escreva um exemplo e mostre que se tem necessariamente AB 6= BA). Exercı́cio: Dê exemplos de matrizes quadradas A e B distintas, com a mesma dimensão, tais que AB = BA. Capı́tulo 4 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 1.3 e 1.6. R EVIS ÃO D EFINIÇ ÃO Sejam A e B duas matrizes, respectivamente de dimensões m × p e p × n. O produto de A por B é a matriz AB de dimensão m × n definida da seguinte forma: p (AB)ij = ∑ aik bkj . k=1 O produto AB só está definido se o número de colunas de A for igual ao número de linhas de B! R EVIS ÃO E XEMPLO Seja A uma matriz m × n e seja x ∈ Rn . O sistema de equações a11 x1 + . . . + a1n xn = b1 .. . am1 x1 + . . . + amn xn = bm é equivalente à equação matricial Ax = b . D EFINIÇ ÃO Para qualquer dimensão n × n denota-se por I a matriz identidade (quadrada) definida por 0 se i 6= j (I)ij = 1 se i = j P ROPOSIÇ ÃO As operações com matrizes satisfazem as seguintes propriedades: A SSOCIATIVIDADE DO PRODUTO : A(BC) = (AB)C D ISTRIBUTIVIDADE À ESQUERDA : A(B + C) = AB + AC D ISTRIBUTIVIDADE À DIREITA : (B + C)A = BA + CA E LEMENTO NEUTRO DO PRODUTO : AI = IA = A E LEMENTO ABSORVENTE : A0 = 0A = 0 T RANSPOSTA DUM PRODUTO : (AB)T = BT AT O BSERVAÇ ÃO IMPORTANTE O produto de matrizes não é em geral comutativo, pois mesmo para matrizes quadradas da mesma dimensão pode ter-se AB 6= BA: 1 0 0 0 0 0 0 0 1 0 = 0 6= = 1 0 1 1 2 0 1 1 1 0 Nota: existem matrizes A e B não quadradas tais que os produtos AB e BA também estão ambos definidos (exercı́cio: escreva um exemplo e mostre que se tem necessariamente AB 6= BA). Exercı́cio: Dê exemplos de matrizes quadradas A e B distintas, com a mesma dimensão, tais que AB = BA. M ATRIZ INVERSA DE UMA MATRIZ QUADRADA D EFINIÇ ÃO Seja A uma matriz quadrada. Designa-se por inversa de A uma matriz B (necessariamente da mesma dimensão) tal que AB = BA = I. Uma matriz A para a qual existe inversa diz-se invertı́vel. P ROPOSIÇ ÃO 1. Qualquer matriz quadrada A tem quando muito uma matriz inversa. Se existir, a inversa de A é denotada por A−1 . 2. Se A e B forem invertı́veis então AB também é e tem-se (AB)−1 = B−1 A−1 . 3. Se A for invertı́vel então AT também é e tem-se (AT )−1 = (A−1 )T . A PLICAÇ ÃO AOS SISTEMAS DE n EQUAÇ ÕES LINEARES A n INC ÓGNITAS Seja A uma matriz quadrada de dimensão n × n. Se A for invertı́vel então o sistema linear Ax = b é determinado e a solução é x = A−1 b . (Note-se a analogia com a solução x = a−1 b da equação ax = b quando a 6= 0.) E LIMINAÇ ÃO DE G AUSS –J ORDAN Seja A uma matriz quadrada n × n. Se o sistema Ax = b for determinado podemos encontrar a solução usando os passos do método de eliminação de Gauss por forma a transformar a matriz aumentada b1 a11 · · · a1n .. . . . .. . . .. . an1 · · · ann bn numa com a forma [I | x], onde x é a solução do sistema: 1 ··· 0 x1 .. . . .. .. . . . . 0 ··· 1 xn R ESOLUÇ ÃO SIMULT ÂNEA DE V ÁRIOS SISTEMAS Seja A uma matriz dos coeficientes comum a k sistemas diferentes: Ax = b(1) .. . Ax = b(k) Podemos fazer a eliminação de Gauss de uma só vez numa matriz aumentada que inclui todos os vectores de termos independentes: (1) ··· .. . a1n .. . b1 .. . am1 · · · amn bm a11 .. . (1) (k) · · · b1 .. .. . . (k) · · · bm Capı́tulo 5 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 1.6. R EVIS ÃO — I NVERSAS DE MATRIZES D EFINIÇ ÃO Seja A uma matriz quadrada. Designa-se por inversa de A uma matriz B (necessariamente da mesma dimensão) tal que AB = BA = I. Uma matriz A para a qual existe inversa diz-se invertı́vel. P ROPOSIÇ ÃO Se A for invertı́vel qualquer sistema Ax = b é determinado e a solução é dada por x = A−1 b. R EVIS ÃO — E LIMINAÇ ÃO DE G AUSS –J ORDAN Seja A uma matriz quadrada n × n. Se o sistema Ax = b for determinado podemos encontrar a solução usando os passos do método de eliminação de Gauss por forma a transformar a matriz aumentada b1 a11 · · · a1n .. . . . .. . . .. . an1 · · · ann bn numa com a forma [I | x], onde x é a solução do sistema: 1 ··· 0 x1 .. . . .. .. . . . . 0 ··· 1 xn R EVIS ÃO — R ESOLUÇ ÃO DE M ÚLTIPLOS SISTEMAS Seja A uma matriz dos coeficientes comum a k sistemas diferentes: Ax = b(1) .. . Ax = b(k) Podemos fazer a eliminação de Gauss de uma só vez numa matriz aumentada que inclui todos os vectores de termos independentes: (1) ··· .. . a1n .. . b1 .. . am1 · · · amn bm a11 .. . (1) (k) · · · b1 .. .. . . (k) · · · bm Suponha-se que cada um dos sistemas Ax = b(`) é possı́vel e tem uma solução x(`) : Ax(1) = b(1) .. . Ax(k) = b(k) Então, sendo X e B as matrizes n × k e m × k definidas por (j) (j) xij = xi e bij = bi , tem-se AX = B . Se A for uma matriz n × n invertı́vel (caso em que todos os sistemas Ax = b são determinados) podemos resolver os k sistemas de uma só vez por eliminação de Gauss–Jordan: a11 · · · a1n .. . . . . . .. an1 · · · ann 1 ··· 0 → ... . . . ... 0 ··· 1 (1) b1 .. . (1) bn (1) x1 .. . (1) xn (k) · · · b1 .. .. . . (k) · · · bn (k) · · · x1 .. .. . . (k) · · · xn Mas se A for invertı́vel também resulta de AX = B que X = A−1 B e portanto concluı́mos que a eliminação de Gauss–Jordan produz a seguinte transformação de matrizes: [A | B] → [I | A−1 B] . Em particular, tem-se [A | I] → [I | A−1 ] . Podemos assim calcular a matriz inversa de uma forma expedita pelo método de Gauss–Jordan. E XEMPLO 2 1 Vamos verificar que a matriz A = tem inversa e vamos 2 2 calcular A−1 . O primeiro passo é obter uma matriz em escada de linhas: 2 1 1 0 2 1 1 0 → 2 2 0 1 0 1 −1 1 Há dois pivots (2 e 1) e portanto a inversa existe (o sistema AX = I é determinado). 2 1 1 0 2 0 2 −1 1 0 1 −1/2 → → 0 1 −1 1 0 1 −1 1 0 1 −1 1 Portanto tem-se A−1 = 1 −1/2 −1 1 . D EFINIÇ ÃO Seja A uma matriz quadrada n × n. Se por eliminação de Gauss encontrarmos n pivots para A então A diz-se não-singular. caso contrário diz-se singular. (Por outras palavras, A é não-singular se e só se a sua caracterı́stica for n.) T EOREMA Seja A uma matriz quadrada n × n. As seguintes afirmações são equivalentes: 1. A é invertı́vel. 2. A é não-singular. O BSERVAÇ ÕES I Se A for uma matriz quadrada então o sistema Ax = b é determinado se e só se qualquer sistema Ax = b0 for determinado. I Esta afirmação é falsa para matrizes rectangulares: o 3 1 2 2 é sistema que tem a matriz aumentada 0 2 0 0 0 1 2 3 2 é impossı́vel. determinado mas 0 2 0 0 1 M ATRIZES ESPECIAIS D EFINIÇ ÃO Seja A uma matriz quadrada. Diz-se que a matriz A é triangular superior se i > j ⇒ aij = 0. E XEMPLO I I 1 1 1 0 0 1 é triangular superior. 0 0 1 Qualquer matriz quadrada em escada de linhas é triangular superior (o exemplo anterior mostra que a afirmação recı́proca é falsa). P ROPOSIÇ ÃO Uma matriz triangular superior é invertı́vel se e só se tiver todos os elementos da diagonal principal diferentes de zero. Nesse caso a inversa também é uma matriz triangular superior. D EFINIÇ ÃO Seja A uma matriz quadrada. Diz-se que a matriz A é I triangular inferior se i < j ⇒ aij = 0 (ou seja, AT é triangular superior); I elementar se for triangular inferior com todas as entradas da diagonal principal iguais a 1 e apenas uma entrada abaixo da diagonal principal diferente de zero. P ROPOSIÇ ÃO Uma matriz triangular superior é invertı́vel se e só se tiver todos os elementos da diagonal principal diferentes de zero. Nesse caso a inversa também é uma matriz triangular superior. P ROPOSIÇ ÃO A inversa de uma matriz elementar obtém-se trocando o sinal da única entrada não-nula fora da diagonal principal. E XEMPLO −1 1 0 0 1 0 0 0 1 0 = 0 1 0 −2 0 1 2 0 1 D EFINIÇ ÃO Uma matriz de permutação é uma matriz quadrada cujas entradas são todas 0 ou 1, tal que em cada linha e em cada coluna existe exactamente uma entrada com o valor 1. (Equivalentemente, uma matriz que resulta da matriz identidade por uma permutação das linhas, ou por uma permutação das colunas.) E XEMPLO 0 1 0 1 0 0 0 0 1 P ROPOSIÇ ÃO Se P for uma matriz de permutação então é invertı́vel e tem-se P−1 = PT . Capı́tulo 6 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Capı́tulo 5. M OTIVAÇ ÃO — ÁREAS DE PARALELOGRAMOS Dados dois vectores x, y ∈ R2 , seja A (x, y) o número real igual, em módulo, à área do paralelogramo determinado pelos vectores, com sinal igual ao do seno do ângulo formado pelos vectores x e y (por esta ordem) — por exemplo na figura seguinte tem-se A (x, y) > 0: y x A LGUMAS PROPRIEDADES DA FUNÇ ÃO A A NULAÇ ÃO : A (x, x) = 0 A LTERN ÂNCIA : A (x, y) = − A (y, x) e1 = (1, 0) N ORMALIZAÇ ÃO : A (e1 , e2 ) = 1 onde e2 = (0, 1) A LGUMAS PROPRIEDADES DA FUNÇ ÃO A L INEARIDADE À ESQUERDA : A (αx, y) = α A (x, y) A (x + x0 , y) = A (x, y) + A (x0 , y) Estas duas propriedades são equivalentes à seguinte: A (αx + β x0 , y) = α A (x, y) + β A (x0 , y) Da mesma forma existe linearidade à direita (respeitante às somas e produtos por escalar na segunda variável). O conjunto dos dois tipos de linearidade designa-se por bilinearidade. Volumes de paralelepı́pedos podem ser tratados de forma análoga, por meio duma função V que a cada três vectores x, y, z ∈ R3 atribui um número real V (x, y, z) que em módulo é igual ao volume do paralelepı́pedo determinado pelos três vectores. Teremos agora: I Linearidade em cada uma das três variáveis. I Anulação: V (x, y, z) = 0 se se tiver x = y ou x = z ou y = z. I Alternância: V (x, y, z) = − V (y, x, z), etc. (o sinal muda sempre que se permutarem duas das variáveis). I Normalização: V (e1 , e2 , e3 ) = 1, onde e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1). D EFINIÇ ÃO Uma função determinante de ordem n é uma função d que a cada n vectores x1 , . . . , xn de Rn atribui um número real d(x1 , . . . , xn ) satisfazendo as condições seguintes: M ULTILINEARIDADE : (= linearidade em cada uma das n variáveis) d(x1 , . . . , αxi , . . . , xn ) = αd(x1 , . . . , xi , . . . , xn ) ; d(x1 , . . . , xi + x0i , . . . , xn ) = d(x1 , . . . , xi , . . . , xn ) + d(x1 , . . . , x0i , . . . , xn ) . A NULAÇ ÃO : d(x1 , . . . , xn ) = 0 se existirem i 6= j tais que xi = xj . N ORMALIZAÇ ÃO : d(e1 , . . . , en ) = 1, onde e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). A alternância é uma propriedade derivada das anteriores: 0 = d(x1 , . . . , x + y, . . . , x + y, . . . , xn ) (Anul.) = d(x1 , . . . , x, . . . , x, . . . , xn ) + d(x1 , . . . , x, . . . , y, . . . , xn ) +d(x1 , . . . , y, . . . , x, . . . , xn ) + d(x1 , . . . , y, . . . , y, . . . , xn ) (Mult.) = d(x1 , . . . , x, . . . , y, . . . , xn ) +d(x1 , . . . , y, . . . , x, . . . , xn ) (Anul.) Nota: Na verdade a anulação também é consequência da alternância, pois se x ocorre em duas posições diferentes então trocando x com x nessas duas posições o valor da função determinante não se altera mas a alternância impõe uma mudança de sinal: d(x1 , . . . , x, . . . , x, . . . , xn ) = −d(x1 , . . . , x, . . . , x, . . . , xn ) Logo, obtemos 2d(x1 , . . . , x, . . . , x, . . . , xn ) = 0 e portanto d(x1 , . . . , x, . . . , x, . . . , xn ) = 0 . F UNÇ ÕES DETERMINANTE PARA MATRIZES A nossa identificação de vectores com matrizes coluna permite-nos pensar numa função determinante de ordem n d : Rn × . . . × Rn → R como uma função definida sobre o conjunto das matrizes n × n: d : Matn×n → R . Sendo A uma matriz n × n, d(A) é o mesmo que d(x1 , . . . , xn ) , onde, para cada j, o vector xj é a coluna j de A. M ATRIZES DE PERMUTAÇ ÃO I Para qualquer função determinante d tem de ter-se d(I) = 1. I Se P for uma matriz de permutação que resulta de I por um número k de trocas de colunas então tem de ter-se d(P) = (−1)k . I O número (−1)k designa-se por paridade da matriz de permutação (qualquer outro número k0 de permutações 0 que levem de I a P tem de satisfazer (−1)k = (−1)k e portanto a noção de paridade está bem definida — a paridade é um conceito associado a permutações em geral). P ERMUTAÇ ÕES Seja C = {a1 , . . . , an } um conjunto de n objectos distintos (números, colunas de uma matriz, etc.). Uma permutação de C é uma função bijectiva σ :C→C. Convencionando uma ordem para os elementos de C, por exemplo (a1 , . . . , an ) , podemos representar as permutações σ por outras listas ordenadas de elementos de C: E XEMPLO Seja C = {1, 2, 3, 4}. Adoptando a lista (1, 2, 3, 4) como referência, a permutação σ : C → C tal que σ (1) = 3, σ (2) = 4, σ (3) = 1 e σ (4) = 2 é representada pela lista (σ (1), σ (2), σ (3), σ (4)) = (3, 4, 1, 2). Notação simplificada: σi em vez de σ (i). P ROPOSIÇ ÃO Seja σ uma permutação de {1, . . . , n} e sejam k e k0 dois números de trocas de elementos aos pares que transformam a lista (1, . . . , n) em (σ1 , . . . , σn ). Então ambos os números k e k0 são pares ou ambos são ı́mpares. D EFINIÇ ÃO O número (−1)k ∈ {−1, 1} da proposição anterior designa-se por paridade ou sinal da permutação σ e denota-se por sgn(σ ). Se a paridade é 1 a permutação diz-se par, caso contrário diz-se ı́mpar. E XEMPLO A permutação que transforma (1, 2, 3, 4) em (1, 3, 4, 2) é par: (1, 2, 3, 4) → (1, 3, 2, 4) → (1, 3, 4, 2) . Da mesma forma dizemos que uma matriz de permutação P é par ou ı́mpar quando a permutação das colunas que transforma I em P é par ou ı́mpar, respectivamente. Dada uma matriz de permutação P de dimensão n × n seja σ a permutação de C = {1, . . . , n} tal que para cada j ∈ C a coluna j de P é igual à coluna σj de I. Então as entradas de P que são iguais a 1 são exactamente pσ1 1 , . . . , pσn n . E XEMPLO Seja 0 0 P= 1 0 1 0 0 0 0 1 0 0 0 0 0 1 As entradas iguais a 1 são p31 , p12 , p23 , p44 e portanto a permutação σ corresponde à lista (3, 1, 2, 4) e é par. E XEMPLO Seja 0 a12 0 0 0 0 a23 0 A= a31 0 0 0 0 0 0 a44 e seja σ a mesma permutação do exemplo anterior. Se d for uma função determinante de ordem 4 então pela multinearidade temos d(A) = a31 a12 a23 a44 d(P) = sgn(σ )a31 a12 a23 a44 = a31 a12 a23 a44 . E XEMPLO Seja d uma função determinante de ordem 2. Pela multilinearidade, uma vez que (a11 , a21 ) = a11 (1, 0) + a21 (0, 1) e (a12 , a22 ) = a12 (1, 0) + a22 (0, 1), temos a11 a12 1 1 d = a11 a12 d a21 a22 0 0 1 0 + a11 a22 d 0 1 0 1 + a21 a12 d 1 0 0 0 + a21 a22 d 1 1 = a11 a22 − a21 a12 . O BSERVAÇ ÕES O exemplo anterior mostra que existe uma e uma só função determinante d de ordem 2. Para cada matriz A de dimensão 2 × 2 temos d(A) = a11 a22 − a21 a12 . Este resultado permite obter uma fórmula simples para a área de um paralelogramo: P ROPOSIÇ ÃO A área do paralelogramo determinado por dois vectores x, y ∈ R2 é igual a |x1 y2 − x2 y1 | . M ATRIZES 3 × 3 Da mesma forma se mostra que para qualquer ordem n existe uma e uma só função determinante d. Por exemplo, se A for uma matriz 3 × 3 ter-se-á d(A) igual a uma soma de seis parcelas (correspondendo às seis permutações de três colunas): d(A) = a11 a22 a33 − a11 a32 a23 + a31 a12 a23 − a31 a22 a13 + a21 a32 a13 − a21 a12 a33 . P ROPOSIÇ ÃO O volume do paralelepı́pedo determinado por três vectores x, y, z ∈ R3 é igual a |x1 y2 z3 − x1 y3 z2 + x3 y1 z2 − x3 y2 z1 + x2 y3 z1 − x2 y1 z3 | . T EOREMA Para cada n ∈ N existe uma e uma só função determinante d, que é definida, para cada matriz A de dimensão n × n, pela fórmula seguinte, onde Sn é o conjunto das permutações de {1, . . . , n}: d(A) = ∑ sgn(σ )aσ1 1 . . . aσn n . σ ∈Sn D EFINIÇ ÃO O determinante de uma matriz A de dimensão n × n é o valor atribuı́do à matriz A pela única função determinante de ordem n. Denota-se este valor por det A ou det(A). a11 · · · an1 .. . . . .. . Outra notação: det(A) = . . an1 · · · ann E XERC ÍCIO Calcule o determinante seguinte: 1 0 0 0 2 1 0 3 0 0 0 0 0 0 4 2 Capı́tulo 7 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Capı́tulo 5. R EVIS ÃO Uma função determinante de ordem n é uma função d que a cada n vectores x1 , . . . , xn de Rn atribui um número real d(x1 , . . . , xn ) satisfazendo as condições de multilinearidade, anulação e normalização (e em consequência também alternância). Exemplos são: I a área orientada determinada por dois vectores de R2 ; I o volume orientado determinado por três vectores de R3 . Para qualquer n existe uma e uma só função determinante de ordem n. (Vamos concluir isto hoje.) Pensando em vectores como colunas de matrizes obtemos a noção de determinante de uma matriz quadrada: D EFINIÇ ÃO O determinante de uma matriz A de dimensão n × n é o valor atribuı́do à matriz A pela única função determinante de ordem n. Denota-se este valor por det A ou det(A). a11 · · · an1 .. . . . .. . Outra notação: det(A) = . . an1 · · · ann E XERC ÍCIO Calcule o determinante seguinte: 1 0 0 0 2 1 0 3 0 0 0 0 0 0 4 2 T EOREMA Para cada n ∈ N existe uma e uma só função determinante det, que é definida, para cada matriz A de dimensão n × n, pela fórmula seguinte, onde Sn é o conjunto das permutações de {1, . . . , n}: det(A) = ∑ sgn(σ )aσ1 1 . . . aσn n . σ ∈Sn Demonstração. A unicidade demonstra-se como nos exemplos. Para a existência demonstramos que det satisfaz os axiomas: Multilinearidade: Suponha-se que a coluna j de A é a combinação αx + β y. Todas as parcelas do somatório det(A) contêm exactamente um factor aσj j da coluna j, que é da forma αxσj + β yσj , pelo que se obtém det(A) = α det(A1 ) + β det(A2 ) onde A1 e A2 são as matrizes que se obtém de A substituindo a coluna j por x e por y, respectivamente. Demonstração. (Continuação) Anulação: Se a coluna j e a coluna k de A forem o mesmo vector (mas j 6= k) então cada parcela aσ1 1 . . . aσj j . . . aσk k . . . aσn n aparece duas vezes no somatório, com sinal trocado: mais precisamente, tem-se aσ1 1 . . . aσj j . . . aσk k . . . aσn n = aτ1 1 . . . aτj j . . . aτk k . . . aτn n onde τ é igual a σ excepto que τj = σk e τk = σj e, como σ e τ diferem exactamente numa troca, tem-se sgn(τ) = − sgn(σ ). Portanto det(A) = 0. Normalização: Tem-se det(I) = 1 porque a única parcela não nula é o produto dos elementos da diagonal principal, que corresponde à permutação identidade, que é par. L EMA Qualquer matriz triangular tem determinante igual ao produto das entradas da diagonal principal. Em particular, uma matriz triangular tem determinante nulo se e só se for uma matriz singular. T EOREMA Para qualquer matriz quadrada A tem-se det(AT ) = det(A) . Demonstração. Cada parcela aσ1 1 . . . aσn n pode ser escrita com os factores permutados na forma aσ1 1 . . . aσn n = a1τ1 . . . anτn onde τ = σ −1 é a permutação inversa de σ . Mas cada factor ajτj é igual a (AT )τj j e portanto tem-se det(A) = ∑ sgn(σ )aσ1 1 . . . aσn n ∑ sgn(σ )(AT )τ1 1 . . . (AT )τn n ∑ sgn(σ )(AT )σ1 1 . . . (AT )σn n = det(AT ) , σ ∈Sn = σ ∈Sn = σ ∈Sn onde no fim a substituição de τ por σ é justificada pelo facto de o conjunto {σ −1 | σ ∈ Sn } ser igual a Sn e para qualquer permutação σ se ter sgn(σ ) = sgn(σ −1 ). C ÁLCULO DE DETERMINANTES POR ELIMINAÇ ÃO DE G AUSS Como det(AT ) = det(A) podemos trabalhar com as linhas de A em vez das colunas. Regra da eliminação para determinantes: a11 · · · an1 a · · · a 11 n1 . . . . . .. .. .. . . ... .. . .. ai1 . . . ain a a in i1 .. . . .. . .. . .. .. = . . . . ak1 + rai1 . . . akn + rain ak1 . . . akn .. .. . .. . . .. . . . .. . . an1 · · · ann an1 ··· ann {z | +r } | Regra da multiplicação para determinantes: a11 · · · an1 a11 · · · an1 .. . . .. .. . . .. .. . . . . rai1 . . . rain = r ai1 . . . ain .. . . .. . . . .. .. . . . .. an1 · · · ann an1 · · · ann = r det(A) det(A) Regra da permutação para determinantes: a11 · · · an1 a11 · · · an1 . . . . . . . .. . . ... .. .. . ak1 . . akn ai1 . . . ain .. . . .. = − .. . . .. . . . . . . ai1 . . . ain ak1 . . . akn .. . .. . . .. . . . . . . . .. an1 · · · ann an1 · · · ann a11 · · · an1 .. . . . . .. . . ai1 . . ain .. . . . . .. . . ai1 . . ain . .. . . . .. . an1 · · · ann {z 0 } E XERC ÍCIO Calcule pelo método de eliminação de Gauss o determinante seguinte: 1 1 1 1 1 2 1 2 0 1 2 3 −1 −1 2 3 T EOREMA det(A) = 0 ⇐⇒ A é singular. Demonstração. Usando a regra da eliminação e a regra da permutação podemos obter a partir de A uma matriz triangular superior A0 . Tem-se det(A0 ) = det(A) ou det(A0 ) = − det(A). Portanto det(A) = 0 se e só se det(A0 ) = 0. Como A0 é triangular a condição det(A0 ) = 0 é equivalente a A0 ser singular e portanto é equivalente a A ser singular. T EOREMA Sejam A e B matrizes quadradas n × n. Então det(AB) = det(A) det(B). Demonstração. Primeiro consideremos o caso em que B é não-singular. Podemos então definir a função f (A) = det(AB) det(B) . Como as linhas da matriz produto AB são determinadas pelo produto das linhas de A pela matriz B é fácil concluir que a função f é uma função determinante das linhas de A, ou seja, f (A) = det(AT ) = det(A). Portanto tem-se det(AB) = det(A) det(B). Por outro lado, no caso em que B é singular então AB também é singular e por isso tem-se det(AB) = 0 = det(A) det(B). E XERC ÍCIO Justifique detalhadamente as seguintes afirmações da demonstração anterior: det(AB) det(B) é uma função I Se B é não-singular então f (A) = determinante das linhas de A. I Se B é singular então AB é singular. (Sugestão: mostre que existe x 6= 0 tal que (AB)x = 0.) C OROL ÁRIO Se A tiver inversa então det(A−1 ) = 1 det(A) . Demonstração. Se A tiver inversa tem-se 1 = det(I) = det(AA−1 ) = det(A) det(A−1 ). Capı́tulo 8 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Capı́tulo 5. R EVIS ÃO T EOREMA det(A) = ∑ sgn(σ )aσ1 1 . . . aσn n . σ ∈Sn I Algoritmo baseado em permutações das colunas (ou das linhas). I Pouco útil para cálculo excepto em casos especiais (muito pouco eficiente), mas útil ao demonstrar propriedades da função determinante. I No caso de matrizes 3 × 3 este método é conhecido como Regra de Sarrus e é computacionalmente razoável porque envolve um somatório com apenas seis parcelas. I Algoritmo baseado em eliminação de Gauss: computacionalmente eficiente. R EGRA DE S ARRUS det A = a11 a22 a33 − a11 a32 a23 + a31 a12 a23 − a31 a22 a13 + a21 a32 a13 − a21 a12 a33 . Permutações pares: • • • Permutações ı́mpares: • • • • • • • • • • • • • • • det A = a11 a22 a33 − a11 a32 a23 + a31 a12 a23 − a31 a22 a13 + a21 a32 a13 − a21 a12 a33 . Pondo as entradas da primeira linha em evidência obtemos a21 a22 a21 a23 a22 a23 − a12 det A = a11 a31 a33 + a13 a31 a32 . a32 a33 Pondo as entradas da segunda linha em evidência obtemos a12 a13 a11 a13 a11 a12 + a22 − a23 . det A = −a21 a32 a33 a31 a33 a31 a32 Etc. O sinal de que é afectada cada uma das três parcelas é determinado pelo sinal (−1)i+j de cada uma das entradas ij da matriz: + − + − + − . + − + Outro exemplo: pondo as entradas da terceira coluna em evidência obtemos a21 a22 a11 a12 −a23 +a33 a11 a12 det A = +a13 a31 a32 a21 a22 a31 a32 É fácil generalizar estes factos para matrizes n × n, como veremos de seguida. . F ÓRMULA DE L APLACE D EFINIÇ ÃO Seja A uma matriz n × n, com n ≥ 2, e sejam i, j ∈ {1, . . . , n}. O menor-ij de A é a matriz Aij (não confundir com a entrada aij = (A)ij ) cuja dimensão é (n − 1) × (n − 1) e que resulta de A pela eliminação das entradas da linha i e da coluna j. T EOREMA (F ÓRMULA DE L APLACE ) Seja A uma matriz n × n. Para qualquer i ∈ {1, . . . , n} temos n det(A) = ∑ (−1)i+j aij det(Aij ) . j=1 N OTA Como det(A) = det(AT ) também temos a Fórmula de Laplace “ao longo das colunas”: para qualquer j ∈ {1, . . . , n} temos n det(A) = ∑ (−1)i+j aij det(Aij ) . i=1 E XERC ÍCIO Calcule pela regra de Laplace os seguintes determinantes: 1 0 0 0 0 2 1 0 1. 0 3 0 4 0 0 0 2 1 1 1 1 1 2 1 2 2. 0 1 2 3 −1 −1 2 3 N OTA O cálculo de um determinante exclusivamente por meio da fórmula de Laplace é em geral pouco eficiente computacionalmente, uma vez que apenas se resume à reorganização, por meio de uma regra de recorrência, da fórmula baseada em permutações. Mas a fórmula de Laplace pode ser usada para decompor o cálculo de um determinante em partes mais simples, por exemplo em conjunto com a eliminação de Gauss, como no seguinte exemplo em que se aplica a fórmula à segunda linha: 1 2 3 4 1 2 4 0 0 2 0 = −2 × 4 4 4 = . . . (elim. Gauss) 4 4 4 4 9 7 2 9 7 1 2 Outras aplicações da fórmula de Laplace são teóricas, como veremos de seguida. E XEMPLO COMPLETO 1 0 4 9 2 0 4 7 3 2 4 1 4 0 4 2 1 2 4 = −2 × 4 4 4 9 7 2 (F. Laplace, linha 2) 1 2 4 = −2 × 0 −4 −12 0 −11 −34 −4 −12 = −2 × 1 × −11 −34 (Elim. Gauss, pivot 1) (F. Laplace, coluna 1) = −2 × 1 × ((−4) × (−34) −(−11) × (−12)) = −8 C O - FACTORES E MATRIZES INVERSAS D EFINIÇ ÃO Seja A uma matriz n × n e sejam i, j ∈ {1, . . . , n}. O cofactor-ij de A é o número A0ij = (−1)i+j det(Aij ) . A matriz dos cofactores de A é a matriz cof(A) = [A0ij ] cuja entrada (cof(A))ij é o cofactor-ij de A. Definindo a matriz B cuja entrada bij é o cofactor-ji de A (note-se a permutação dos ı́ndices), ou seja, B = cof(A)T , podemos rescrever a fórmula de Laplace da seguinte forma: n n i+j det(A) = ∑ aij (−1) j=1 det(Aij ) = ∑ aij bji = (AB)ii . j=1 (De igual modo, a fórmula de Laplace ao longo das colunas permite concluir que (BA)jj = det(A).) T EOREMA Seja A uma matriz n × n não-singular. Então A−1 = 1 (cof A)T . det A Demonstração. Continuando a denotar (cof A)T por B, já vimos que para quaisquer i e j temos (AB)ii = (BA)jj = det A. Falta apenas mostrar que se i 6= j então (AB)ij = (BA)ji = 0 para concluir que AB = BA = (det A)I, ou seja, que A−1 = det1 A B como pretendido. Demonstração. (Continuação) Sejam então i 6= j. Temos n (AB)ij = n ∑ aik bkj = ∑ aik (−1)j+k det(Ajk ) . k=1 k=1 Note-se que o menor-jk de A, que aparece neste somatório, não depende da linha j de A e por isso é igual ao menor-jk da e que resulta de A se substituirmos a linha j de A pela matriz A linha i. Então o somatório pode rescrever-se assim: n e jk (−1)j+k det(A ejk ) . ∑ (A) k=1 Demonstração. (Continuação) e jk (−1)j+k det(A ejk ) é precisamente o valor de Mas a soma ∑nk=1 (A) e dado pela fórmula de Laplace aplicada à linha j. det(A) e tem duas linhas (i e j) iguais resulta que Uma vez que A e = 0 e por isso (AB)ij = 0. det(A) De igual forma, usando a fórmula de Laplace aplicada a colunas, se conclui que (BA)ji = 0. Portanto AB = BA = (det A)I, como pretendı́amos provar. E XERC ÍCIO Considere a matriz 1 1 1 A= 1 0 1 . 2 3 4 1. Calcule as entradas da primeira linha de cof A. 2. Calcule det A. 3. Se A for não-singular calcule as restantes entradas de cof A e calcule a matriz A−1 . Capı́tulo 9 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Capı́tulo 5 e Secção 4.6. R EVIS ÃO D EFINIÇ ÃO Seja A uma matriz n × n. O cofactor-ij de A é o número A0ij = (−1)i+j det(Aij ) , onde Aij é o menor-ij de A, ou seja, a matriz que resulta de A se apagarmos a linha i e a coluna j. A matriz dos cofactores de A é cof(A) = [A0ij ] . R EVIS ÃO T EOREMA A fórmula de Laplace ao longo da linha i é: det(A) = (linha i de A) · (linha i de cof A) n = ∑ aij (−1)i+j det(Aij ) j=1 = (A (cof A)T )ii . A fórmula de Laplace ao longo da coluna j é: det(A) = (coluna j de cof A) · (coluna j de A) n = ∑ (−1)i+j det(Aij ) aij i=1 = ((cof A)T A)jj . R EVIS ÃO T EOREMA Seja A uma matriz n × n. Então tem-se A(cof A)T = (det A)I = (cof A)T A . C OROL ÁRIO Seja A uma matriz n × n não-singular. Então A−1 = 1 (cof A)T . det A R EGRA DE C RAMER A fórmula anterior para matrizes inversas permite-nos resolver sistemas determinados pela chamada regra de Cramer, como veremos de seguida. Se A for uma matriz não-singular então Ax = b é um sistema determinado cuja solução é x = A−1 b. Substituindo A−1 por 1 T det A (cof A) obtém-se 1 n xj = ∑ (cof A)ij bi . det A i=1 Uma vez que (cof A)ij não depende da coluna j de A temos (cof A)ij = (cof B)ij para qualquer i e qualquer matriz B que apenas difira de A na coluna j. Em particular, seja A(j) a matriz que resulta de A se substituirmos a coluna j de A pelo vector b. Tem-se então, para cada j, n n ∑ (cof A)ij bi = ∑ (cof A(j) )ij (A(j) )ij = det A(j) . i=1 i=1 Obtivemos assim a regra de Cramer, que é uma fórmula para calcular directamente a j-ésima incógnita xj sem ter de calcular todo o vector-solução: det A(j) xj = . det A E XERC ÍCIO Considere as matrizes 1 1 1 A= 1 0 1 , 2 3 4 0 b= 1 , 0 x x= y . z Calcule o valor de y determinado pelo sistema Ax = b. (Já vimos noutro exercı́cio que A é uma matriz não-singular e calculámos det A.) R ESOLUÇ ÃO Já calculámos det A = −2 noutra aula. A matriz que resulta de substituir a segunda coluna de A pelo vector b é 1 0 1 A(2) = 1 1 1 , 2 0 4 pelo que, pela regra de Cramer, a incógnita y (que corresponde à segunda coluna) tem o valor 1 0 1 1 1 1 1 1 2 0 4 +1 × 2 4 1 × 4 − 2 × 1 y= = = = −1 . −2 −2 −2 P RODUTO EXTERNO D EFINIÇ ÃO Sejam x, y ∈ R3 dois vectores. O produto externo de x e y é o vector de R3 definido da seguinte forma: x × y = (x2 y3 − y2 x3 , y1 x3 − x1 y3 , x1 y2 − y1 x2 ) . N OTA x2 x3 x1 x3 x1 x2 e − e + e x × y = y2 y3 1 y1 y3 2 y1 y2 3 N OTA Simbolicamente podemos escrever, pensando na fórmula de Laplace aplicada à primeira linha, a seguinte fórmula para o produto externo: e1 e2 e3 x × y = x1 x2 x3 y1 y2 y3 (Note-se que não está definida uma noção de matriz cujas entradas são vectores e por isso a notação acima é apenas uma mnemónica!) E XERC ÍCIO Verifique as seguintes propriedades: N ORMALIZAÇ ÃO : I I I e1 × e2 = e3 e2 × e3 = e1 e3 × e1 = e2 A NULAÇ ÃO : x × x = 0 A LTERN ÂNCIA : x × y = −y × x B ILINEARIDADE : (αx) × y = α(x × y) x × (αy) = α(x × y) (x + x0 ) × y = x × y + x0 × y x × (y + y0 ) = x × y + x × y0 E XERC ÍCIO Recorde (do ensino secundário) que dois vectores x, y ∈ R3 são ortogonais, ou perpendiculares (e escreve-se x ⊥ y), se e só se o seu produto escalar for nulo: x ⊥ y ⇐⇒ x · y = 0 . 1. Mostre que se tem, para quaisquer x, y, z ∈ R3 , x1 x2 x3 x · (y × z) = y1 y2 y3 . z1 z2 z3 2. Mostre que x × y é ortogonal a x e a y. N OTA O produto externo tem ainda as propriedades seguintes (a demonstração será feita oportunamente): I O comprimento de x × y é igual à área do paralelogramo definido por x e y. I A orientação relativa do terno ordenado (x, y, x × y) é semelhante à de (e1 , e2 , e3 ). Por outras palavras, esta orientação é dada pela “regra da mão direita”: se os dedos da mão direita acompanharem a rotação de x para y (no sentido em que o ângulo é menor que π) então x × y aponta no sentido do polegar. E XERC ÍCIOS Seja A uma matriz n × n (com n ≥ 2). 1. Mostre que para qualquer número real r se tem det(rA) = rn det A. 2. Mostre que A é singular se e só se cof A for singular. 3. Mostre que (det A)(det(cof A)) = (det A)n . 4. Mostre que se A for não-singular então det(cof A) = (det A)n−1 . 5. Mostre que det A = 1 se e só se det(cof A) = 1. Definindo, para uma matriz de permutação P qualquer, +1 se P é par, sgn(P) = −1 se P é ı́mpar (ou seja, sgn(P) é o sinal da correspondente permutação das colunas), resolva o exercı́cio seguinte: E XERC ÍCIO Seja P uma matriz de permutação n × n (com n ≥ 2) e sejam i, j ∈ {1, . . . , n} tais que pij = 1. 1. Mostre que Pij também é uma matriz de permutação. 2. Esta conclusão manter-se-ia se pij = 0? Explique. 3. Verifique, escolhendo uma matriz de permutação 4 × 4 arbitrária, que sgn(P) = (−1)i+j sgn(Pij ). (Ou seja, P é par se e só se os sinais da entrada ij e do menor Pij forem iguais.) (Na verdade tem-se sgn(P) = (−1)i+j sgn(Pij ) para uma matriz de permutação P qualquer.) Capı́tulo 10 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 2.1 e 2.2. M OTIVAÇ ÕES I Até agora recordámos que um “vector” é um elemento de um espaço Rn com n = 1, 2, 3, . . ., e também adoptámos a convenção de identificar os vectores de Rn com as matrizes coluna de Matn×1 . I Este conceito revelou-se útil por exemplo ao definir o que se entende por solução de um sistema de equações lineares e veremos que muito mais se pode dizer a este respeito. I No entanto este conceito de vector é, em muitas aplicações, insuficiente. I Por exemplo, os vectores x ∈ Rn podem descrever-se por meio de um número finito de “coordenadas” x1 , . . . , xn . São necessárias exactamente n coordenadas para descrever um vector e esta situação corresponde, como veremos, a dizer que Rn é um espaço de dimensão igual a n. I Mas encontraremos situações em que serão necessários vectores mais gerais, descritos por um número infinito de coordenadas. Como veremos, um espaço formado por tais vectores diz-se de dimensão infinita. I Ou, por vezes, encontraremos espaços que, mesmo sendo de dimensão igual a n, têm um aspecto aparentemente muito diferente de Rn . Por exemplo, conjuntos de soluções de certas equações diferenciais são deste tipo: os “vectores” são funções (por exemplo funções reais de variável real). I Para obter o conceito suficientemente geral de vector que permita englobar ambos os aspectos mencionados vamos recorrer a uma abordagem axiomática, estudando quais devem ser as operações algébricas com vectores e quais são as propriedades destas operações, descritas por axiomas apropriados. I (Já vimos um exemplo do poder da abordagem axiomática ao calcular a área orientada de um paralelogramo a partir da descrição de um conjunto de axiomas que a função A satisfaz.) I Começaremos por extrair as operações e axiomas apropriados inspirando-nos no exemplo concreto de Rn . D EFINIÇ ÃO Um espaço vectorial real, ou espaço linear real, é um conjunto V, cujos elementos são denominados vectores, sobre o qual estão definidas as operações seguintes (satisfazendo os axiomas que descreveremos de seguida): A DIÇ ÃO : Dados x, y ∈ V existe um vector x + y ∈ V, designado por soma de x e y. (Esta operação diz-se binária.) Z ERO : Existe um vector 0 ∈ V designado por zero. (Esta operação diz-se constante ou 0-ária.) S IM ÉTRICO : Dado x ∈ V existe um vector −x ∈ V designado por simétrico de x. (Esta operação diz-se unária.) Escrevemos x − y em vez de x + (−y). M ULTIPLICAÇ ÃO : Dado r ∈ R e x ∈ V existe um vector rx ∈ V, designado por produto de r por x. (Operação binária heterogénea.) D EFINIÇ ÃO (Continuação) Os axiomas são os seguintes: A SSOCIATIVIDADE DA SOMA : (x + y) + z = x + (y + z). C OMUTATIVIDADE DA SOMA : x + y = y + x. E LEMENTO NEUTRO : 0 + x = x. E LEMENTO SIM ÉTRICO : x − x = 0. A SSOCIATIVIDADE DA MULT.: r(sx) = (rs)x. U NITARIDADE : 1x = x. D ISTRIBUTIVIDADE DIREITA : r(x + y) = rx + ry. D ISTRIBUTIVIDADE ESQUERDA : (r + s)x = rx + sx. Nota 1: V é um grupo abeliano (primeiros quatro axiomas). Nota 2: 0 é o único elemento neutro; para cada vector x o único vector y tal que x + y = 0 é o vector y = −x; e se x + x = x então x = 0. Nota 3: 0x = 0 e (−1)x = −x. E XEMPLO 1. Rn . 2. Matm×n . 3. RA = {funções f : A → R} . (f + g)(a) = f (a) + g(a) 0(a) = 0 (−f )(a) = −(f (a)) (rf )(a) = r(f (a)) 4. Mais uma convenção: R{1,...,n} = Rn . Um vector x ∈ Rn corresponde à função f : {1, . . . , n} → R definida por f (1) = x1 , . . . , f (n) = xn . 5. RN . Os vectores são as sucessões de números reais, que podemos encarar como “vectores infinitos” (x1 , x2 , x3 , . . .) (veremos que este é um exemplo de espaço de dimensão infinita). E XEMPLO 6. Se A e B forem dois conjuntos, escreve-se A × B = {(a, b) | a ∈ A, b ∈ B} . (Por exemplo, R × R = R2 .) Em particular, {1, . . . , m} × {1, . . . , n} é o conjunto de pares ordenados (i, j) de números naturais tais que i ∈ {1, . . . , m} e j ∈ {1, . . . , n} e por isso podemos fazer a identificação R{1,...,m}×{1,...,n} = Matm×n , segundo a qual a matriz A de dimensão m × n corresponde à função f : {1, . . . , m} × {1, . . . , n} → R definida por f (i, j) = aij . E XEMPLO 7. Se V e W forem dois espaços vectoriais reais então V ×W é um espaço vectorial real com as operações (v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ) zero = (0, 0) −(v, w) = (−v, −w) r(v, w) = (rv, rw) . 8. R × R é exactamente o mesmo que o espaço R2 . 9. Evidentemente, podemos identificar (R × R) × R com R3 , pois o vector ((x1 , x2 ), x3 ) de (R × R) × R pode identificar-se com (x1 , x2 , x3 ) ∈ R3 . AVISO O conceito de “vector” agora definido é abstracto. Na verdade não definimos o que se entende por vector mas sim por “espaço de vectores”. Ou seja, apenas faz sentido dizer que um objecto é um vector no contexto duma colecção da qual o objecto faz parte e que tem as propriedades apropriadas. D EFINIÇ ÃO Definimos também as seguintes noções: I Um espaço vectorial racional, ou espaço linear racional tem uma definição em tudo análoga à de espaco vectorial real, mas com R substituı́do pelo conjunto dos números racionais Q. I Um espaço vectorial complexo, ou espaço linear complexo tem uma definição em tudo análoga à de espaco vectorial real, mas com R substituı́do pelo conjunto dos números complexos C. N OTA Uma vez que se tem as inclusões Q ⊂ R ⊂ C, qualquer espaço vectorial complexo é também um espaço vectorial real e qualquer espaço vectorial real é também um espaço vectorial racional. E XEMPLO Os exemplos são em tudo semelhantes aos de espaço vectorial real: I Qn e Cn são respectivamente um espaço vectorial racional e um espaço vectorial complexo. I Dado um conjunto A definem-se os espaços de funções QA e CA , que são respectivamente um espaço vectorial racional e um espaço vectorial complexo. I CN é o espaço vectorial complexo das sucessões de números complexos. I Se V e W são espaços racionais (resp. complexos) então define-se o produto cartesiano V × W, que é um espaço racional (resp. complexo). I Os comentários relativos às identificações, por exemplo C{1,...,n} = Cn , ou Q × (Q × (Q × Q)) = Q4 , são análogos. M UDANÇA DE ESCALARES Já referimos que qualquer espaço vectorial complexo é também um espaço vectorial real. Por exemplo, C, que é um espaço vectorial complexo, é portanto também um espaço vectorial real, cujos vectores são descritos exactamente por duas coordenadas independentes: a parte real e a parte imaginária dum número complexo. Como veremos, isto significa que C, enquanto espaço vectorial real, tem dimensão igual a 2 e por isso é “análogo” (dir-se-á “isomorfo”) a R2 : cada vector a + ib de C corresponde ao vector (a, b) de R2 (o plano de Argand pode ser identificado com o plano xy). Um sistema de números com as propriedades apropriadas para definir a noção de espaço vectorial, de que Q, R e C são exemplos, diz-se um corpo algébrico. Nesta disciplina os corpos mais importantes serão R e C. P ROPOSIÇ ÃO Tudo o que foi visto a propósito de sistemas de equações lineares, matrizes e determinantes, é válido quando R é substituı́do por Q ou C. A partir daqui, nesta aula, faremos uma digressão sobre o conceito de corpo. Começamos pela definição rigorosa, que é a seguinte: D EFINIÇ ÃO Um corpo algébrico, ou simplesmente um corpo, é um conjunto K equipado com: I uma estrutura de grupo abeliano (ou seja, operações “+”, “0” e “−” com propriedades análogas às das correspondentes operações dos espaços vectoriais); I uma operação binária associativa e comutativa de multiplicação que a cada par de elementos x, y ∈ K faz corresponder o produto xy; I um elemento neutro denotado por 1 e designado por unidade do corpo (ou seja, um elemento necessariamente único e tal que 1x = x); I para cada x 6= 0 em K, um inverso x−1 (ou seja, um elemento, necessariamente único, tal que xx−1 = 1). E XEMPLO I Para cada número primo p o conjunto Zp = {0, 1, . . . , p − 1} dos números inteiros módulo p é um corpo. Estes corpos são finitos, ao contrário de Q, R e C. I O corpo Z2 tem apenas dois elementos e pode relacionar-se com a álgebra de Boole dos valores lógicos 0 e 1: a multiplicação corresponde à conjunção e a soma corresponde ao “ou exclusivo”. D EFINIÇ ÃO Um espaço vectorial sobre um corpo K é definido da mesma forma que um espaço vectorial real mas com R substituı́do por K. E XEMPLO Os exemplos básicos de espaço vectorial sobre um corpo K são novamente semelhantes aos de espaço vectorial real: I K n = {(k1 , . . . , kn ) | k1 , . . . , kn ∈ K}. I Dado um conjunto A temos o espaço de funções K A = {funções f : A → K}. I Se V e W são espaços vectoriais sobre K então define-se o produto cartesiano V × W, que é um espaço vectorial sobre K. I Os comentários relativos às identificações, por exemplo K {1,...,n} = K n , ou (K × K) × (K × K) = K 4 , são análogos. M ATRIZES E DETERMINANTES SOBRE UM CORPO ARBITR ÁRIO Quase tudo o que foi dito acerca de matrizes e determinantes é válido se substituirmos R por um corpo arbitrário. A excepção: para certos corpos K pode acontecer que a propriedade da anulação deixe de ser equivalente à alternância (mas a anulação implica sempre a alternância). Por exemplo, isto acontece com o corpo Z2 : se duas colunas duma matriz A forem iguais então pela alternância concluı́mos apenas det(A) = − det(A), ou seja, det(A) + det(A) = 0, e em Z2 isto pode acontecer com det(A) = 1. Mais geralmente, a alternância é uma propriedade mais fraca do que a anulação precisamente quando o corpo tem caracterı́stica igual a 2: D EFINIÇ ÃO Diz-se que um corpo tem caracterı́stica n se n for o menor número natural tal que a soma 1 + . . . + 1 com n parcelas é igual a 0; e diz-se que tem caracterı́stica 0 se não existir nenhum número natural n com essa propriedade. E XEMPLO Q, R e C têm caracterı́stica 0. O corpo finito Zp tem caracterı́stica p. P ROPOSIÇ ÃO Tudo o que foi dito a propósito de sistemas de equações lineares, matrizes e determinantes é válido para qualquer corpo de caracterı́stica diferente de 2. Capı́tulo 11 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 2.2. R EVIS ÃO I Um espaço vectorial sobre um corpo K, ou espaço linear sobre K, é um conjunto V, cujos elementos são denominados vectores, sobre o qual estão definidas operações que incluem I I adição de vectores e multiplicação de vectores por elementos de K (os quais são denominados escalares). I (Nesta disciplina usaremos maioritariamente o caso K = R ou K = C, mas outros casos poderão aparecer de vez em quando, por exemplo K = Q ou K = Zp para algum p.) I Todas as operações podem ser derivadas destas duas. Em particular, os axiomas de espaço vectorial são tais que V não pode ser o conjunto vazio e para cada x ∈ V o elemento 0 = 0x é o elemento neutro da adição e −x = (−1)x é o elemento simétrico (significando que V tem a estrutura de grupo abeliano). I Além disso a multiplicação por escalar também é associativa, ou seja, tem-se r(sx) = (rs)x para quaisquer r, s ∈ K e x ∈ V, unitária, ou seja, 1x = x para cada x ∈ V, e distributiva sobre a soma em cada uma das variáveis. I O exemplo principal de espaço vectorial sobre K visto na aula passada foi o do espaço das funções f : A → K, onde A é um conjunto A fixo. I Como vimos, este exemplo inclui muitos outros, em particular os espaços K n , que podem ser identificados com K {1,...,n} . I No caso K = R vimos que também o espaço Matm×n é deste tipo. I Em geral, para um corpo K qualquer, designaremos o espaço vectorial sobre K das matrizes m × n com entradas em K por Matm×n (K). Este espaço pode ser identificado com K {1,...,m}×{1,...,n} . I Vimos também o produto cartesiano V × W de dois espaços vectoriais V e W sobre o mesmo corpo K. I Por exemplo, podemos identificar K m × K n com K m+n , pois cada vector ((x1 , . . . , xm ), (y1 , . . . , yn )) ∈ K m × K n é o mesmo, a menos de mudança de parênteses, que o vector (x1 , . . . , xm , xm+1 , . . . , xm+n ) ∈ K m+n , em que xm+1 = y1 , . . . , xm+n = yn . I Vamos agora estudar mais exemplos e em simultâneo introduzir a noção importante de subespaço de um espaço vectorial. E XEMPLO Os seguintes conjuntos também são espaços lineares com as operações habituais: I O conjunto de todos os vectores de R2 que são múltiplos de (1, 2). I O conjunto de todas as matrizes A ∈ Mat2×3 (C) tais que a12 = 0. I O conjunto de todas as funções contı́nuas f : R → R. Em todos estes casos tomámos para espaço vectorial um subconjunto de um espaço conhecido, respectivamente R2 , Mat2×3 (C) e RR . D EFINIÇ ÃO Seja V um espaço vectorial sobre um corpo K. Um subconjunto S ⊂ V diz-se um subespaço vectorial de V se satisfizer as seguintes condições relativamente às operações de espaço vectorial definidas em V: 1. 0 ∈ S. 2. Se x, y ∈ S então x + y ∈ S. 3. Se r ∈ K e x ∈ S então rx ∈ S. P ROPOSIÇ ÃO Se S for um subespaço vectorial de V então S, com as mesmas operações de V, também é um espaço vectorial sobre K. E XEMPLO I O conjunto de todas as funções f : R → R tais que f (2) = 0 é um subespaço de RR . I O subconjunto de Mat2×3 (C) formado pelas matrizes A tais que a12 = 1 NÃO é um subespaço porque a matriz nula não lhe pertence. I Qualquer recta em R2 que passe pela origem define um subespaço de R2 . I Qualquer plano em R3 que passe pela origem define um subespaço de R3 . I Nenhuma recta em R2 que não passe pela origem pode ser um subespaço. I A parábola de equação y = x2 contém a origem mas não é um subespaço de R2 . E XEMPLO São espaços vectoriais: I O conjunto P(K) de todos os polinómios a0 + a1 x + a2 x2 + . . . + an xn com coeficientes ai ∈ K (subespaço de K K ). I O conjunto Pn (K) de todos os polinómios de P(K) com grau menor ou igual a n. I O conjunto de todas as sucessões de números reais {xn } que satisfazem a relação de recorrência xn+2 = xn+1 + xn (subespaço de RN ). I O conjunto C(a, b) de todas as funções contı́nuas f : ]a, b[ → R, ou o conjunto C[a, b] de todas as funções contı́nuas f : [a, b] → R (subespaços de R]a,b[ e R[a,b] , respectivamente). I O subespaço Ck (a, b) ⊂ C(a, b) de todas as funções reais com derivada contı́nua até à ordem k ≥ 1 em ]a, b[. E XEMPLO São espaços vectoriais: I O conjunto de todas as funções y : ]a, b[ → R com segunda derivada contı́nua e que são soluções da equação diferencial y00 + ry0 + y = 0 . (Subespaço de C2 (a, b).) I O conjunto-solução de um sistema homogéneo Ax = 0 (subespaço de K n se a matriz A tiver n colunas). D EFINIÇ ÃO O conjunto-solução do sistema homogéneo cuja matriz dos coeficientes é A designa-se por núcleo, ou espaço nulo, de A, e denota-se por nuc(A). E XEMPLO O plano em R3 definido pela equação x+y−z = 0 é o núcleo da matriz [1 1 − 1] e por isso é um subespaço de R3 . Como a equação Ax = 0 significa que o produto interno (1, 1, −1) · (x, y, z) é nulo, deduz-se que este espaço é, geometricamente, o plano que passa pela origem e é perpendicular ao vector (1, 1, −1). E XEMPLO I Se V 0 e V 00 forem subespaços de um espaço vectorial V sobre um corpo K então a intersecção V 0 ∩ V 00 também é um subespaço de V (é o maior subespaço de V contido em V 0 e em V 00 ). I O conjunto-solução do sistema x+y−z = 0 x−y+z = 0 é a recta que passa pela origem de R3 e que é a intersecção dos dois subespaços (planos passando pela origem de R3 ) definidos pelas equações x + y − z = 0 e x − y + z = 0. Note-se que a intersecção é mesmo uma recta, ou seja, os dois planos não são coincidentes, porque os vectores (1, 1, −1) e (1, −1, 1) não são colineares. Assunto a retomar na próxima aula: E XEMPLO I Se V 0 e V 00 forem subespaços de um espaço vectorial V sobre um corpo K então o conjunto V 0 + V 00 = {x + y | x ∈ V 0 , y ∈ V 00 } é designado por soma de V 0 e V 00 e também é um subespaço de V (é o menor subespaço de V que contém V 0 e V 00 ). Capı́tulo 12 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 2.2. R EVIS ÃO I Vimos o conceito de subespaço de um espaço vectorial V sobre um corpo K: é um subconjunto S ⊂ V que satisfaz as três condições seguintes para quaisquer x, y ∈ S e qualquer k ∈ K: I I I I 0∈S x+y ∈ S kx ∈ S Vimos vários exemplos, incluindo o de núcleo de uma matriz A ∈ Matm×n (K), que é um subespaço nuc(A) ⊂ K n definido como o conjunto-solução do sistema homogéneo Ax = 0. E XEMPLO O núcleo da matriz A= 1 1 −1 1 −1 1 é a recta que passa pela origem de R3 e é a intersecção dos dois planos que passam pela origem e são perpendiculares aos vectores (1, 1, −1) e (1, −1, 1). N OTA Se B resulta de A por eliminação de Gauss então nuc(B) = nuc(A) . D EFINIÇ ÃO Equações que relacionam as coordenadas dos vectores de K n de modo a definir um subconjunto S ⊂ K n dizem-se equações cartesianas para S. E XEMPLO I No exemplo anterior a recta pode ser definida pelas equações cartesianas correspondentes ao produto Ax = 0: x+y−z = 0 x−y+z = 0 . I Mas uma vez que a eliminação de Gauss não altera o conjunto-solução, também as equações seguintes são equações cartesianas da recta: x+y−z = 0 x = 0. I A equação cartesiana (não linear) x2 + y2 = 1 define a circunferência de raio 1 com centro na origem em R2 . D EFINIÇ ÃO Uma descrição paramétrica de um subconjunto de S ⊂ K n é uma função f : P → Kn cujo contradomı́nio é S, onde P é um conjunto designado por espaço dos parâmetros. E XEMPLO A circunferência de raio igual a 1 e centro na origem de R2 é descrita parametricamente pela função f : [0, 2π[ → R2 definida por f (θ ) = (cos θ , sen θ ). A variável θ é o parâmetro. E XEMPLO A superfı́cie esférica de raio igual a 1 e centro na origem de R3 é descrita parametricamente pela função f : [0, 2π[ × [0, π] → R3 definida por f (θ , ϕ) = (sen ϕ cos θ , sen ϕ sen θ , cos ϕ). Neste caso há dois parâmetros θ e ϕ (por outras palavras, f é função de duas variáveis). I Ao resolver sistemas de equações lineares indeterminados a descrição do conjunto-solução que obtemos em função das incógnitas livres é uma descrição paramétrica cujos parâmetros são as incógnitas livres. I Em particular, podemos assim obter a descrição paramétrica do núcleo de qualquer matriz. I Por outras palavras, converter a descrição por equações cartesianas de um subespaço de K n numa descrição paramétrica é o mesmo que resolver um sistema linear homogéneo. E XEMPLO I I 1 1 −1 Seja novamente A = . 1 −1 1 Por eliminação de Gauss podemos obter a partir de A a matriz 1 1 −1 . 0 −1 1 I Há portanto uma incógnita livre, z, pelo que os vectores (x, y, z) ∈ nuc(A) são descritos parametricamente, em função do único parâmetro z, pela função f : R → R3 que a cada z ∈ R faz corresponder o vector (0, z, z) = z(0, 1, 1). I O núcleo de A, que já sabı́amos ser uma recta, é portanto a recta dos múltiplos de (0, 1, 1). E XEMPLO 1 1 −1 . I Seja agora A = I Agora há duas incógnitas livres, y e z, pelo que os vectores (x, y, z) ∈ nuc(A) são descritos parametricamente, em função de dois parâmetros, pela função f : R2 → R3 que a cada (y, z) ∈ R2 faz corresponder o vector (−y + z, y, z) = y(−1, 1, 0) + z(1, 0, 1). I O núcleo de A, que já sabı́amos ser o plano perpendicular ao vector (1, 1, −1) passando pela origem, é portanto o subespaço de R3 que resulta de somar todos os múltiplos de (−1, 1, 0) e (1, 0, 1). I Por outras palavras, é o plano definido pelas duas rectas que passam pela origem e cujos pontos são os múltiplos de (−1, 1, 0) e (1, 0, 1), respectivamente. I Cada ponto do plano corresponde à soma de dois vectores, um de cada uma das rectas. Mais um exemplo de construção de subespaços: E XEMPLO I Se V 0 e V 00 forem subespaços de um espaço vectorial V sobre um corpo K então o conjunto V 0 + V 00 = {x + y | x ∈ V 0 , y ∈ V 00 } é designado por soma de V 0 e V 00 e também é um subespaço de V. I Em particular, a soma de duas rectas distintas que passam pela origem em R2 é todo o R2 . I E a soma de duas rectas distintas que passam pela origem em R3 é o plano definido pelas duas rectas. P ROPOSIÇ ÃO Os subespaços de R2 são: I Os subespaços triviais {0} e R2 ; I As rectas que passam pela origem. Demonstração. Já vimos que todos os subconjuntos indicados são exemplos de subespaços. Para ver que são os únicos possı́veis raciocinamos da seguinte forma, relativamente a um subespaço V arbitrário: I Se V contiver um vector x 6= 0 então tem de conter todos os seus múltiplos, os quais formam um subespaço V 0 que é uma recta que passa pela origem: V 0 ⊂ S. I Se V contiver algum vector y fora da recta V 0 então também contém a recta V 00 dos múltiplos de y: V 00 ⊂ S. I Então temos também V 0 + V 00 ⊂ V porque V 0 + V 00 é o menor subespaço que contém V 0 e V 00 . I Uma vez que V 0 6= V 00 o subespaço V 0 + V 00 é todo o plano R2 e portanto V = R2 . P ROPOSIÇ ÃO Os subespaços de R3 são: I Os subespaços triviais {0} e R3 ; I As rectas que passam pela origem; I Os planos que passam pela origem. Demonstração. Exercı́cio... Voltemos à ideia de definir espaços por meio da soma de múltiplos de vectores fixados à partida: E XEMPLO I O conjunto dos múltiplos de (1, 2) é um subespaço de R2 (o primeiro exemplo que vimos na aula passada). I É um subespaço de R3 o conjunto V dos vectores que são somas de múltiplos dos vectores (1, 2, 3) e (1, 1, 1), ou seja, dos vectores que são da forma (x, y, z) = a(1, 2, 3) + b(1, 1, 1) com a, b ∈ R. I Denotando o subespaço dos múltiplos de (1, 2, 3) por V 0 e o subespaço dos múltiplos de (1, 1, 1) por V 00 , o subespaço V é igual à soma V 0 + V 00 . D EFINIÇ ÃO Sejam x1 , . . . , xn (com n ≥ 1) vectores de um espaço vectorial sobre um corpo K. Chama-se combinação linear destes vectores a qualquer vector x obtido como soma de múltiplos deles: x = a1 x1 + . . . + an xn . Diz-se também que x é combinação linear de um conjunto não vazio de vectores S se existirem n ≥ 1 vectores x1 , . . . , xn ∈ S e n escalares a1 , . . . , an ∈ K tais que x = a1 x1 + . . . + an xn . Convenciona-se também dizer que o vector nulo 0 é combinação linear do conjunto vazio. O conjunto de todos os vectores de V que são combinação linear de um conjunto S ⊂ V denota-se por L(S) designa-se por expansão linear do conjunto S. P ROPOSIÇ ÃO A expansão linear L(S) de um subconjunto S de um espaço vectorial V é um subespaço de V. É na verdade o menor subespaço de V que contém S, ou seja, se V 0 ⊂ V for um subespaço tal que S ⊂ V 0 então L(S) ⊂ V 0 . D EFINIÇ ÃO Seja V um espaço vectorial sobre um corpo K, seja V 0 ⊂ V um subespaço e S ⊂ V 0 um subconjunto qualquer. Diz-se que V 0 é gerado por S, ou que S gera V 0 , ou ainda que S é um conjunto de geradores de V 0 , se V 0 = L(S). E XEMPLO A expansão linear de (um conjunto de) dois vectores x e y de R3 é: I O espaço trivial {0} se x = y = 0; I A recta dos múltiplos de x se x 6= 0 e y for um múltiplo de x; I O plano definido por x e y se nenhum dos vectores for múltiplo do outro. P ROPOSIÇ ÃO Sejam V 0 e V 00 subespaços de um espaço V. Então V 0 + V 00 é o menor subespaço de V que contém V 0 e V 00 : V 0 + V 00 = L(V 0 ∪ V 00 ) Demonstração. Exercı́cio... E XERC ÍCIO I Verifique se o vector (1, 1, 1) ∈ R3 pode ser obtido como combinação linear dos vectores (1, 0, 1), (1, 2, 3) e (0, 2, 2). I Resolução: escrevendo os vectores como colunas, queremos encontrar escalares x, y e z tais que 1 1 0 1 x 0 +y 2 +z 2 = 1 . 1 3 2 1 I Esta condição é equivalente a escrever 1 1 0 x 1 0 2 2 y = 1 1 3 2 z 1 e portanto temos apenas de resolver um sistema de equações lineares! E XERC ÍCIO ( CONT.) I A matriz aumentada é 1 1 0 1 0 2 2 1 . 1 3 2 1 I Por eliminação de Gauss transformamos esta matriz: 1 1 0 1 1 1 0 1 → 0 2 2 1 → 0 2 2 1 0 2 2 0 0 0 0 −1 I A caracterı́stica da matriz aumentada é superior à da matriz dos coeficientes, pelo que o sistema é impossı́vel. I Logo, o vector (1, 1, 1) não é combinação linear dos outros três vectores dados. C ASO GERAL A expansão linear de um conjunto finito de vectores S = {a(1) , . . . , a(n) } de K m é igual ao conjunto de todos os vectores (b1 , . . . , bm ) que (escritos como colunas) são da forma seguinte para alguma lista de escalares x1 , . . . , xn ∈ K: (n) (1) a1 a1 b1 . . .. . = x1 .. + · · · + xn .. (n) (1) bm am am (j) Ou seja, definido a matriz A tal que aij = ai conclui-se que a expansão linear de S é o conjunto dos vectores b que podem ser escritos na forma b = Ax para algum vector x ∈ K n . E XEMPLO Por outras palavras, L(S) é o espaço dos vectores b para os quais o sistema Ax = b é possı́vel. D EFINIÇ ÃO Seja A ∈ Matm×n (K). O espaço das colunas de A, denotado por col(A), é a expansão linear do conjunto das colunas de A. Por outras palavras, o espaço das colunas de A é o conjunto dos vectores b ∈ K m para os quais é possı́vel o sistema linear Ax = b . E XERC ÍCIO ( APLICAÇ ÃO A ESPAÇOS DIFERENTES DE K n ) I I Verificar que em P2 (R) o polinómio p(x) = 1 + x + x2 é combinação linear dos polinómios q(x) = 1 + 2x + 3x2 e r(x) = x + 2x2 . Resolução: a combinação linear a(1 + 2x + 3x2 ) + b(x + 2x2 ) = 1 + x + x2 rescreve-se na forma a + (2a + b)x + (3a + 2b)x2 = 1 + x + x2 . I Portanto o sistema = 1 a 2a + b = 1 , 3a + 2b = 1 se for possı́vel, dar-nos-á valores de a e b. E XERC ÍCIO ( CONT.) I Na forma matricial obtemos a matriz aumentada 1 0 1 2 1 1 3 2 1 (Note-se que as colunas da matriz são os vectores dos coeficientes de p(x), q(x) e r(x), respectivamente — generalize.) I Este sistema é determinado e a solução é o vector (a, b) = (1, −1), pelo que se conclui p(x) = q(x) − r(x). E XEMPLO I Já vimos que o núcleo da matriz A = 1 1 −1 consiste dos vectores da forma (−y + z, y, z) = y(−1, 1, 0) + z(1, 0, 1) com y, z ∈ R. I Portanto nuc(A) coincide com o espaço das colunas da matriz −1 1 B= 1 0 . 0 1 S LOGAN Obter uma descrição paramétrica dum subespaço vectorial V ⊂ K n é o mesmo que encontrar uma matriz B com n linhas tal que V = col(B). Também podemos percorrer o sentido inverso: S LOGAN Encontrar um conjunto de equações cartesianas para um subespaço V ⊂ K n é o mesmo que encontrar uma matriz A tal que nuc(A) = V. E XEMPLO ( EXERC ÍCIO ) I Obter equações cartesianas para o espaço das colunas de 1 2 3 1 0 1 B= 2 −1 1 . 1 1 1 I Resolução: os vectores de col(B) são os vectores (w, x, y, z) ∈ R4 para os quais é possı́vel o sistema linear cuja matriz aumentada é a seguinte: 1 2 3 w 1 0 1 x . 2 −1 1 y 1 1 1 z I Apliquemos eliminação de Gauss: 1 2 3 1 2 3 w w 1 0 1 x −w + x → 0 −2 −2 2 −1 1 y 0 −5 −5 −2w + y z −w + z 1 1 1 0 −1 −2 1 2 3 w 0 −1 −2 −w + z → 0 −2 −2 −w + x 0 −5 −5 −2w + y 1 2 3 w 0 −1 −2 −w + z → 0 0 2 w + x − 2z 0 0 5 3w + y − 5z 1 2 3 w 0 −1 −2 −w + z → 0 0 2 w + x − 2z 1 5 0 0 0 2w− 2x+y . I Olhando para a matriz em escada de linhas obtida, 1 2 3 w 0 −1 −2 −w + z , 0 0 w + x − 2z 2 1 5 0 0 0 2w− 2x+y vemos que a caracterı́stica da matriz aumentada é igual à caracterı́stica da matriz dos coeficientes se e só se 1 5 w− x+y = 0 , 2 2 sendo esta portanto uma equação cartesiana para col(B). I A matriz A = [1/2 − 5/2 1 0] é tal que nuc(A) = col(B). Capı́tulo 13 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 2.2. R EVIS ÃO I Dada uma matriz A, nuc(A) é um espaço cuja descrição mais imediata é por equações cartesianas. I Dada uma matriz B, col(B) é um espaço cuja descrição mais imediata é paramétrica. Na aula passada vimos como: I I I mudar de descrições por equações cartesianas para descrições paramétricas (resolvendo um sistema homogéneo) e vice-versa (estudando um sistema quanto à possibilidade ou impossibilidade). D EFINIÇ ÃO Seja A ∈ Matm×n (K). O espaço das linhas de A é col(AT ) e denota-se por lin(A). D EFINIÇ ÃO Seja S ⊂ K n um conjunto qualquer. O complemento ortogonal S⊥ é o conjunto de todos os vectores x ∈ K n tais que x · a = 0 para qualquer a ∈ S. P ROPOSIÇ ÃO Sejam S um subconjunto de K n e A ∈ Matm×n (K). 1. S⊥ é um subespaço de K n . 2. S⊥ = L(S)⊥ . 3. nuc(A) = (lin(A))⊥ . E XEMPLO I Em qualquer espaço K n temos (K n )⊥ = {0} e {0}⊥ = K n . I Em R3 o complemento ortogonal de uma recta que passa pela origem é o plano que passa pela origem e é perpendicular à recta dada. E XEMPLO Seja A = 1 1 −1 . 1 −1 1 O espaço das linhas de A é o plano gerado em R3 pelos vectores (1, 1, −1) e (1, −1, 1). lin(A) é ortogonal ao núcleo de A, que é a recta que passa pela origem e é perpendicular a este plano (como vimos na aula anterior, é a recta dos múltiplos de (0, 1, 1)). I SOMORFISMOS Vamos finalmente definir o que significa rigorosamente que dois espaços podem ser “identificados”. A ideia é simples: dois espaços são identificáveis quando a menos duma “mudança de nome” dos vectores eles são o mesmo. Suponha-se que temos dois espaços V e W (sobre um corpo K) e uma função de mudança de nome f : V → W. Para que isto faça sentido é necessário que: 1. f seja bijectiva (ou seja, define um emparelhamento perfeito entre V e W); 2. f (x + y) coincida com a soma f (x) + f (y) em W; 3. f (0) seja o vector nulo de W; 4. f (−x) seja o simétrico de f (x) em W; 5. f (kx) coincida com kf (x) em W. Na verdade basta exigir as condições 1,2 e 5 (porquê?). E XEMPLO As várias identificações que temos vindo a fazer são claramente deste tipo. Por exemplo, a função que a cada x 3 vector (x, y, z) de R atribui a matriz coluna y de Mat3×1 z tem todas as propriedades exigidas. N OTA Existem outras identificações menos óbvias, como veremos. D EFINIÇ ÃO Sejam V e W espaços vectoriais sobre um corpo K. Um isomorfismo de V para W é uma função bijectiva f :V →W que é linear, ou seja, satisfaz as duas propriedades seguintes para quaisquer x, y ∈ V e k ∈ K: 1. f (x + y) = f (x) + f (y), 2. f (kx) = kf (x). N OTA A propriedade da linearidade é equivalente a preservar combinações lineares de pares de vectores, ou seja, f é linear se e só se para quaisquer x, y ∈ V e k, l ∈ K se tiver f (kx + ly) = kf (x) + lf (y) . (Esta equivalência aplica-se a qualquer função, não apenas a funções bijectivas — vimos um exemplo a propósito dos determinantes.) E XEMPLO I A função que a cada polinómio p(x) = a0 + . . . + an xn ∈ Pn (K) faz corresponder o vector (a0 , . . . , an ) ∈ K n+1 é um isomorfismo. I A função que a cada matriz A ∈ Matm×n (K) faz corresponder o vector (a11 , . . . , a1n , a21 , . . . , a2n , . . . , am1 , . . . , amn ) ∈ K mn é um isomorfismo (o vector contém as entradas da matriz linha a linha, mas também poderia ser coluna a coluna ou qualquer outra ordem fixada à partida — cada escolha conduz a um isomorfismo diferente). P ROPOSIÇ ÃO 1. Uma função bijectiva f é um isomorfismo se e só se f −1 for um isomorfismo. 2. Se f : V → W for um isomorfismo então para quaisquer vectores y, x1 , . . . xn ∈ V e quaisquer escalares a1 , . . . an ∈ K tem-se y = a1 x1 + . . . + an xn ⇐⇒ f (y) = a1 f (x1 ) + . . . + an f (xn ) . E XEMPLO Pela proposição anterior, para ver se o polinómio p(x) = 1 + x + x2 de P2 (R) é combinação linear dos polinómios q(x) = 1 + 2x + 3x2 r(x) = x + 2x2 basta ver se o vector (1, 1, 1) de R3 é combinação linear de (1, 2, 3) e (0, 1, 2), ou seja, ver se é possı́vel o sistema cuja matriz aumentada é 1 1 0 2 1 1 . 3 2 1 (Este é um exemplo da aula passada, onde já tı́nhamos constatado que as colunas desta matriz são os vectores de coeficientes dos polinómios.) E XERC ÍCIO Seja S ⊂ V um subconjunto de um espaço vectorial V sobre um corpo K e seja f : V → W um isomorfismo. Mostre que V = L(S) se e só se W = L(f (S)). P ROPOSIÇ ÃO 1. A função identidade id : V → V (ou seja, a que é definida por id(x) = x) é um isomorfismo do espaço V nele próprio. f g 2. Sejam V → V 0 → V 00 isomorfismos de espaços vectoriais sobre um corpo K. Então a função composta g ◦ f : V → V 00 é um isomorfismo. D EFINIÇ ÃO Dois espaços vectoriais V e W sobre um corpo K dizem-me isomorfos, e escrevemos V ∼ = W, se existir um isomorfismo f : V → W. P ROPOSIÇ ÃO A relação de isomorfismo é de equivalência: 1. Reflexiva: V ∼ =V 2. Simétrica: V ∼ =W ⇒W ∼ =V 3. Transitiva: V ∼ = V0 ∼ = V 00 ⇒ V ∼ = V 00 E XEMPLO I I Pn (K) ∼ = K n+1 Matm×n (K) ∼ = K mn E XEMPLO I A função que a cada ponto (0, z, z) da recta dos múltiplos de (0, 1, 1) ∈ R3 faz corresponder z ∈ R é um isomorfismo dessa recta para R. I A função que a cada ponto y(1, 1, −1) + z(1, −1, 1) do plano P = L((1, 1, −1), (1, −1, 1)) ⊂ R3 faz corresponder o ponto (y, z) ∈ R2 é um isomorfismo de P para R2 . E XEMPLO I A função que a cada vector (x, y, z) ∈ R3 atribui o vector x(1, 1, 1) + y(1, 1, 0) + z(1, 0, 0) é um isomorfismo de R3 em R3 . I Mas a função que a cada vector (x, y, z) ∈ R3 atribui o vector x(1, 1, 1) + y(1, 0, 1) + z(2, 1, 2) não é um isomorfismo de R3 em R3 porque os três vectores são complanares. Capı́tulo 14 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I I I Secção 2.3. Pergunta: será que R3 ∼ = R2 ? A resposta é, como veremos, negativa! Já vimos exemplos de espaços isomorfos. O que vamos ver a seguir dar-nos-á formas de determinar que determinados espaços não são isomorfos. D EFINIÇ ÃO Seja V um espaço vectorial sobre um corpo K e seja x1 , . . . , xn uma lista de vectores de V (n ≥ 1). Diz-se que esta lista de vectores é linearmente independente (ou simplesmente que os vectores são linearmente independentes) se a única forma de obter o vector nulo como combinação linear de x1 , . . . , xn é tendo todos os escalares da combinação linear nulos: a1 x1 + · · · + an xn = 0 =⇒ a1 = · · · = an = 0 . No caso contrário diz-se que os vectores x1 , . . . , xn são linearmente dependentes. P ROPOSIÇ ÃO Se uma lista de vectores contiver repetições então é linearmente dependente. Demonstração. Seja x1 , . . . , xi , . . . , xj , . . . , xn uma lista com xi = xj . Então tem-se a1 x1 + · · · + ai xi + · · · + aj xj + · · · + an xn = 0 com ai = 1, aj = −1 e ak = 0 para k 6= i e k 6= j. D EFINIÇ ÃO Um subconjunto S ⊂ V diz-se linearmente independente se qualquer lista de vectores distintos x1 , . . . , xn ∈ S for linearmente independente. No caso contrário diz-se que S é linearmente dependente. P ROPOSIÇ ÃO Se 0 ∈ S então S é linearmente dependente. Demonstração. 0 é combinação linear de 0 com coeficiente não nulo, pois k0 = 0 para qualquer escalar k. T EOREMA Seja a1 , . . . , an uma lista de vectores de K m , para algum corpo K (n ≥ 1). Esta lista é linearmente independente se e só se a matriz A de dimensão m × n cuja coluna j é, para cada j ∈ {1, . . . , n}, o vector aj , tiver núcleo igual a {0}. Demonstração. Os vectores são os seguintes: a11 a1 = ... ... a1n an = ... amn am1 A combinação linear k1 a1 + · · · + kn an é o mesmo que o vector Ak e portanto a afirmação k1 a1 + · · · + kn an = 0 ⇒ k1 = . . . = kn = 0 é equivalente a Ak = 0 ⇒ k=0, ou seja, é equivalente a ter-se nuc(A) = {0}. E XERC ÍCIO Verifique se o conjunto {x, y, z} formado pelos três vectores de R3 x = (1, 1, 1) y = (1, 1, −1) z = (1, 2, −1) é linearmente independente. R ESOLUÇ ÃO A matriz cujas colunas são os três vectores x, y e z, por esta ordem, é 1 1 1 2 A= 1 1 1 −1 −1 e por eliminação de Gauss (eliminando as entradas 21 e 31 pela regra da eliminação e depois permutando as linhas 2 e 3) transforma-se na matriz 1 1 1 A0 = 0 −2 −2 . 0 0 1 A0 tem caracterı́stica igual ao número de colunas e portanto o sistema homogéneo que tem A0 como matriz de coeficientes é determinado, ou seja, o núcleo de A0 (= nuc(A)) é nulo e conclui-se que os vectores x, y e z são linearmente independentes. P ROPOSIÇ ÃO Seja f : V → W um isomorfismo e S ⊂ V um subconjunto qualquer. Então S é linearmente independente se e só se f (S) for linearmente independente. E XERC ÍCIO Verifique se o conjunto {p, q, r} ⊂ P2 (R) formado pelos polinómios p(x) = 1 + x + x2 q(x) = 1 + x − x2 r(x) = 1 + 2x − x2 é linearmente independente. R ESOLUÇ ÃO Uma vez que a função que a cada polinómio a + bx + cx2 atribui o vector de coeficientes (a, b, c) é um isomorfismo de P2 (R) em R3 , aplicando o teorema anterior concluimos que apenas temos de determinar se o subconjunto de R3 formado pelos vectores de coeficientes dos polinómios dados, ou seja, (1, 1, 1), (1, 1, −1) e (1, 2, −1), é linearmente independente em R3 . Já vimos no exercı́cio anterior que assim é, pelo que {p, q, r} é linearmente independente em P2 (R). T EOREMA Seja V um espaço vectorial sobre um corpo K e seja S ⊂ V um subconjunto. Então S é linearmente dependente se e só se existir x ∈ S tal que x ∈ L(S \ {x}). Demonstração. Vamos primeiro demonstrar a seguinte implicação: se S for linearmente dependente então existe x ∈ S tal que x ∈ L(S \ {x}). Para tal usamos como hipótese o antecedente da implicação (ou seja, assumimos que S é linearmente dependente) e vamos, usando essa hipótese, concluir o consequente da implicação (ou seja, que existe x ∈ S tal que x ∈ L(S \ {x})). A hipótese de S ser linearmente dependente permite-nos escolher n vectores distintos x1 , . . . , xn de S e escalares a1 , . . . ,an tais quea1 x1+ · · · + an xn = 0 com a1 6= 0. Logo, x1 = − aa12 x2 + . . . + − aan1 xn e, como todos os vectores xi são distintos, concluimos x1 ∈ L(S \ {x1 }), ou seja, obtivemos o consequente da implicação. Demonstração. (Continuação.) Vamos agora demonstrar a implicação no sentido contrário: se existe x ∈ S tal que x ∈ L(S \ {x}) então S é linearmente dependente. Usamos como hipótese o antecedente da implicação (ou seja, assumimos que existe x ∈ S tal que x ∈ L(S \ {x})) e vamos, usando essa hipótese, concluir que S é linearmente dependente. A hipótese permite-nos afirmar que existem um vector x ∈ S, n vectores distintos y1 , . . . , yn de S \ {x} e escalares a1 , . . . , an tais que x = a1 y1 + . . . + an yn . (Pudemos assumir que todos os vectores yi são distintos porque se não fossem bastaria pôr em evidência cada vector em todas as parcelas em que ocorre e obter assim uma combinação linear de vectores distintos.) Então tem-se x + (−a1 )y1 + . . . + (−an )yn = 0, ou seja, obtivemos uma combinação linear nula de vectores distintos de S na qual pelo menos um coeficiente (o de x) é não nulo, pelo que S é linearmente dependente. E XEMPLO I Em R3 quaisquer três vectores x, y e z são linearmente dependentes se e só forem complanares. I Em R2 quaisquer dois vectores x e y são linearmente dependentes se e só forem colineares. Capı́tulo 15 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 2.3. T EOREMA Em K m qualquer lista de n vectores com m < n é linearmente dependente. Demonstração. Dada uma tal lista a(1) , . . . , a(n) , a correspondente matriz A de (j) dimensão m × n cujas colunas são estes vectores (aij = ai ) tem núcleo necessariamente diferente de {0}. C OROL ÁRIO Se m 6= n então K m ∼ 6 Kn. = T EOREMA Em K m nenhum conjunto de vectores {a(1) , . . . , a(n) } com m > n pode gerar o espaço todo. Demonstração. (j) Uma vez que m > n, a matriz A definida por aij = ai tem sempre caracterı́stica limitada pelo número de colunas e existirão vectores b para os quais o sistema Ax = b tem matriz aumentada com caracterı́stica maior do que n. Um tal sistema é impossı́vel e portanto um tal vector b não é gerado pelos vectores a(j) . C OROL ÁRIO Em K n os conjuntos de geradores linearmente independentes têm exactamente n vectores. D EFINIÇ ÃO Seja V um espaço vectorial sobre um corpo K. Um conjunto B ⊂ V diz-se uma base de V se for linearmente independente e L(B) = V. Se existir uma base finita diz-se que V tem dimensão finita. Se não existir uma base finita diz-se que V tem dimensão infinita. N OTA Veremos daqui a pouco que se existir uma base infinita então não pode existir uma base finita e portanto qualquer espaço que tenha uma base infinita é de dimensão infinita de acordo com a definição dada acima. E XEMPLO K n tem dimensão finita, pois o conjunto finito formado pelos n vectores e1 = (1, 0, 0, . . . , 0, 0) e2 = (0, 1, 0, . . . , 0, 0) e3 = (0, 0, 1, . . . , 0, 0) .. . en−1 = (0, 0, 0, . . . , 1, 0) en = (0, 0, 0, . . . , 0, 1) é uma base. Chama-se a esta a base canónica de K n . E XEMPLO 1. Pn (K) tem dimensão finita, pois o conjunto finito formado pelos n + 1 polinómios 1, x, x2 , . . . , xn é uma base. Chama-se a esta a base canónica de Pn (K). 2. P(K) tem uma base infinita formada pelos polinómios 1, x, x2 , . . . Chama-se-lhe a base canónica de P(K). E XEMPLO O conjunto formado pelos vectores (1, 0, 0) (1, 1, 0) (1, 1, 1) é uma base de K 3 . P ROPOSIÇ ÃO Um conjunto de n vectores distintos a(1) , . . h. , a(n)i de K n é uma (j) base se e só se for invertı́vel a matriz A = ai . Demonstração. A matriz A é quadrada e por isso tem-se col(A) = K n se e só se a caracterı́stica de A for n se e só se nuc(A) = {0}. C OROL ÁRIO Um subconjunto S ⊂ K n é uma base de K n se e só se se verificarem quaisquer duas das condições seguintes: 1. S tem n elementos; 2. S é linearmente independente; 3. S gera K n . O teorema seguinte diz respeito a espaços de qualquer dimensão: T EOREMA Seja f : V → W um isomorfismo e seja B ⊂ V um subconjunto qualquer. Então B é uma base de V se e só se a sua imagem f (B) for uma base de W. Demonstração. Já vimos que qualquer isomorfismo f tem as propriedades seguintes: I L(B) = V se e só se L(f (B)) = W; I B é linearmente independente se e só se L(B) for linearmente independente. A conjunção destas propriedades é precisamente o resultado pretendido. T EOREMA Seja V um espaço vectorial sobre um corpo K, seja B ⊂ V uma base formada por n vectores e1 , . . . , en e seja x ∈ V um vector qualquer. Então existe uma e uma só lista k1 , . . . , kn de escalares tais que k1 e1 + · · · + kn en = x . Demonstração. Uma vez que B é uma base sabemos que x é combinação linear dos vectores de B. Suponha-se então que temos x = k1 e1 + · · · + kn en x = k10 e1 + · · · + kn0 en . Então 0 = x−x = (k1 e1 + · · · + kn en ) − (k10 e1 + · · · + kn0 en ) = (k1 − k10 )e1 + · · · + (kn − kn0 )en , pelo que k1 − k10 = . . . = kn − kn0 = 0. N OTA Por vezes iremos precisar de especificar uma ordem para os vectores de uma base {e1 , . . . , en } . Nesse caso dizemos que é uma base ordenada e escrevemos a lista ordenada de vectores da base na forma (e1 , . . . , en ) . D EFINIÇ ÃO Seja V um espaço vectorial sobre um corpo K e seja (e1 , . . . , en ) uma base ordenada de V. Dado um vector x ∈ V diz-se que as coordenadas de x nessa base são os escalares da única combinação linear x = k1 e1 + · · · + kn en . O escalar ki diz-se a i-ésima coordenada nessa base ordenada. O vector (k1 , . . . , kn ) ∈ K n diz-se o vector de coordenadas de x nessa base. T EOREMA Seja V um espaço vectorial sobre um corpo K com uma base ordenada (e1 , . . . , en ). A função C : V → Kn que a cada vector x ∈ V faz corresponder o vector de coordenadas de x na base dada é um isomorfismo. O inverso é a função C−1 : K n → V que a cada vector (k1 , . . . , kn ) ∈ K n atribui a combinação linear k1 e1 + . . . + kn en . N OTA Simbolicamente podemos escrever a combinação linear k1 e1 + . . . + kn en na forma de um produto de uma matriz linha (simbólica porque as entradas são vectores) por uma matriz coluna: k1 e1 · · · en ... kn E XERC ÍCIO Seja V um espaço vectorial V sobre um corpo K. Verifique que existe uma álgebra de matrizes vectoriais (matrizes cujas entradas são vectores de V) que as relaciona com as matrizes escalares (as matrizes habituais, cujas entradas são escalares de K): 1. Se S for uma matriz vectorial de dimensão m × n defina o que se deve entender por multiplicação de AS ou SA quando A for uma matriz escalar de dimensão p × m ou n × p, respectivamente. 2. Verifique que se S for uma matriz vectorial e A e B forem matrizes escalares com as dimensões apropriadas para que os produtos indicados estejam definidos então temos (SA)B = S(AB), (AS)B = A(SB) e (AB)S = A(BS). 3. Defina adição de matrizes vectoriais e mostre que o produto de matrizes é distributivo sobre a soma para qualquer das combinações possı́veis de matrizes vectoriais e escalares. E XERC ÍCIO (Continuação.) 4. Denotando por Matm×n (V) o conjunto das matrizes m × n com entradas em V, mostre que este conjunto é um espaço vectorial sobre K. Demonstração. É evidente que as funções C e C−1 são de facto inversas uma da outra e portanto são bijecções. Para concluir o resultado que pretendemos demonstrar basta por isso verificar que uma delas é linear. Uma vez que a função C−1 é definida por um produto de matrizes C−1 (k) = [e1 . . . en ]k concluı́mos imediatamente, pela distributividade do produto sobre a soma, que C−1 (k + k0 ) = [e1 . . . en ](k + k0 ) = [e1 . . . en ]k + [e1 . . . en ]k0 = C−1 (k) + C−1 (k0 ) . E, claro, se r for um escalar teremos C−1 (rk) = rC−1 (k). E XERC ÍCIO 1. Verifique directamente que a função C é linear (foi isto que fizemos na aula). 2. Idém para a função C−1 , sem recorrer aos resultados do exercı́cio sobre álgebra de matrizes vectoriais. C OROL ÁRIO Se um espaço vectorial tiver uma base com n vectores então todas as bases têm n vectores. Se um espaço tiver uma base infinita então tem dimensão infinita. E XEMPLO O espaço P(K) tem uma base infinita e portanto tem dimensão infinita. D EFINIÇ ÃO Um espaço vectorial com uma base de n vectores diz-se que tem dimensão igual a n. Podemos assim concluir resultados análogos aos do inı́cio desta aula, para espaços de dimensão m quaisquer em vez apenas de K m : C OROL ÁRIO Seja V um espaço de dimensão m. 1. Qualquer conjunto de n vectores de V com m < n é linearmente dependente. 2. Nenhum conjunto de n vectores de V com m > n pode gerar o espaço V. C OROL ÁRIO Dois espaços de dimensão finita V e W são isomorfos se e só se tiverem a mesma dimensão. C OROL ÁRIO Se V for um espaço de dimensão n então um subconjunto S ⊂ V é uma base se e só se se verificarem quaisquer duas das condições seguintes: 1. S tem n elementos; 2. S é linearmente independente; 3. S gera V. E XERC ÍCIO 1. Mostre que ((1, 2, 1), (2, 3, −1), (3, 4, 0)) é uma base (ordenada) de R3 . 2. Calcule as coordenadas do vector (1, 1, 1) nessa base. 3. Mostre que (1 + 2x + x2 , 2 + 3x − x2 , 3 + 4x) é uma base de P2 (R). 4. Calcule as coordenadas do polinómio 1 + x + x2 nessa base. Capı́tulo 16 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 2.3 e 2.4. R EVIS ÃO I Conceito de base de um espaço vectorial sobre K. I I Dimensão de um espaço vectorial: n ∈ N ou infinita. Escrevemos dim(V) = n ou dim(V) = ∞. dim(V) = n ⇐⇒ V ∼ = Kn. I Se V e W tiverem dimensão finita então V∼ = W ⇐⇒ dim(V) = dim(W) . I Se W for um subespaço de V e dim(V) = n então dim(W) ≤ n. I Se V contiver um subconjunto S ⊂ V infinito e linearmente independente então dim(V) = ∞. E XEMPLO 1. O espaço das sucessões de escalares x : N → K tem dimensão infinita porque o conjunto das sucessões seguintes é linearmente independente: 100000000 . . . 010000000 . . . 001000000 . . . .. . 2. Para qualquer conjunto infinito A, o espaço K A tem dimensão infinita: é linearmente independente o conjunto das funções fa : A → K definidas por 1 se b = a fa (b) = 0 se b 6= a 3. Por exemplo, o espaço real RR das funções reais de variável real tem dimensão infinita. E XEMPLO 4. O espaço real das funções contı́nuas f : R → R tem dimensão infinita: por exemplo, o conjunto das funções da forma sen nt (n ∈ N) é linearmente independente. Veremos isto no capı́tulo 4 da matéria, mas para já indicamos uma forma simples de testar a independência linear de qualquer conjunto finito destas funções. Um exemplo: o conjunto {sen t, sen 2t, sen 3t} é linearmente independente, pois é possı́vel escolher três valores de t, digamos t1 , t2 e t3 , para os quais a matriz sen t0 sen 2t0 sen 3t0 sen t1 sen 2t1 sen 3t1 sen t2 sen 2t2 sen 3t2 é não-singular. (Exercı́cio: encontre valores apropriados de t1 , t2 e t3 .) E XEMPLO 5. Podemos usar o método anterior para demonstrar a independência linear de qualquer conjunto finito de funções {f1 , . . . , fn } ⊂ K A , onde A é um conjunto infinito. O conjunto é linearmente independente se e só se existirem n elementos a1 , . . . , an ∈ A tais que é não-singular a matriz f1 (a1 ) . . . fn (a1 ) .. .. .. . . . f1 (an ) . . . fn (an ) Cuidado! Se o conjunto for linearmente dependente será impossı́vel encontrar tais elementos de A e temos de demonstrar a dependência linear de outra forma. 6. Exemplo: o conjunto de funções reais de variável real formado pela função constante igual a 1 e pelas funções sen2 x e cos2 x é linearmente dependente devido à igualdade fundamental da trigonometria sen2 x + cos2 x = 1. BASES DE ESPAÇOS ASSOCIADOS A MATRIZES T EOREMA Seja B uma matriz m × n com entradas num corpo K. Uma base de col(B) é constituı́da pelo subconjunto do conjunto das colunas de B que no processo de eliminação de Gauss se transformam em colunas com pivot. Demonstração. Feita no quadro. (Exercı́cio: recorde a demonstração.) E XEMPLO Seja 1 1 2 B= 1 0 1 . −1 1 0 Usando três vezes a regra da eliminação obtemos a matriz 1 1 2 B0 = 0 −1 −1 , 0 0 0 cujas colunas com pivot estão assinaladas a vermelho. São as colunas 1 e 2 de B0 e portanto uma base de col(B) é o conjunto formado pelas colunas 1 e 2 de B: {(1, 1, −1), (1, 0, 1)} . Para obter uma base de lin(B) podemos calcular uma base de col(BT ), mas há outro método: T EOREMA Seja B uma matriz m × n com entradas num corpo K. Uma base de lin(B) é constituı́da pelo subconjunto do conjunto das linhas não nulas de B0 , onde B0 é uma qualquer matriz em escada de linhas obtida de B por eliminação de Gauss. Demonstração. Feita no quadro. (Exercı́cio: recorde a demonstração.) E XEMPLO Seja 1 1 2 B= 1 0 1 . −1 1 0 Usando três vezes a regra da eliminação obtemos a matriz em escada de linhas 1 1 2 B0 = 0 −1 −1 . 0 0 0 Portanto uma base de lin(B) é o conjunto formado pelas linhas não nulas de B0 : {(1, 1, 2), (0, −1, −1)}. N OTA A base obtida não está contida no conjunto de linhas de B, ao contrário do que se passará se calcularmos uma base do espaço das colunas de BT pelo método anterior. E XERC ÍCIO Obtenha um subconjunto de S = {1 + x − x2 , 1 + x2 , 2 + x} que seja uma base de L(S) ⊂ P(R). Resolução: escolhemos o primeiro dos métodos (o do espaço das colunas aplicado aos vectores de coeficientes dos polinómios) porque é esse que nos dá uma base contida num conjunto de vectores dado. Os vectores de coeficientes são (1, 1, −1), (1, 0, 1) e (2, 1, 0) e são, por esta ordem, as colunas da matriz B dos dois exemplos anteriores. Uma vez que já calculámos uma base do espaço das colunas de B, {(1, 1, −1), (1, 0, 1)} , concluimos que o conjunto {1 + x − x2 , 1 + x2 } é uma base de L(S) contida em S, conforme pretendido. T EOREMA Seja A uma matriz m × n com entradas num corpo K. O conjunto de geradores de nuc(A) associados às incógnitas livres do sistema homogéneo Ax = b é uma base de nuc(A). Demonstração. Feita no quadro. (Exercı́cio: recorde a demonstração.) E XERC ÍCIO Seja 1 1 1 1 2 1 2 . A= 1 −1 −3 −1 −3 Calcule uma base e a dimensão de nuc(A). T EOREMA Seja A uma matriz m × n com entradas num corpo K. Então dim(nuc(A)) + dim(col(A)) = n . N OTA Se obtivermos uma matriz em escada de linhas B a partir de A, a caracterı́stica de B é igual ao número de incógnitas livres, que é igual a dim(nuc(B)). Uma vez que nuc(B) = nuc(A), qualquer matriz em escada de linhas B obtida de A tem a mesma caracterı́stica e portanto faz sentido definir a caracterı́stica de uma matriz A qualquer (recordar a discussão acerca da caracterı́stica nas primeiras aulas). D EFINIÇ ÃO Seja A uma matriz m × n com entradas num corpo K. Chama-se a dim(nuc(A)) a nulidade de A. C OROL ÁRIO Seja A uma matriz m × n com entradas num corpo K. 1. Caracterı́stica de A = dim(col(A)) = dim(lin(A)). 2. Caracterı́stica de A + nulidade de A = número de colunas de A = n. Capı́tulo 17 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 2.3 e 2.4. C OMPLEMENTOS SOBRE BASES O método que usámos para determinar uma base para o espaço das colunas de de um espaço permite-nos concluir o seguinte: P ROPOSIÇ ÃO Seja V um espaço vectorial de dimensão finita (sobre um corpo K) e seja S ⊂ V um conjunto finito de geradores. Então existe uma base de V contida em S. Demonstração. Sendo dim(V) = n, escolha-se um isomorfismo f : V → K n . Seja A uma matriz cujas colunas são os vectores de f (S). Vimos na aula passada como obter uma base B de col(A) contida em f (S) e portanto o conjunto f −1 (B) é uma base de V contida em S. Um resultado “dual” do anterior é o seguinte (o livro tem uma demonstração directa, não baseada em matrizes — Teorema 2.25): P ROPOSIÇ ÃO Seja V um espaço vectorial de dimensão finita (sobre um corpo K) e seja S ⊂ V um conjunto linearmente independente. Então existe uma base de V que contém S. Demonstração. Sendo dim(V) = n, escolha-se um isomorfismo f : V → K n . Seja A uma matriz cujas colunas são os vectores de f (S) e seja A0 uma matriz em escada de linhas obtida de A por eliminação de Gauss. A matriz A0 tem de ser da forma seguinte, onde se convenciona que as entradas assinaladas com “•” contêm valores quaisquer não nulos: • 0 • 0 0 • .. . .. . 0 0 ... 0 • 0 0 ... 0 0 . . .. .. .. . 0 0 ... 0 0 (Não existirão linhas nulas se e só se S for uma base.) Demonstração. (Continuação.) Acrescentando colunas (a azul) a A0 obtemos uma matriz triangular inferior não singular A00 : • 0 ··· 0 0 • .. . . .. 0 0 • . . . .. . .. . 00 A = 0 0 ··· 0 • 0 ··· 0 0 0 ··· 0 0 1 ··· 0 .. .. . . .. .. .. . . .. . . . . . . . . 0 0 ··· 0 0 0 ··· 1 Demonstração. (Conclusão.) Invertendo os passos da eliminação de Gauss que conduziram de A a A0 , mas partindo da matriz A00 , obtemos uma matriz não singular [A | B] onde a matriz B resulta das colunas acrescentadas (a azul) à matriz A0 no slide anterior. Aplicando o isomorfismo f −1 às colunas da matriz [A | B] obtemos uma base de V que contém S. M ATRIZES DE MUDANÇA DE BASE E XERC ÍCIO Calcule as coordenadas do polinómio 1 + 2x + 3x2 na base ordenada (p, q, r) formada pelos polinómios p(x) = 1 q(x) = 1 + x r(x) = 1 + x + x2 . Resolução. Traduzindo os polinómios para vectores de R3 através do isomorfismo a + bx + cx2 7→ (a, b, c) temos de resolver o sistema Sx = b cuja matriz aumentada é 1 1 1 1 0 1 1 2 3 0 0 1 e cuja solução é o vector (−1, −1, 3), que é portanto o vector de coordenadas pretendido. N OTA A matriz S tem como colunas os vectores de coordenadas dos polinómios p, q e r na base canónica e chama-se matriz de mudança de base (da base canónica para a base (p, q, r)). D EFINIÇ ÃO Seja V um espaço vectorial sobre um corpo K, de dimensão finita e sejam (v1 , . . . , vn ) e (w1 , . . . , wn ) duas bases ordenadas de V. A matriz de mudança de base (da primeira base para a segunda) é a matriz S cuja coluna j é, para cada j ∈ {1, . . . , n}, o vector de coordenadas de wj na base (v1 , . . . , vn ). N OTA Como mnemónica podemos pensar que S resulta da “matriz vectorial” [w1 . . . wn ] quando substituı́mos cada wj pelo seu vector de coordenadas relativamente à base “antiga”. P ROPOSIÇ ÃO Dado um vector de V cujo vector de coordenadas na base “antiga” é b, o vector de coordenadas na base “nova” é a solução do sistema Sx = b. (Equivalentemente, x = S−1 b.) S ISTEMAS LINEARES , RECTAS E PLANOS Seja x uma solução do sistema de equações lineares Au = b . Seja x0 uma solução do correspondente sistema homogéneo: Au = 0 . Então A(x + x0 ) = Ax + Ax0 = b + 0 = b , ou seja, o vector u = x + x0 é também uma solução do sistema não homogéneo Au = b . P ROPOSIÇ ÃO Somando a uma qualquer solução x do sistema Au = b uma solução x0 do sistema homogéneo Au = 0 obtém-se novamente uma solução do primeiro sistema: por outras palavras, para qualquer solução x do primeiro sistema, o conjunto x + nuc(A) = {x + x0 | x0 ∈ nuc(A)} está contido no conjunto-solução desse sistema. S ISTEMAS LINEARES , RECTAS E PLANOS Sejam x e y duas soluções do sistema de equações lineares Au = b . Então A(y − x) = Ay − Ax = b − b = 0 , ou seja, o vector y − x é uma solução do sistema homogéneo Au = 0 . Logo, a solução y do sistema não homogéneo obtém-se somando à outra solução, x, uma solução x0 = y − x do sistema homogéneo. Conclui-se portanto que x + nuc(A) é o conjunto-solução do sistema não homogéneo. Resumindo: T EOREMA Considere o sistema linear Au = b . O conjunto-solução S deste sistema pode ser: I S = 0/ (o que significa que o sistema é impossı́vel); I ou S = x + nuc(A), onde x é uma qualquer das soluções do sistema. E XEMPLO Considere o sistema cuja matriz aumentada é [A | b]: 1 2 3 6 1 2 3 6 el. Gauss 3 −→ 0 1 2 3 . [A | b] = 1 1 1 3 0 0 1 2 0 0 0 Existe uma incógnita livre (a que corresponde à terceira coluna), pelo que o conjunto-solução é {(t, 3 − 2t, t) ∈ R3 | t ∈ R} = (0, 3, 0) + L({(1, −2, 1)}) = (0, 3, 0) + nuc(A) = recta paralela ao vector (1, −2, 1) que passa pelo ponto (0, 3, 0) . Seja A ∈ Matm×n (K) e suponha-se que o sistema Au = b é possı́vel. I Se dim(nuc(A)) = 0 o sistema é determinado: a solução é um ponto de K n . I Se dim(nuc(A)) = 1 o conjunto-solução diz-se uma recta de K n . I Se dim(nuc(A)) = 2 o conjunto-solução diz-se um plano de Kn. I Se dim(nuc(A)) = k o conjunto-solução diz-se um plano-k de K n (portanto planos-0 são pontos, planos-1 são rectas e planos-2 são planos). I Se dim(nuc(A)) = n − 1 o conjunto-solução diz-se um hiperplano de K n (por exemplo os hiperplanos de K 3 são os planos e os hiperplanos de K 2 são as rectas). E QUAÇ ÕES DIFERENCIAIS Oscilador harmónico: objecto de massa m > 0 que sofre pequenas oscilações sem atrito acoplado a uma mola perfeita com constante elástica α > 0. Em cada instante t ∈ R o valor y(t) é o deslocamento do objecto em relação à posição de equilı́brio. Assume-se que o deslocamento ocorre estritamente ao longo de uma recta (diz-se que o oscilador é unidimensional). A força exercida pela mola sobre o objecto é proporcional ao deslocamento, com sinal contrário (a força aponta na direcção contrária à do deslocamento em relação à posição de equilı́brio): F(t) = −αy(t). Por outro lado, a lei de Newton diz que F(t) = my00 (t). Obtemos então a equação diferencial que descreve o comportamento do oscilador harmónico unidimensional: my00 (t) = −αy(t). Escrevendo ω 2 = equação α m (isto é possı́vel porque α m > 0) temos a y00 + ω 2 y = 0 . O subconjunto de RR formado pelas funções com segunda derivada contı́nua que são soluções desta equação é um subespaço linear de RR . (Exercı́cio: verifique.) Podemos verificar directamente que as duas funções seguintes são soluções: y1 (t) = cos(ωt) y2 (t) = sen(ωt) Estas funções são linearmente independentes, pelo que o espaço das soluções da equação tem dimensão maior ou igual a 2. (O valor ω é a velocidade angular do sistema, relacionado com a frequência ν de oscilação pela relação ω = 2πν.) Poderá haver outras soluções linearmente independentes das anteriores? I Se y(t) = c1 y1 (t) + c2 y2 (t) (é uma solução) I então y(0) = c1 cos 0 + c2 sen 0 = c1 I e y0 (t) = −c1 ω sen(ωt) + c2 ω cos(ωt), I pelo que y0 (0) = c2 ω I e temos y(t) = y(0) cos(ωt) + y ω(0) sen(ωt). 0 Seja agora y(t) uma solução qualquer. h i y0 (0) Então z(t) = y(t) − y(0) cos(ωt) + ω sen(ωt) é uma solução (porque é combinação linear de soluções). Verifica-se directamente que z(0) = z0 (0) = 0. Vamos mostrar que na verdade z(t) = 0 para qualquer t ∈ R, e que portanto y é combinação linear de y1 e y2 . Multiplicando ambos os lados da equação z00 + ω 2 z = 0 por z0 obtemos z0 z00 + ω 2 zz0 = 0 . Mas zz0 = 21 (z2 )0 e z0 z00 = 12 ((z0 )2 )0 , pelo que obtemos 0 2 2 2 0 (z ) + ω z = 0 . Isto significa que a quantidade (z0 (t))2 + ω 2 z(t)2 é constante, ou seja, não depende de t. Logo, como já vimos que z(0) = z0 (0) = 0, temos (z0 (t))2 + ω 2 z(t)2 = (z0 (0))2 + ω 2 z(0)2 = 0 , pelo que z(t) = 0 para qualquer t ∈ R. Conclusão: O espaço das soluções tem dimensão 2 e uma base é formada pelas funções y1 e y2 . Nota: Para qualquer solução y(t) a quantidade (y0 (t))2 + ω 2 y(t)2 é constante. Relembrando que ω 2 = α/m conclui-se que a quantidade 1 0 2 1 my (t) + αy(t)2 2 2 é constante. Tendo em conta que y0 é a velocidade, a quantidade 12 m(y0 )2 é a energia cinética T. Por outro lado, 12 αy2 é a energia potencial V, e a constante E = T +V é assim a energia total do sistema. Capı́tulo 18 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 2.3 e 2.4. C OMPLEMENTOS SOBRE BASES O método que usámos para determinar uma base para o espaço das colunas de de um espaço permite-nos concluir o seguinte: P ROPOSIÇ ÃO Seja V um espaço vectorial de dimensão finita (sobre um corpo K) e seja S ⊂ V um conjunto finito de geradores. Então existe uma base de V contida em S. Demonstração. Sendo dim(V) = n, escolha-se um isomorfismo f : V → K n . Seja A uma matriz cujas colunas são os vectores de f (S). Vimos na aula passada como obter uma base B de col(A) contida em f (S) e portanto o conjunto f −1 (B) é uma base de V contida em S. Um resultado “dual” do anterior é o seguinte (o livro tem uma demonstração directa, não baseada em matrizes — Teorema 2.25): P ROPOSIÇ ÃO Seja V um espaço vectorial de dimensão finita (sobre um corpo K) e seja S ⊂ V um conjunto linearmente independente. Então existe uma base de V que contém S. Demonstração. Sendo dim(V) = n, escolha-se um isomorfismo f : V → K n . Seja A uma matriz cujas colunas são os vectores de f (S) e seja A0 uma matriz em escada de linhas obtida de A por eliminação de Gauss. A matriz A0 tem de ser da forma seguinte, onde se convenciona que as entradas assinaladas com “•” contêm valores quaisquer não nulos: • 0 • 0 0 • .. . .. . 0 0 ... 0 • 0 0 ... 0 0 . . .. .. .. . 0 0 ... 0 0 (Não existirão linhas nulas se e só se S for uma base.) Demonstração. (Continuação.) Acrescentando colunas (a azul) a A0 obtemos uma matriz triangular inferior não singular A00 : • 0 ··· 0 0 • .. . . .. 0 0 • . . . .. . .. . 00 A = 0 0 ··· 0 • 0 ··· 0 0 0 ··· 0 0 1 ··· 0 .. .. . . .. .. .. . . .. . . . . . . . . 0 0 ··· 0 0 0 ··· 1 Demonstração. (Conclusão.) Invertendo os passos da eliminação de Gauss que conduziram de A a A0 , mas partindo da matriz A00 , obtemos uma matriz não singular [A | B] onde a matriz B resulta das colunas acrescentadas (a azul) à matriz A0 no slide anterior. Aplicando o isomorfismo f −1 às colunas da matriz [A | B] obtemos uma base de V que contém S. I NTERSECÇ ÕES E SOMAS DE ESPAÇOS E XERC ÍCIO Considere os seguintes vectores de R3 : x1 = (1, 2, 3) x2 = (1, 1, 1) x3 = (1, 0, 1) x4 = (2, 1, 1) . Sendo V1 = L({x1 , x2 }) e V2 = L({x3 , x4 )}, determine uma base e a dimensão de V1 ∩ V2 . T EOREMA Sejam V1 e V2 dois subespaços, ambos com dimensão finita, de V. Então dim(V1 + V2 ) = dim(V1 ) + dim(V2 ) − dim(V1 ∩ V2 ) . E XEMPLO Usando este teorema, no exercı́cio anterior poderı́amos facilmente concluir dim(V1 ∩ V2 ) = 1 sem calcular uma base, pois dim(V1 ) = 2 dim(V2 ) = 2 dim(V1 + V2 ) = 3 . A última equação resulta de observar que, por exemplo, x1 , x2 , x3 são linearmente independentes (exercı́cio fácil!) e portanto geram todo o R3 . Demonstração. Seja B = {x1 , . . . , xn } uma base de V1 ∩ V2 , com n ≥ 0 (considera-se o caso em que a base é vazia e portanto V1 ∩ V2 = {0}). Usando a segunda proposição desta aula existe uma base de V1 que contém B e uma base de V2 que contém B. Sejam estas bases respectivamente B1 = {x1 , . . . , xn , y1 , . . . , ym } B2 = {x1 , . . . , xn , z1 , . . . , zp } . (Convenciona-se que m, p ≥ 0 e que se m = 0 então B1 = B e, analogamente, B2 = B se p = 0.) Portanto dim(V1 ) = n + m e dim(V2 ) = n + p. Demonstração. (Continuação.) Tem de ter-se yi ∈ V1 \ V2 e zj ∈ V2 \ V1 , para cada i ∈ {1, . . . , m} e cada j ∈ {1, . . . , p}, pois se, por exemplo, y1 pertencesse a V2 então ter-se-ia y1 ∈ V1 ∩ V2 e por isso y1 seria combinação linear dos vectores de B; mas isto é impossı́vel, uma vez que B1 é uma base e, portanto, linearmente independente. Logo, B1 ∪ B2 contém exactamente n + m + p elementos. É claro que B1 ∪ B2 gera V1 + V2 e é simples verificar que é um conjunto linearmente independente (exercı́cio: demonstre), pelo que a dimensão de V1 + V2 é, como querı́amos demonstrar, n + m + p = (n + m) + (n + p) − n = dim(V1 ) + dim(V2 ) − dim(V1 ∩ V2 ) . D EFINIÇ ÃO Seja V um espaço vectorial e sejam V1 e V2 dois subespaços tais que V1 + V2 = V e V1 ∩ V2 = {0}. Diz-se então que V é a soma directa de V1 e V2 e escreve-se V = V1 ⊕ V2 . P ROPOSIÇ ÃO Se V = V1 ⊕ V2 então qualquer vector x ∈ V se decompõe de forma única numa soma x = x1 + x2 com x1 ∈ V1 e x2 ∈ V2 . Demonstração. Uma vez que V = V1 + V2 sabemos, por definição de soma de subespaços, que existem x1 ∈ V1 e x2 ∈ V2 tais que x = x1 + x2 . Para vermos que os vectores x1 e x2 são únicos vamos supor que existem dois outros vectores quaisquer, y1 ∈ V1 e y2 ∈ V2 , tais que x = y1 + y2 . Então 0 = x − x = (x1 + x2 ) − (y1 + y2 ) = (x1 − y1 ) + (x2 − y2 ), pelo que x1 − y1 = −(x2 − y2 ) ∈ V1 ∩ V2 . | {z } | {z } ∈V1 ∈V2 Como V1 ∩ V2 = {0} conclui-se que x1 − y1 = x2 − y2 = 0. C OROL ÁRIO Seja V = V1 ⊕ V2 . Então V ∼ = V1 × V2 . Demonstração. Cada vector x ∈ V1 ⊕ V2 decompõe-se de forma única numa soma x = x1 + x2 e o isomorfismo V → V1 × V2 atribui a cada vector x o seu par de componentes únicas (x1 , x2 ) ∈ V1 × V2 . (Verifique que esta função é mesmo um isomorfismo.) C OROL ÁRIO dim(V1 × V2 ) = dim(V1 ) + dim(V2 ) . N OTA Podemos obter directamente o corolário anterior a partir da seguinte observação: se B1 for uma base de V1 e B2 for uma base de V2 então (B1 × {0}) ∪ ({0} × B2 ) é uma base de V1 × V2 . E XEMPLO Aplicando a construção acima à base canónica de R2 obtém-se a seguinte base de R2 × R2 que coincide, a menos de parênteses, com a base canónica de R4 : {((1, 0), (0, 0)), ((0, 1), (0, 0)), ((0, 0), (1, 0)), ((0, 0), (0, 1))} . C OMPLEMENTOS SOBRE ESPAÇOS SOBRE Q, R E C N OTA Quando um espaço vectorial pode ser visto como espaço sobre mais do que um corpo escreveremos dimK (V) em vez de apenas dim(V) para nos referirmos à dimensão de V enquanto espaço sobre o corpo K. E XEMPLO I C é um espaço vectorial real com dimensão 2, portanto isomorfo a R2 : um isomorfismo óbvio é o que atribui a cada número complexo a + ib ∈ C o vector (a, b) de R2 . I C3 é um espaço vectorial real com dimensão 6, portanto isomorfo a R6 : um isomorfismo óbvio atribui a cada vector (a1 + ib1 , a2 + ib2 , a3 + ib3 ) ∈ C3 o vector (a1 , b1 , a2 , b2 , a3 , b3 ). P ROPOSIÇ ÃO Se V for um espaço vectorial sobre C com base B então também é um espaço vectorial sobre R com base B ∪ iB . Em particular, se dimC (V) = n então dimR (V) = 2n. P ROPOSIÇ ÃO Qualquer espaço vectorial real não trivial é um espaço vectorial sobre Q de dimensão infinita. Demonstração. Basta provar que dimQ (R) = ∞. Se assim não fosse existiria n ∈ N tal que R ∼ = Qn . Mas o conjunto Qn é numerável e R não é, pelo que não pode existir uma bijecção entre R e Qn . C OMPLEMENTOS SOBRE RECTAS E PLANOS E XERC ÍCIO Descreva parametricamente o plano-k em R4 descrito pelas seguintes equações cartesianas e diga qual é o valor de k: 2w + x + y − z = 1 w − x + 2y + 3z = 0 w + 2x − y − 2z = 1 E XERC ÍCIO Obtenha um conjunto de equações cartesianas para o seguinte plano-k em R4 e diga qual é o valor de k: P = (1, 2, 0, 3) + L({(1, 1, 0, 1), (1, 2, 0, 1), (2, 3, 0, 2)}) . E XERC ÍCIO Descreva por equações cartesianas o plano em R3 que passa pelos três pontos (1, 0, 1), (2, 0, 1) e (1, 3, 2). Capı́tulo 19 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Capı́tulo 3. D EFINIÇ ÃO Sejam V e W espaços vectoriais sobre um corpo K. Uma função f :V →W diz-se linear se quaisquer vectores x, y ∈ V e qualquer escalar k ∈ K satisfizerem as duas condições seguintes: f (kx) = k(f (x)) , f (x + y) = f (x) + f (y) . É usual chamar às funções lineares transformações lineares (ou aplicações lineares) e denotá-las por letras maiúsculas, por exemplo T :V →W . E XEMPLO 1. Seja det : R3 × R3 × R3 → R a função determinante de ordem 3 (sobre o corpo R). Sendo a, b ∈ R3 , é linear a função T1 : R3 → R definida por T1 (x) = det(x, a, b) . Da mesma forma, são lineares as funções T2 , T3 : R3 → R definidas por T2 (x) = det(a, x, b) T3 (x) = det(a, b, x) . A linearidade destas três funções para todos os pares de vectores a, b ∈ R é precisamente a propriedade de det que designamos por multilinearidade. 2. Um isomorfismo T : V → W é uma transformação linear bijectiva. P ROPOSIÇ ÃO 1. T : V → W é uma transformação linear se e só se para quaisquer vectores x, y ∈ V e qualquer escalar a ∈ K T(ax + y) = aT(x) + T(y) . 2. T : V → W é uma transformação linear se e só se para quaisquer vectores x, y ∈ V e quaisquer escalares a, b ∈ K T(ax + by) = aT(x) + bT(y) . 3. T : V → W é uma transformação linear se e só se preservar combinações lineares quaisquer; isto é, se e só se para quaisquer vectores x1 , . . . , xn ∈ V e quaisquer escalares a1 , . . . , an ∈ K ! T ∑ ai xi i = ∑ ai T(xi ) . i (Convenção: se n = 0 as combinações lineares são 0.) Eis uma lista mais sistemática de exemplos: E XEMPLO I I Transformação nula: T(x) = 0. Multiplicação por escalar fixo a: T(x) = ax. 1. Se a = 0 obtemos a transformação nula. 2. Se a = 1 obtemos a transformação identidade T(x) = x, que é um isomorfismo. I Multiplicação por matriz fixa: qualquer matriz A ∈ Matm×n (K) define uma transformação linear T : Kn → Km T(x) = Ax . E XEMPLO (Continuação.) I Operador derivação: É linear a função D : C1 (a, b) → C(a, b) D(f ) = f 0 . I Operador derivação: É linear a função D : P3 (R) → P2 (R) D(p) = p0 . T RANSFORMAÇ ÕES LINEARES K n → K m T EOREMA Seja T : K n → K m uma transformação linear. Então existe uma e uma só matriz A ∈ Matm×n (K) tal que para qualquer x ∈ K n se tem T(x) = Ax. D EFINIÇ ÃO A matriz A do exemplo anterior é a matriz que representa T, ou a representação matricial de T. Demonstração. Seja x ∈ K n . Então T(x) = T(x1 e1 + · · · + xn en ) = x1 T(e1 ) + · · · + xn T(en ) = Ax onde A é a matriz cuja coluna j é, para cada j ∈ {1, . . . , n}, o vector T(ej ). Por outro lado esta é a única matriz possı́vel, pois a condição Ax = Bx para qualquer x ∈ K n implica que se tem Aej = Bej para cada j, ou seja, a coluna j de A é igual à coluna j de B para qualquer j ∈ {1, . . . , n}, sendo portanto A = B. C OROL ÁRIO Uma função T : K n → K m é linear se e só se, para cada vector x ∈ K n , cada uma das componentes de T(x) for uma combinação linear das componentes de x. (Ou seja, cada componente de T(x) tem de ser uma expressão linear nas variáveis x1 , . . . , xn — recordem as primeiras aulas sobre sistemas lineares.) E XEMPLO É linear a função T : R3 → R2 definida por T(x, y, z) = (2x + 3y − z, x − z) . 2 3 −1 A representação matricial é . 1 0 −1 I Uma forma de descobrir a representação matricial, linha a linha: cada componente do vector T(x, y, z) é o produto interno duma linha da matriz pelo vector (x, y, z) (estamos habituados a raciocinar assim ao determinar a matriz dos coeficientes de um sistema linear); I Outra forma de a descobrir, coluna a coluna: a primeira coluna da matriz é o vector T(e1 ) = T(1, 0, 0) = (2, 1); a segunda coluna é T(e2 ) = T(0, 1, 0) = (3, 0); a terceira coluna é T(e3 ) = T(0, 0, 1) = (−1, −1); E XEMPLO I Não é linear a função T : R3 → R2 definida por T(x, y, z) = (x2 + y, z) . I Não é linear a função T : R3 → R2 definida por T(x, y, z) = (2 + x, x + y + z) . E XEMPLO I A transformação nula 0 : K n → K m é representada pela matriz nula de dimensão m × n. I A transformação identidade id : K n → K n é representada pela matriz identidade de dimensão n × n. I A multiplicação por escalar fixo a ∈ K é representada pela matriz a ··· 0 aI = ... . . . ... . 0 ··· a Alguns exemplos, com significado geométrico, de transformações lineares T : R2 → R2 , em termos das respectivas representações matriciais: E XEMPLO 0 −1 1 0 cos θ sen θ 3 0 0 3 2 0 0 12 0 1 1 0 1 12 0 1 deslizamento, paralelo ao eixo xx, de comprimento igual a metade da ordenada de cada ponto. I I I I I I rotação de π/2 no sentido directo em torno da origem. − sen θ rotação de um ângulo θ no sentido cos θ directo em torno da origem. homotetia com factor de ampliação 3. “homotetia” com factores de ampliação vertical ( 21 ) e horizontal (2) diferentes. reflexão através do eixo y = x. T RANSFORMAÇ ÕES LINEARES ENTRE QUAISQUER ESPAÇOS DE DIMENS ÃO FINITA D EFINIÇ ÃO Sejam V e W espaços vectoriais sobre um corpo K, com bases (v1 , . . . , vn ) e (w1 , . . . , wm ), respectivamente. Seja ainda T : V → W uma transformação linear. A matriz que representa T relativamente às bases dadas é a matriz A ∈ Matm×n (K) cuja coluna j é, para cada j ∈ {1, . . . , n}, o vector de coordenadas de T(vj ) na base (w1 , . . . , wn ). E XEMPLO A função de derivação D : P3 (R) → P2 (R) , que a cada polinómio p de grau menor ou igual a 3 faz corresponder a sua derivada D(p) = p0 , é uma transformação linear entre espaços de dimensão finita e por isso pode ser representada por matrizes. E XEMPLO (Continuação.) Escolhendo como bases ordenadas em P3 (R) e P2 (R) as bases canónicas respectivas, temos: I D(1) = 0 é o polinómio cujo vector de coordenadas é (0, 0, 0); I D(x) = 1 é o polinómio cujo vector de coordenadas é (1, 0, 0); I D(x2 ) = 2x é o polinómio cujo vector de coordenadas é (0, 2, 0); I D(x3 ) = 3x2 é o polinónio cujo vector de coordenadas é (0, 0, 3). Representação matricial: 0 1 0 0 0 0 2 0 0 0 0 3 E XEMPLO Seja V o espaço vectorial real das funções y : R → R com segunda derivada contı́nua que são soluções da equação diferencial y00 + ω 2 y = 0 . Vimos numa aula anterior que V tem uma base constituı́da pelas funções y1 (t) = cos(ωt) e y2 (t) = sen(ωt), sendo portanto um subespaço de RR com dimensão 2. O operador de derivação está bem definido em V, uma vez que y01 = −ωy2 e y02 = ωy1 e portanto qualquer combinação linear a1 y1 + a2 y2 tem derivada em V. Em relação à base ordenada (y1 , y2 ) (tanto no domı́nio como no espaço de chegada), a matriz que representa o operador de derivação é 0 ω . −ω 0 Capı́tulo 20 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Capı́tulo 3. R EVIS ÃO Vimos: I Noção de transformação linear T : V → W: T(αx + β y) = αT(x) + β T(y) . I As transformações lineares T : K n → K m são exactamente as funções definidas por T(x) = Ax para cada matriz fixa A ∈ Matm×n (K): .. .. ··· . . .. A = T(e1 ) . . T(e ) n .. .. . ··· . I Transformações lineares entre quaisquer espaços de dimensão finita V e W são também representadas por matrizes, mas as matrizes dependem das bases que escolhermos para V e W. Relação entre operações com transformações lineares e operações com matrizes: P ROPOSIÇ ÃO Sejam T : V → V 0 e T 0 : V 0 → V 00 transformações lineares. Então T 0 ◦ T : V → V 00 é uma transformação linear. P ROPOSIÇ ÃO Sejam T : K p → K n e T 0 : K n → K m transformações lineares representadas pelas matrizes A e B, respectivamente. Então T 0 ◦ T é representada pela matriz BA. Demonstração. (T 0 ◦ T)(x) = T 0 (T(x)) = T 0 (Ax) = B(Ax) = (BA)x. E XERC ÍCIO Diga qual é a matriz que representa em R2 a operação que resulta de executar uma rotação em torno da origem de um ângulo igual a π/2 no sentido dos ponteiros do relógio seguida de uma reflexão através do eixo y = x. Resolução. A matriz é o produto seguinte, com θ = −π/2: 0 1 cos θ − sen θ 0 1 0 1 −1 0 = = . 1 0 sen θ cos θ 1 0 −1 0 0 1 E XEMPLO Do que vimos a respeito de rotações em R2 conclui-se o seguinte, pois fazer duas rotações sucessivas de ângulos α e β é o mesmo que fazer uma rotação de α + β : cos α − sen α cos β − sen β sen α cos α sen β cos β = cos(α + β ) − sen(α + β ) sen(α + β ) cos(α + β ) . Calculando o produto das matrizes obtemos duas fórmulas conhecidas da trigonometria: cos(α + β ) = cos α cos β − sen α sen β sen(α + β ) = sen α cos β + cos α sen β C OROL ÁRIO T : K n → K m é um isomorfismo se e só se m = n e a matriz A que representa T for não-singular. Nesse caso A−1 representa T −1 . Demonstração. A condição m = n resulta de as dimensões do domı́nio e do espaço de chegada de um isomorfismo terem de ser iguais. Se T for um isomorfismo então existe a transformação inversa T −1 . Sejam A e B as matrizes que representam T e T −1 , respectivamente. Então BA e AB representam a transformação identidade T −1 ◦ T = T ◦ T −1 : K n → K n , que é representada pela matriz identidade I. Portanto tem-se BA = AB = I, pelo que B = A−1 . Demonstração. (Continuação.) Vimos portanto que se T for um isomorfismo a matriz A que representa T é não-singular. Para provar a implicação recı́proca, suponha-se que a matriz A que representa T é não-singular. A matriz A−1 define uma transformação linear T 0 . T 0 ◦ T e T ◦ T 0 são representadas por A−1 A e AA−1 , respectivamente, ou seja, pela matriz identidade. Portanto T 0 ◦ T = T ◦ T 0 = id e conclui-se que T é um isomorfismo. N OTA Para o que se segue usaremos o facto de que se A for um conjunto qualquer e W for um espaço vectorial sobre um corpo K então W A é um espaço vectorial sobre K cujas operações são as “habituais”: a soma de vectores é a soma de funções, (f + g)(a) = f (a) + g(a) , e o produto por escalar é definido por (kf )(a) = k(f (a)) para cada f ∈ W A e a ∈ A (isto generaliza o facto de conjuntos da forma K A serem espaços vectoriais sobre K). Mais operações com transformações lineares: P ROPOSIÇ ÃO Sejam V e W espaços vectoriais sobre um corpo K. O conjunto L(V, W) das transformações lineares T : V → W é um subespaço vectorial de W V . Demonstração. É simples verificar as seguintes asserções (exercı́cio): I A função nula é uma transformação linear (já foi mencionado). I Se T, T 0 : V → W forem transformações lineares então T + T 0 é linear. I Se T : V → W for uma transformação linear e k ∈ K então kT é linear. Estas operações correspondem precisamente às operações habituais com matrizes: P ROPOSIÇ ÃO 1. Se A representa T : K n → K m e B representa T 0 : K n → K m então A + B representa T + T 0 . 2. Se A representa T então kA representa kT (k ∈ K). C OROL ÁRIO L(K n , K m ) ∼ = Matm×n (K) . R EVIS ÃO D EFINIÇ ÃO Sejam V e W espaços vectoriais sobre um corpo K, com bases (v1 , . . . , vn ) e (w1 , . . . , wm ), respectivamente. Seja ainda T : V → W uma transformação linear. A matriz que representa T relativamente às bases dadas é a matriz A ∈ Matm×n (K) cuja coluna j é, para cada j ∈ {1, . . . , n}, o vector de coordenadas de T(vj ) na base (w1 , . . . , wn ). N OTA A matriz A é a da transformação linear obtida por composição com os isomorfismos determinados pelas bases de cada um dos espaços: ∼ ∼ T = = K n −→ V −→ W −→ K m . N OTA A matriz A que representa uma transformação linear T : K n → K m , conforme definimos anteriormente, é precisamente a matriz que representa T em relação às bases canónicas de K n e K m . Escolhendo outras bases de K n e K m obtém-se outras representações matriciais. A relação entre diferentes representações matriciais duma mesma transformação linear pode formular-se de uma forma simples em termos de matrizes de mudança de base e será estudada oportunamente. R EVIS ÃO DE EXEMPLOS E XEMPLO A função de derivação D : P3 (R) → P2 (R) , que a cada polinómio p de grau menor ou igual a 3 faz corresponder a sua derivada D(p) = p0 , é uma transformação linear entre espaços de dimensão finita e por isso pode ser representada por matrizes. E XEMPLO (Continuação.) Escolhendo como bases ordenadas em P3 (R) e P2 (R) as bases canónicas respectivas, temos: I D(1) = 0 é o polinómio cujo vector de coordenadas é (0, 0, 0); I D(x) = 1 é o polinómio cujo vector de coordenadas é (1, 0, 0); I D(x2 ) = 2x é o polinómio cujo vector de coordenadas é (0, 2, 0); I D(x3 ) = 3x2 é o polinónio cujo vector de coordenadas é (0, 0, 3). Representação matricial: 0 1 0 0 0 0 2 0 0 0 0 3 E XEMPLO Seja V o espaço vectorial real das funções y : R → R com segunda derivada contı́nua que são soluções da equação diferencial y00 + ω 2 y = 0 . Vimos numa aula anterior que V tem uma base constituı́da pelas funções y1 (t) = cos(ωt) e y2 (t) = sen(ωt), sendo portanto um subespaço de RR com dimensão 2. O operador de derivação está bem definido em V, uma vez que y01 = −ωy2 e y02 = ωy1 e portanto qualquer combinação linear a1 y1 + a2 y2 tem derivada em V. Em relação à base ordenada (y1 , y2 ) (tanto no domı́nio como no espaço de chegada), a matriz que representa o operador de derivação é 0 ω . −ω 0 Os resultados anteriores sobre representações matriciais e composição de transformações lineares, isomorfismos, adição de transformações lineares, etc., generalizam-se para transformações entre quaisquer espaços de dimensão finita, da seguinte forma: T EOREMA Seja K um corpo. Suponha-se escolhida, para cada espaço V sobre K, uma base ordenada BV e seja, para cada transformação linear T : V → W, AT a matriz que representa T relativamente a BV e BW . Então tem-se, sendo n = dim(V) e m = dim(W): 1. L(V, W) ∼ = Matm×n (K) (T 7→ AT é um isomorfismo). T T0 2. Se V → V 0 → V 00 então AT 0 ◦T = AT 0 AT . E QUAÇ ÕES LINEARES I Se T : V → W for uma transformação linear então designa-se uma igualdade do tipo T(x) = b por equação linear. I O vector independente é b e o vector incógnita é x. I Qualquer sistema linear Ax = b é uma equação linear. I Uma equação linear T(x) = 0 diz-se homogénea. E XEMPLO A equação diferencial do oscilador harmónico y00 + ω 2 y = 0 é uma equação linear homogénea com T(y) = y00 + ω 2 y . T é uma transformação linear, pois é a soma de duas transformações lineares, T = D2 ◦ D1 + Mω 2 , onde D1 : C2 (R) → C1 (R) e D2 : C1 (R) → C(R) são as transformações lineares definidas pela operação de derivação e Mω 2 é a multiplicação pelo escalar fixo ω 2 . Seja T : V → W uma transformação linear: I O conjunto nuc(T) = {x ∈ V | T(x) = 0} é um subespaço de V e designa-se por núcleo de T. I O conjunto T(V) = {b ∈ W | ∃x∈V T(x) = b} (o contradomı́nio de T) é um subespaço de W. I Se V = K n e W = K m e T for representada pela matriz A então nuc(T) = nuc(A) , T(V) = col(A) . I Tal como para sistemas lineares, uma equação linear pode ser impossı́vel, possı́vel e determinada, ou possı́vel e indeterminada. I Tal como para sistemas lineares, a solução geral de uma equação linear que tem uma solução particular x é igual a x + nuc(T). E XEMPLO A equação diferencial do oscilador harmónico forçado y00 + ω 2 y = sen(ω 0 t) é uma equação linear não homogénea. Para obter a solução geral basta encontrar uma solução particular, uma vez que já conhecemos nuc(T). (Tem de se considerar separadamente os casos ω 2 = (ω 0 )2 e ω 2 6= (ω 0 )2 ). Capı́tulo 21 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Capı́tulo 3. R EVIS ÃO Vimos: Seja T : V → W uma transformação linear: I O conjunto nuc(T) = {x ∈ V | T(x) = 0} é um subespaço de V e designa-se por núcleo de T. I O conjunto T(V) = {b ∈ W | ∃x∈V T(x) = b} (o contradomı́nio de T) é um subespaço de W. I Se V = K n e W = K m e T for representada pela matriz A então nuc(T) = nuc(A) , T(V) = col(A) . I Tal como para sistemas lineares, uma equação linear pode ser impossı́vel, possı́vel e determinada, ou possı́vel e indeterminada. S OLUÇ ÃO GERAL DE UMA EQUAÇ ÃO LINEAR Seja T : V → W uma transformação linear e seja x uma solução da equação linear T(u) = b . Seja x0 uma solução da correspondente equação homogénea T(u) = 0 . Então T(x + x0 ) = T(x) + T(x0 ) = b + 0 = b , ou seja, o vector u = x + x0 é também uma solução da equação não homogénea T(u) = b . P ROPOSIÇ ÃO Somando a uma qualquer solução x da equação T(u) = b uma solução x0 da equação homogénea T(u) = 0 obtém-se novamente uma solução da primeira equação. Sejam x e y duas soluções da equação linear T(u) = b . Então T(y − x) = T(y) − T(x) = b − b = 0 , ou seja, o vector y − x é uma solução da equação homogénea T(u) = 0 . Logo, a solução y da equação não homogénea obtém-se somando à outra solução, x, uma solução x0 = y − x da equação homogénea. Conclui-se portanto que x + nuc(T) é o conjunto das soluções (designado por conjunto-solução como no caso dos sistemas lineares) da equação não homogénea. Resumindo: T EOREMA Seja T : V → W uma transformação linear e considere a equação linear T(u) = b . O conjunto-solução S desta equação pode ser: I S = 0/ (a equação é impossı́vel); I ou S = x + nuc(T), onde x é uma qualquer das soluções da equação. C OROL ÁRIO Seja T uma transformação linear. Então tem-se nuc(T) = {0} se e só se T for uma função injectiva. C OROL ÁRIO Seja T uma transformação linear. Então T é um isomorfismo se e só se T for sobrejectiva e nuc(T) = {0}. N OTA Seja T uma transformação linear: I A equação linear T(u) = b é possı́vel para qualquer b ∈ W se e só se T for uma função sobrejectiva. I A equação linear T(u) = b é determinada para qualquer b que a torna possı́vel se e só se T for injectiva, ou seja, se e só se nuc(T) = 0. I A equação linear T(u) = b é possı́vel e determinada para qualquer valor de b se e só se T for um isomorfismo. E XEMPLO : OSCILADOR HARM ÓNICO Vamos continuar o estudo do oscilador harmónico iniciado na aula teórica 17. Se o objecto que oscila for submetido a uma força exterior ao longo da direcção de oscilação (ou a um oscilador electrónico for aplicado um sinal exterior), a qual varia em função do tempo de acordo com uma função contı́nua F : R → R, aplicando a lei de Newton obtemos (onde α é a constante de elasticidade da mola) my00 = −αy + F , pelo que, fazendo f (t) = F(t)/m e novamente ω 2 = α/m, obtemos a equação não homogénea do oscilador harmónico forçado: y00 + ω 2 y = f . A equação diferencial do oscilador harmónico forçado y00 + ω 2 y = f é uma equação linear não homogénea T(y) = f onde T : C2 (R) → C(R) é a transformação linear definida por T(y) = y00 + ω 2 y. Para obter a solução geral basta encontrar uma solução particular, uma vez que sabemos (da aula teórica 17) que nuc(T) é o conjunto de todas as funções obtidas como combinação linear y = c1 y1 + c2 y2 , (c1 , c2 ∈ R) onde y1 (t) = cos ωt e y2 (t) = sen ωt. Como exemplo vamos estudar o caso em que f tem variação sinusoidal no tempo, com frequência ωext não necessariamente igual a ω: f (t) = sen ωext t . Como solução particular vamos tentar y(t) = c sen ωext t . (Isto faz sentido fisicamente — e também matematicamente porque y00 será também proporcional a sen ωext t.) Substituindo na equação diferencial obtemos 2 −cωext sen ωext t + ω 2 c sen ωext t = sen ωext t 2 ) = 1. e portanto tem de ter-se c(ω 2 − ωext 2 ) = 1 conclui-se que a função Da condição c(ω 2 − ωext y(t) = c sen ωext t 2 , caso em que a amplitude da é solução se e só se ω 2 6= ωext oscilação será 1 c= 2 . 2 ω − ωext (Quanto mais próximas forem as frequências ω e ωext tanto maior é a amplitude.) 2 ? E se ω 2 = ωext 2 tende para ω 2 O facto de c tender para infinito quando ωext faz-nos suspeitar de que quando as frequências coincidem o sistema terá oscilações de amplitude ilimitada. Tentemos por exemplo como solução particular a função seguinte: y(t) = t(a1 cos ωt + a2 sen ωt) . Substituindo na equação y00 + ω 2 y = f concluimos, após alguns 1 cálculos, que tem de ter-se a1 = − 2ω e a2 = 0, pelo que y(t) = − t cos ωt . 2ω A amplitude da oscilação tende para infinito quanto t → +∞. A este fenómeno chama-se ressonância: a frequência ω é a frequência de ressonância ou frequência natural do oscilador. 2 todas as soluções da equação têm Note-se que com ω 2 = ωext amplitude ilimitada, uma vez que a solução geral se obtém somando à solução particular que obtivemos uma solução c1 cos ωt + c2 sen ωt da equação homogénea cuja amplitude é majorada por |c1 | + |c2 | . Nos Estados Unidos, em 1940, uma ponte (Tacoma Narrows Bridge) ruiu devido a este efeito: http://en.wikipedia.org/wiki/Galloping Gertie F IGURA : Oscilações que antecederam o colapso da primeira ponte de Tacoma, em 1940. Capı́tulo 22 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Capı́tulo 3. R EVIS ÃO Vimos, no capı́tulo sobre espaços lineares: I Se V for um espaço vectorial sobre um corpo K com bases ordenadas B = (v1 , . . . , vn ) e B0 = (v01 , . . . , v0n ) a matriz de mudança de base da base B para a base B0 é a matriz n × n cujas colunas são os vectores de coordenadas de v01 , . . . , v0n (por esta ordem) calculadas na base B. I Por outras palavras, se c : V → K n for o isomorfismo que a cada vector x = c1 v1 + · · · + cn vn faz corresponder o seu vector de coordenadas cx = (c1 , . . . , cn ) na base ordenada B a matriz de mudança de base é .. .. ··· . . .. . S = cv0 . 0 c vn 1 .. .. . ··· . I Sendo c0 : V → K n o isomorfismo que a cada vector x = c01 v01 + · · · + c0n v0n faz corresponder o vector de coordenadas c0x = (c01 , . . . , c0n ) de x na base ordenada B0 , a relação entre cx e c0x é dada por Sc0x = cx . I Considere-se agora outro espaço vectorial W sobre K. I Sejam ainda (w1 , . . . , wm ) e (w01 , . . . , w0m ) bases ordenadas de W e seja R a matriz de mudança de base da primeira para a segunda base. I Abusando da notação, denotaremos também por c, c0 : W → K m os isomorfismos determinados por estas duas bases, respectivamente. I Então tem-se, para cada y ∈ W, Rc0y = cy . I Seja agora T : V → W uma transformação linear. I Seja A a representação matricial de T em relação ao par de bases (v1 , . . . , vn ) e (w1 , . . . , wm ): cT(x) = Acx . I Seja A0 a representação matricial de T em relação ao par de bases (v01 , . . . , v0n ) e (w01 , . . . , w0m ): c0T(x) = A0 c0x . I Então tem-se, para qualquer x ∈ V, ASc0x = Acx = cT(x) = Rc0T(x) = RA0 c0x , pelo que AS = RA0 . Portanto demonstrámos o seguinte teorema: T EOREMA As representações matriciais de T (A e A0 ) estão relacionadas pelas fórmulas de mudança de base seguintes (que são todas equivalentes): RA0 = AS A0 = R−1 AS A = RA0 S−1 A seguinte versão mais restrita da fórmula de mudança de base será aplicada diversas vezes: C OROL ÁRIO Se A for a representação matricial de uma transformação linear T em relação a uma base (v1 , . . . , vn ) (considerada como base tanto do domı́nio como do espaço de chegada), e se (v01 , . . . , v0n ) for outra base cuja matriz de mudança de base em relação à primeira base é S, então a representação matricial de T em relação à nova base é a matriz A0 = S−1 AS . I Na prática a fórmula A0 = R−1 AS não é aplicada directamente, ou seja, para calcular A0 a partir de A, R e S não invertemos primeiro a matriz R: Uma vez que A0 é a matriz-solução do sistema RA0 = AS, cuja matriz dos coeficientes é R, o mais natural e eficiente é aplicar eliminação de Gauss–Jordan à matriz aumentada [R | AS]: [R | AS] → [I | R−1 AS] = [I | A0 ] . I Para calcular A a partir de A0 , R e S também não é necessário inverter a matriz S para aplicar directamente a fórmula A = RA0 S−1 : Notando que se tem ST AT = (RA0 )T aplicamos novamente eliminação de Gauss–Jordan: [ST | (RA0 )T ] → [I | (ST )−1 (RA0 )T ] = [I | AT ] . E XERC ÍCIO Seja D : P3 (R) → P2 (R) a derivação de polinómios. Calcule a matriz que representa D em relação à base ordenada B = (1 + x2 , 1 − 2x, 1 + x + x2 ) de P2 (R) (verifique que é de facto uma base) e à base canónica de P3 (R). Resolução. A representação matricial de D em relação às bases canónicas de P3 (R) e P2 (R) é, conforme vimos na aula teórica 19, a seguinte: 0 1 0 0 A= 0 0 2 0 0 0 0 3 A matriz de mudança de base de P2 (R) é 1 1 1 R = 0 −2 1 . 1 0 1 (A de P3 (R) é a identidade, uma vez que não mudámos de base neste espaço, ou seja, na fórmula da mudança de base ter-se-á S = I.) Resolução. (Continuação.) A representação matricial pedida será, neste caso, a matriz A0 = R−1 AS = R−1 A . Por eliminação de Gauss–Jordan: 1 1 1 [R | A] = 0 −2 1 1 0 1 1 1 1 → 0 −2 1 0 −1 0 1 1 1 → 0 −1 0 0 −2 1 0 1 0 0 0 0 2 0 0 0 0 3 0 1 0 0 0 0 2 0 0 −1 0 3 0 1 0 0 0 −1 0 3 0 0 2 0 Resolução. (Continuação.) 1 1 1 → 0 1 0 0 −2 1 1 1 1 → 0 1 0 0 0 1 1 1 0 → 0 1 0 0 0 1 1 0 0 → 0 1 0 0 0 1 = 0 1 0 0 0 1 0 −3 0 0 2 0 0 1 0 0 0 1 0 −3 0 2 2 −6 0 −1 −2 6 0 1 0 −3 0 2 2 −6 0 −2 −2 9 0 1 0 −3 0 2 2 −6 [I | A0 ] . Resolução. (Continuação.) Logo, 0 −2 −2 9 0 −3 A0 = 0 1 0 2 2 −6 e B é de facto uma base porque, como se viu, a matriz R é não-singular. Capı́tulo 23 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 6.1 e 6.2. VALORES E VECTORES PR ÓPRIOS No resto do capı́tulo sobre transformações lineares vamos estudar transformações lineares T :S→V em que S ⊂ V é um subespaço do espaço vectorial V. O corpo K será sempre R ou C. O facto de, dado x ∈ S, tanto x como T(x) pertencerem a V permite-nos comparar x com T(x), por exemplo investigando se são vectores colineares. Podemos assim descobrir direcções especiais em S segundo as quais T é particularmente simples de descrever. M OTIVAÇ ÃO : EXEMPLO K=R T(x, y) = A x y 2 S=V =R 4/5 3/5 A= 3/5 −4/5 Significado geométrico de T? Sejam v1 = (3, 1) e v2 = (−1, 3). A reflexão através da recta de equação y = x/3 tem 1 0 representação matricial A0 = em relação à base 0 −1 (v1 , v2 ). A matriz de mudança de base (em relação à base canónica) é 3 −1 S= . 1 3 Um cálculo simples revela que se tem SA0 = AS, pelo que T é precisamente a reflexão através da recta de equação y = x/3. Este exemplo foi na realidade “fabricado” a partir de A0 como no exercı́cio do fim da aula teórica passada (não está no slideshow — vejam os vossos apontamentos), mas ilustra bem o facto de que a representação matricial em relação à base “errada” pode obscurecer o significado geométrico de uma transformação linear, que neste caso era bastante simples. A questão agora é: que forma sistemática há de simplificar a representação matricial de uma transformação linear como no exemplo anterior? O que torna a base (v1 , v2 ) “certa”? T(v1 ) = v1 e T(v2 ) = −v2 : ambos os vectores são transformados em múltiplos deles próprios! (O mesmo não se passa com os vectores da base canónica, que são respectivamente transformados em 15 (4, 3) e 15 (3, −4).) D EFINIÇ ÃO Sejam: I V um espaço vectorial sobre o corpo K, I S ⊂ V um subespaço, I T : S → V uma transformação linear. Sejam ainda x ∈ S e λ ∈ K tais que x 6= 0 , T(x) = λ x . Diz-se então que x é um vector próprio de T associado ao escalar λ , ou que λ é um valor próprio de T associado ao vector x. E XEMPLO No exemplo do inı́cio desta aula encontrámos os seguintes vectores próprios: I v1 , associado ao valor próprio 1, uma vez que T(v1 ) = v1 ; I v2 , associado ao valor próprio −1, uma vez que T(v2 ) = −v2 . Além destes vectores próprios há também: I Qualquer múltiplo não nulo de v1 , associado ao valor próprio 1; I Qualquer múltiplo não nulo de v2 , associado ao valor próprio −1. Há apenas dois valores próprios, mas infinitos vectores próprios. D EFINIÇ ÃO Sejam: I V um espaço vectorial sobre o corpo K, I S ⊂ V um subespaço, I T : S → V uma transformação linear, I λ ∈ K um valor próprio de T. Designa-se o conjunto Eλ = {x ∈ S | T(x) = λ x} por espaço próprio de T associado a λ . (Eλ contém, além dos vectores próprios de T associados a λ , o vector nulo 0.) E XEMPLO No exemplo do inı́cio da aula, E1 é o conjunto de todos os vectores que permanecem inalterados quando se executa a reflexão através da recta y = x/3. Estes vectores correspondem precisamente precisamente aos pontos da recta, pelo que E1 é a recta de equação y = x/3. Em particular, é um subespaço de R2 . E−1 é a recta que passa pela origem e é perpendicular à anterior, ou seja, a recta de equação y = −3x. Também é um subespaço de R2 . P ROPOSIÇ ÃO Sejam: I V um espaço vectorial sobre o corpo K, I S ⊂ V um subespaço, I T : S → V uma transformação linear, I λ ∈ K um valor próprio de T. O espaço próprio Eλ é um subespaço de S. Demonstração. Denotando por id : S → V a transformação linear inclusão (de S em V), que é definida por id(x) = x, a condição T(x) = λ x é equivalente a T(x) = λ id(x) e portanto é equivalente a (T − λ id)(x) = 0 . Conclui-se assim que Eλ coincide com o núcleo Eλ = nuc(T − λ id) da transformação linear T − λ id. N OTA Se λ = 0 for um valor próprio então Eλ = nuc(T). Portanto, uma vez que da definição de valor próprio resulta que Eλ contém sempre pelo menos um vector não nulo, conclui-se que T tem um valor próprio nulo se e só se nuc(T) 6= {0}. D EFINIÇ ÃO Sejam: I V um espaço vectorial sobre o corpo K, I S ⊂ V um subespaço, I T : S → V uma transformação linear, I λ ∈ K um valor próprio de T. Designa-se o valor dim Eλ por multiplicidade geométrica de λ (é portanto a nulidade de T − λ id) e denota-se por mg(λ ) ou mgλ . E XEMPLO Vamos ver exemplos com K = R e S = V = R2 : 0 1 I reflexão através do eixo y = x. 1 0 λ =1 Eλ = L({(1, 1)}) mgλ = 1 λ = −1 Eλ = L({(−1, 1)}) mgλ = 1 3 0 I homotetia com factor de ampliação 3. 0 3 λ =3 Eλ = R2 mgλ = 2 “homotetia” com factores de ampliação 2 0 I vertical ( 21 ) e horizontal (2) diferentes. 0 12 λ =2 Eλ = L({(1, 0)}) mgλ = 1 λ = 1/2 Eλ = L({(0, 1)}) mgλ = 1 E XEMPLO (Continuação.) 1 0 I projecção sobre o eixo xx. 0 0 λ =1 Eλ = L({(1, 0)}) mgλ = 1 λ =0 Eλ = L({(0, 1)}) mgλ = 1 deslizamento, paralelo ao eixo xx, de compri1 1 2 I mento igual a metade da ordenada de cada 0 1 ponto. λ =1 Eλ = L({(1, 0)}) mgλ = 1 E XEMPLO (Continuação.) 0 −1 rotação de π/2 no sentido directo em torno da I 1 0 origem. Não tem valores próprios. cos θ − sen θ rotação de um ângulo θ no sentido I sen θ cos θ directo em torno da origem. Só tem valores próprios se θ for múltiplo de π: Se θ = 2kπ (k ∈ Z): λ =1 mgλ = 2 Se θ = 2(k + 1)π (k ∈ Z): λ = −1 mgλ = 2 N OTA Em todos os exemplos anteriores a soma das multiplicidades geométricas dos valores próprios não excede 2. Como veremos, isso acontece para qualquer transformação linear cujo domı́nio tem dimensão 2. Em particular, o número de valores próprios não excede 2 (pois a multiplicidade geométrica de um valor próprio é sempre pelo menos 1). E XEMPLO Se no exemplo da rotação em R2 que vimos há pouco identificarmos R2 com o espaço vectorial complexo C identificando cada (a, b) ∈ R2 com o número complexo a + ib, então a rotação de um ângulo θ coincide com o produto pelo escalar eiθ , pois para qualquer número complexo ρeiα temos eiθ ρeiα = ρei(α+θ ) . Neste caso existe um e um só valor próprio λ = eiθ . Tem-se Eλ = R2 e mgλ = 1 (porque dimC (R2 ) = 1). Os casos em que no exemplo anterior a rotação tinha valores próprios são exactamente aqueles em que λ = eiθ é um número real. N OTA Embora pensemos habitualmente no conjunto de múltiplos de um vector não nulo x como a “direcção” definida por x, vemos que para espaços complexos essa noção não coincide com a intuição geométrica associada à ideia de direcção em R2 : O produto de um vector do plano complexo por um escalar complexo é, em geral, um vector com outra direcção no plano. E XEMPLO Seja D : C1 (R) → C(R) o operador de derivação de funções reais de variável real. Para cada λ ∈ R a função f (x) = eλ x é um vector próprio de D associado ao valor próprio λ . Portanto D tem infinitos valores próprios. Como veremos, isto por si só indica que C1 (R) tem dimensão infinita. Capı́tulo 24 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 6.1 e 6.2. R EVIS ÃO Seja V um espaço vectorial sobre o corpo K e seja T : S → V uma transformação linear em que S ⊂ V é um subespaço, seja x ∈ S e λ ∈ K. I x é um vector próprio associado a λ se: I I x 6= 0, T(x) = λ x. I λ é o valor próprio associado a x. I O subespaço Eλ = {x ∈ S | T(x) = λ x} ⊂ S é o espaço próprio associado a λ . I A multiplicidade geométrica de λ é mgλ = dim Eλ . T EOREMA Sejam: I V um espaço vectorial sobre o corpo K, I S ⊂ V um subespaço, I T : S → V uma transformação linear. Então, para qualquer n ∈ N0 e quaisquer n valores próprios (distintos) de T λ1 , . . . , λn , é linearmente independente qualquer lista de vectores próprios de T v1 , . . . , vn associados a λ1 , . . . , λn , respectivamente. Em particular, todos estes vectores próprios são necessariamente distintos uns dos outros. Demonstração. A demonstração faz-se por indução matemática. Comecemos por escolher um número n ∈ N0 arbitrário mas fixo. Como hipótese de indução vamos supor que o teorema é verdadeiro para este n em particular. Sejam agora λ1 , . . . , λn+1 valores próprios distintos quaisquer e seja v1 , . . . , vn+1 uma lista de vectores próprios associados a λ1 , . . . , λn+1 , respectivamente. Vamos verificar que esta lista tem de ser linearmente independente: Sejam c1 , . . . , cn+1 ∈ K escalares tais que c1 v1 + · · · + cn+1 vn+1 = 0 . (1) Aplicando T a ambos os lados da equação (1) obtemos c1 λ1 v1 + · · · + cn+1 λn+1 vn+1 = 0 . (2) Demonstração. (Continuação.) Multiplicando ambos os lados da equação (1) por λn+1 obtemos c1 λn+1 v1 + · · · + cn+1 λn+1 vn+1 = 0 . (3) Subtraindo a equação (2) à equação (3) a parcela cn+1 λn+1 vn+1 é cancelada e obtemos c1 (λn+1 − λ1 )v1 + · · · + cn (λn+1 − λn )vn = 0 . (4) Usando a hipótese do slide anterior (de que os n vectores v1 , . . . , vn são linearmente independentes), concluimos que c1 (λn+1 − λ1 ) = . . . = cn (λn+1 − λn ) = 0 . Como por hipótese os valores próprios λ1 , . . . , λn+1 são todos distintos conclui-se que c1 = . . . = cn = 0. Demonstração. (Continuação.) Mas então da equação (1) resulta cn+1 vn+1 = 0. Como por definição de vector próprio tem de ter-se vn+1 6= 0 conclui-se cn+1 = 0 e portanto c1 = . . . = cn+1 = 0. O que demonstrámos até aqui foi que se for verdade que forem necessariamente linearmente independentes quaisquer n vectores próprios correspondentes a n valores próprios distintos então também é verdade que são linearmente independentes quaisquer n + 1 vectores próprios correspondentes a n + 1 valores próprios distintos, ou seja, provámos o passo da indução. A base da indução é o caso n = 0 e é imediato porque a lista vazia é (trivialmente) linearmente independente. C OROL ÁRIO Se dim(S) = n então existem no máximo n valores próprios distintos. N OTA Já tinhamos observado que todas as transformações lineares T : R2 → R2 vistas até agora tinham no máximo dois valores próprios. Como vemos agora, isso era inevitável. Também observámos que o operador de derivação D : C1 (R) → C(R) tem infinitos valores próprios e podemos usar esse facto para concluir que a dimensão de C1 (R) é infinita. De caminho demonstrámos assim com facilidade que o conjunto de funções {eλ t | λ ∈ R} é linearmente independente. E XERC ÍCIO Mostre que o conjunto {sen ωt | ω ∈ R+ } é linearmente independente em RR . (Sugestão: considere a transformação linear D2 : C2 (R) → C(R) definida por D2 (f ) = f 00 .) N OTA Em particular verificamos assim que as funções sen nt para n ∈ N são linearmente independentes, um facto que apenas havı́amos verificado, nas aulas sobre espaços lineares, para alguns valores de n. Além do corolário anterior, do teorema conclui-se também obviamente o seguinte: C OROL ÁRIO Se λ1 e λ2 forem valores próprios distintos então Eλ1 ∩ Eλ2 = {0} . N OTA Portanto, dados valores próprios λ1 6= λ2 : Eλ1 + Eλ2 = Eλ1 ⊕ Eλ2 ∼ = Eλ1 × Eλ2 . C OROL ÁRIO Se dim(S) = n então a soma das multiplicidades geométricas dos valores próprios de T é menor ou igual a n. Demonstração. Sejam λ1 , . . . , λm (m ≤ n) os valores próprios de T (sem repetições). Do corolário anterior conclui-se n ≥ dim(Eλ1 + · · · + Eλm ) = dim(Eλ1 ⊕ · · · ⊕ Eλm ) = dim(Eλ1 ) + · · · + dim(Eλm ) = mg(λ1 ) + · · · + mg(λm ) . R EPRESENTAÇ ÃO DIAGONAL DE TRANSFORMAÇ ÕES LINEARES Por vezes é possı́vel formar uma base de S constituı́da por vectores próprios de T : S → V. Se dim(S) = n isto sucede precisamente quando a soma das multiplicidades geométricas dos valores próprios é igual a n. Vimos já alguns exemplos destes. (Isto será o caso, em particular, se houver n valores próprios distintos.) A representação matricial de uma tal transformação linear é extremamente simples. Para simplificar, agora consideraremos o caso em que o domı́nio e o espaço de chegada são o mesmo. T EOREMA Seja T : V → V uma transformação linear com dim(V) = n e seja (v1 , . . . , vn ) uma base ordenada de V. A representação matricial de T em relação a esta base é uma matriz diagonal λ1 · · · 0 .. . . . . . .. 0 ··· λn se e só se v1 , . . . , vn são vectores próprios de T associados aos escalares λ1 , . . . , λn , respectivamente. Demonstração. Ver Teorema 6.5 do livro. E XERC ÍCIO Interprete geometricamente as transformações lineares T : R2 → R2 cujas representações matriciais, em relação uma base (v1 , v2 ) fixa mas arbitrária, são as seguintes: 2 0 1. 0 1 2 0 2. 0 −1 −2 0 3. 0 1 −2 0 4. 0 −1 2 0 5. 0 0 0 0 6. 0 1 E XERC ÍCIO Dê exemplos de transformações lineares T : R2 → R2 que não tenham nenhuma representação diagonal. Capı́tulo 25 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 6.2 e 6.3. VALORES PR ÓPRIOS DE MATRIZES Adoptaremos a seguinte terminologia para matrizes: D EFINIÇ ÃO Seja A ∈ Matn×n (K). Os valores próprios, vectores próprios e espaços próprios de A são os valores próprios, vectores próprios e espaços próprios, respectivamente, da transformação linear T : K n → K n definida por T(x) = Ax. N OTA Portanto x ∈ K n é um vector próprio (da matriz A ∈ Matn×n (K)) associado ao valor próprio λ se e só se ambas as condições seguintes se verificarem: I x 6= 0, I Ax = λ x. D IAGONALIZAÇ ÃO DE MATRIZES D EFINIÇ ÃO Seja A ∈ Matn×n (K). Diz-se que A é diagonalizável se existir uma matriz não-singular S ∈ Matn×n (K) tal que S−1 AS é uma matriz diagonal. Nesse caso diz-se que a matriz S é uma matriz diagonalizante para A. P ROPOSIÇ ÃO Uma matriz A ∈ Matn×n (K) é diagonalizável se e só se a transformação linear T : K n → K n definida por T(x) = Ax tiver uma representação matricial diagonal. Uma matriz S é diagonalizante para A se e só se o conjunto das suas colunas for uma base de K n formada por vectores próprios de T. Se S = v1 · · · vn e os valores próprios associados a v1 , . . . , vn forem λ1 , . . . , λn , respectivamente, ter-se-á λ1 · · · 0 S−1 AS = ... . . . ... . 0 ··· λn Já vimos o seguinte exemplo: D EFINIÇ ÃO Seja A = 4/5 3/5 3/5 −4/5 ∈ Mat2×2 (R). A tem vectores próprios (3, 1) e (−1, 3) associados aos valores próprios 1 e −1, respectivamente. A é diagonalizável. Uma matriz diagonalizante é S = S−1 AS = 1 0 . 0 −1 3 −1 . 1 3 P OLIN ÓMIOS CARACTER ÍSTICOS Como fazer para procurar os valores próprios e os vectores próprios de uma matriz quadrada arbitrária? P ROPOSIÇ ÃO Seja A ∈ Matn×n (K) e seja λ ∈ K um escalar qualquer. I O conjunto Eλ = {x ∈ K n | Ax = λ x} é um subespaço de K n que coincide com nuc(A − λ I). I λ é um valor próprio de A se e só se A − λ I for singular. I Os valores próprios de A são os escalares λ tais que det(A − λ I) = 0. D EFINIÇ ÃO p(λ ) = det(A − λ I) é uma função polinomial de λ e designa-se por polinómio caracterı́stico de A. P ROPOSIÇ ÃO Os valores próprios de A são as raı́zes do polinómio caracterı́stico de A. E XEMPLO Seja A = 4/5 3/5 3/5 −4/5 ∈ Mat2×2 (R). A matriz A − λ I é 4/5 − λ 3/5 3/5 −4/5 − λ O polinómio caracterı́stico p(λ ) = det(A − λ I) é, portanto, (4/5 − λ )(−4/5 − λ ) − (3/5)2 = λ 2 − 1 . A matriz A − λ I é singular se e só se λ 2 = 1. Há portanto dois valores próprios λ1 = 1 e λ2 = −1 (como já sabı́amos das aulas anteriores: a transformação linear representada por A é a reflexão através de uma recta). A determinação dos valores próprios de uma matriz é um problema de álgebra não linear, uma vez que se reduz à determinação de raı́zes de polinómios. Mas uma vez conhecido um valor próprio λ da matriz A, o problema de encontrar vectores próprios associados a λ é um problema de álgebra linear: I É o problema de encontrar vectores não nulos de Eλ . I Basta calcular uma base de Eλ . I Somos conduzidos assim ao método, que já bem conhecemos, para determinar uma base para o núcleo de uma matriz, uma vez que Eλ = nuc(A − λ I). E XEMPLO Seja novamente A = 4/5 3/5 . 3/5 −4/5 Já sabemos que há dois valores próprios λ1 = 1 e λ2 = −1. Uma base de Eλ1 obtém-se calculando uma base do núcleo da matriz 4/5 − λ1 3/5 −1/5 3/5 A − λ1 I = = . 3/5 −4/5 − λ1 3/5 −9/5 Por eliminação de Gauss pode obter-se a matriz 1 −3 . 0 0 (A matriz A − λ1 I é singular, como não podia deixar de ser!) Os vectores do núcleo de A − λ1 I são descritos parametricamente na forma (x, y) = (3y, y) = y(3, 1), pelo que uma base de Eλ1 é formada pelo vector (3, 1). E XEMPLO (Continuação.) Concluı́mos assim que (3, 1) é um vector próprio associado ao valor próprio λ1 = 1. Este procedimento repete-se para cada um dos valores próprios. Vectores próprios associados a λ2 = −1 obtém-se calculando uma base do núcleo de 4/5 − λ2 3/5 9/5 3/5 A − λ2 I = = . 3/5 −4/5 − λ2 3/5 1/5 Por eliminação de Gauss pode obter-se a matriz 3 1 . 0 0 Os vectores do núcleo de A − λ2 I são descritos parametricamente na forma (x, y) = (−y/3, y) = y(−1/3, 1), pelo que uma base de Eλ2 é formada pelo vector (−1, 3). O próximo exercı́cio é um exemplo do livro (parágrafo 6.8, p. 261). Matriz com três valores próprios reais distintos: E XERC ÍCIO 1. Calcule os valores próprios da matriz 1 5 −1 1 A = 0 −2 −4 0 3 2. Para cada valor próprio λ diga qual é a multiplicidade geométrica mgλ e obtenha uma base de Eλ . 3. Diga, justificando, se a matriz A é diagonalizável. Em caso afirmativo indique uma matriz diagonalizante para A. Capı́tulo 26 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 6.3. Vamos rever o Teorema Fundamental da Álgebra: T EOREMA Qualquer polinómio com coeficientes complexos e grau maior ou igual a um tem pelo menos uma raiz complexa. C OROL ÁRIO Para qualquer polinómio p(z) = a0 + a1 z + · · · an zn de coeficientes complexos com n ≥ 1 existem z1 , . . . , zn ∈ C tais que p(z) = an (z − z1 ) · · · (z − zn ) . N OTA z1 , . . . , zn são as raı́zes do polinómio. Para cada i, o número de factores em que ocorre a raiz zi é a multiplicidade dessa raiz. D EFINIÇ ÃO Seja A ∈ Matn×n (C) e seja λ um valor próprio complexo de A. Designa-se a multiplicidade de λ enquanto raiz do polinómio caracterı́stico de A por multiplicidade algébrica do valor próprio λ e denota-se por ma(λ ) ou maλ . (É distinta da multiplicidade geométrica.) P ROPOSIÇ ÃO Seja A ∈ Matn×n (C) e sejam λ1 , . . . , λm ∈ C os valores próprios de A. Então tem-se maλ1 + · · · + maλm = n. (Vimos que a mesma afirmação, para mg, é verdadeira se substituirmos “=” por “≤”.) T EOREMA Seja A ∈ Matn×n (K) e seja λ0 um valor próprio de A. Então 1 ≤ mgλ0 ≤ maλ0 . Demonstração. Já sabemos que 1 ≤ mgλ0 , pois por definição de valor próprio tem de existir um vector não nulo em Eλ0 , e portanto dim Eλ0 ≥ 1. Suponha-se agora mgλ0 = k e seja (u1 , . . . , uk ) uma base ordenada de Eλ0 . Uma vez que estes vectores são linearmente independentes em K n existe uma base de K n que os contém. Seja (u1 , . . . , uk , v1 , . . . , vn−k ) uma tal base (ordenada). Demonstração. (Continuação.) Uma vez que u1 , . . . , uk são vectores próprios associados a λ0 , nesta base a representação matricial da transformação linear T : K n → K n definida por T(x) = Ax tem a seguinte forma, em que Ik é a matriz identidade de dimensão k × k: λ0 0 · · · 0 • · · · • 0 λ0 · · · 0 • · · · • .. .. . . .. .. . . .. . . . . . . . B λ I 0 k 0 · · · · · · λ • · · · • = A0 = 0 0 C 0 ··· ··· 0 • ··· • .. .. .. . . .. . . . . . . . . 0 ··· ··· 0 • ··· • Demonstração. (Continuação.) Uma vez que A0 representa a mesma transformação linear, tem os mesmos valores próprios de A. Aplicando k vezes a fórmula de Laplace à primeira coluna a partir de A0 − λ I concluimos que o polinómio caracterı́stico de A0 (e portanto o de A) é divisı́vel por (λ − λ0 )k : (λ − λ )I B = (λ0 − λ )k det(C − λ I) . det(A0 − λ I) = 0 0 C −λI Portanto temos maλ0 ≥ k. Os próximos três exercı́cios são exemplos do livro (parágrafo 6.8, pp. 261–266). O primeiro deles foi resolvido quase totalmente na aula. Recomenda-se aos alunos que resolvam os outros dois, mesmo que o façam consultando as resoluções do livro. Matriz diagonalizável cujos valores próprios são todos reais mas com menos do que três valores próprios: E XERC ÍCIO 1. Calcule os valores próprios da matriz 2 1 1 A= 2 3 2 3 3 4 2. Para cada valor próprio λ diga qual é a multiplicidade geométrica mgλ e obtenha uma base de Eλ . 3. Diga, justificando, se a matriz A é diagonalizável. Em caso afirmativo indique uma matriz diagonalizante para A. Matriz não diagonalizável cujos valores próprios são todos reais: E XERC ÍCIO 1. Calcule os valores próprios da matriz 7 5 −1 1 A = 0 −2 20 0 3 2. Para cada valor próprio λ diga qual é a multiplicidade geométrica mgλ e obtenha uma base de Eλ . 3. Diga, justificando, se a matriz A é diagonalizável. Em caso afirmativo indique uma matriz diagonalizante para A. Matriz real diagonalizável em M3×3 (C) mas não em Mat3×3 (R): E XERC ÍCIO 1. Calcule os valores próprios da matriz 1 0 0 A = 0 0 −1 0 1 0 2. Para cada valor próprio λ diga qual é a multiplicidade geométrica mgλ e obtenha uma base de Eλ . 3. Diga, justificando, se a matriz A é diagonalizável: (i) em Mat3×3 (R); (ii) em Mat3×3 (C). Em caso afirmativo indique uma matriz diagonalizante para A. Capı́tulo 27 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 6.3. Vamos agora estudar mais em pormenor os polinómios caracterı́sticos. T EOREMA O polinómio caracterı́stico p(λ ) = det(A − λ I) da matriz A ∈ Matn×n (C) tem: 1. grau igual a n; 2. coeficiente do termo de grau n igual a (−1)n ; 3. coeficiente do termo de grau n − 1 igual a (−1)n−1 (a11 + · · · + ann ); 4. termo de grau 0 igual a det A. Demonstração. Comecemos por escrever o polinómio na seguinte forma: p(λ ) = p0 + p1 λ + p2 λ 2 + · · · É imediato que o termo de grau zero p0 é det A porque p0 = p(0) = det(A − 0I) = det A . A fórmula para o cálculo do determinante baseada em permutações dá-nos det(A − λ I) = ∑ sgn(σ )(A − λ I)σ1 1 . . . (A − λ I)σn n . σ ∈Sn Cada parcela contém um produto de exactamente n entradas da matriz A − λ I. Demonstração. (Continuação.) Qualquer parcela que corresponda a uma permutação diferente da identidade pode conter no máximo n − 2 factores da forma aii − λ (porquê?) e portanto apenas pode contribuir para os coeficientes p0 , . . . , pn−2 . A parcela correspondente à permutação identidade é assim a que dá origem aos coeficientes pn−1 e pn : (a11 −λ ) · · · (ann −λ ) = · · ·+(−1)n−1 (a11 + · · · + ann ) λ n−1 +(−1)n λ n | {z } | {z } pn−1 pn Evidentemente não existem monómios de grau superior a n, pelo que o grau de p(λ ) é n. D EFINIÇ ÃO Seja A ∈ Matn×n (K). Designa-se por traço de A, e denota-se por tr(A) ou tr A, a soma das entradas da diagonal principal de A: tr(A) = a11 + · · · + ann . N OTA O polinómio caracterı́stico de uma matriz A ∈ Matn×n (K) é p(λ ) = det A + · · · + (−1)n−1 tr(A)λ n−1 + (−1)n λ n . Se n é ı́mpar obtemos p(λ ) = det A + · · · + tr(A)λ n−1 −λ n . Se n é par obtemos p(λ ) = det A + · · · − tr(A)λ n−1 +λ n . Em particular, se n = 2 obtemos p(λ ) = det A− tr(A)λ +λ 2 . T EOREMA Seja A ∈ Matn×n (C) e sejam λ1 , . . . , λm ∈ C os valores próprios de A (sem repetições). maλ1 1. det A = λ1 maλm · · · λm ; (det A é igual ao produto dos valores próprios com as respectivas repetições.) 2. tr A = maλ1 λ1 + · · · + maλm λm . (tr A é igual à soma dos valores próprios com as respectivas repetições.) Demonstração. Do teorema fundamental da álgebra obtemos, uma vez que já sabemos que o coeficiente do termo de grau n é (−1)n , p(λ ) = (−1)n (λ − λ1 ) · · · (λ − λn ) onde λ1 , . . . , λn é a lista dos n valores próprios complexos, onde cada um ocorre na lista tantas vezes quantas a sua multiplicidade algébrica. Portanto escrevendo p(λ ) = p0 + p1 λ + · · · + pn λ n obtemos p0 = (−1)n (−1)n (λ1 · · · λn ) = λ1 · · · λn , pn−1 = (−1)n (−λ1 − · · · − λn ) = (−1)n−1 (λ1 + · · · + λn ) , e do teorema anterior resulta det A = λ1 · · · λn e tr A = λ1 + · · · + λn . As relações anteriores dão-nos um método alternativo de cálculo dos valores próprios de uma matriz A de dimensão 2 × 2: em vez de escrever o polinómio caracterı́stico det A − (tr A)λ + λ 2 e calcular as raı́zes podemos resolver o sistema de equações não lineares λ1 + λ2 = tr A λ1 λ2 = det A . O resultado, evidentemente, é o mesmo e não há grande vantagem em utilizar este método em vez de calcular directamente as raı́zes do polinómio caracterı́stico: p tr(A) + (tr A)2 − 4(det A) λ1 = p 2 tr(A) − (tr A)2 − 4(det A) λ2 = 2 As relações anteriores são no entanto úteis ao calcular valores próprios de matrizes de maior dimensão. Por exemplo, seja 1 2 3 A = 8 1 −3 . −1 0 7 A soma das entradas de cada linha é igual a 6. Isto significa que o produto de A pelo vector (1, 1, 1) é igual a (6, 6, 6) = 6(1, 1, 1) e portanto (1, 1, 1) é um vector próprio associado ao valor próprio 6. As relações λ1 + λ2 + λ3 = tr A λ1 λ2 λ3 = det A . permitem-nos agora calcular todos os valores próprios directamente a partir de um sistema de equações não lineares de grau igual a 2. Uma vez que já sabemos que 6 é um valor próprio, podemos por exemplo escolher λ3 = 6 e obter λ1 + λ2 = tr A − 6 = 3 λ1 λ2 = det A/6 = −96/6 = −16 . A primeira equação dá-nos λ2 = 3 − λ1 e substituindo na segunda equação obtemos λ1 (3 − λ1 ) = −16 . Escrevendo λ em vez de λ1 obtemos a equação do segundo grau λ 2 − 3λ − 16 = 0 , cujas raı́zes são os valores de λ1 e λ2 procurados: √ √ 3 + 32 + 4 × 16 3 + 73 λ1 = = 2 2√ √ 3 − 32 + 4 × 16 3 − 73 λ2 = = . 2 2 Método alternativo (mas bastante mais trabalhoso — exercı́cio!): Começar por escrever o polinómio caracterı́stico p(λ ) de A. Uma vez que já conhecemos uma raiz, λ3 = 6, sabemos que o polinómio p(λ ) é divisı́vel por λ − 6. Podemos portanto calcular o quociente q(λ ) = p(λ )/(λ − 6), que é um polinómio de grau 2. As raı́zes de q(λ ) são os restantes valores próprios λ1 e λ2 . Desvantagens deste método: primeiro temos de calcular o determinante det(A − λ I) em vez de apenas o determinante numérico det A; uma vez assim obtido p(λ ) ainda temos de fazer a divisão. Por comparação, usando directamente as relações do teorema, apenas temos de calcular det A e obtemos rapidamente um polinómio de grau 2 após uma substituição muito simples. Vamos ver mais exercı́cios em que é possı́vel “adivinhar” à partida um dos valores próprios: E XERC ÍCIO Calcule os valores próprios da matriz 2 1 1 A= 2 3 2 0 1 2 Resolução. As primeiras duas linhas da matriz são [2 1 1] e [2 3 2]. Subtraindo-lhes [1 0 0] e [0 1 0], respectivamente, obtemos as linhas [1 1 1] e [2 2 2], que são múltiplos uma da outra e portanto concluimos que a matriz A − I é singular. Isto significa que λ1 = 1 é um valor próprio. Uma vez que det A = 6 (confirme) e tr A = 7 obtemos, para os restantes valores próprios λ2 e λ3 , as relações seguintes: λ2 λ3 = 6 λ2 + λ3 + 1 = 7 . Logo, λ3 = 6 − λ2 e, substituindo na primeira equação, tem-se√ λ22 − 6λ √2 + 6 = 0, ou seja, os valores próprios λ2 e λ3 são 3 + 3 e 3 − 3. E XERC ÍCIO Calcule os valores próprios da matriz 1 0 1 A= 1 1 2 1 0 3 Resolução. Neste caso a matriz A − I tem segunda coluna nula e portanto é singular. Isto significa que λ1 = 1 é um valor próprio de A. O resto do exercı́cio é análogo ao anterior. E XERC ÍCIO Calcule os valores próprios da matriz 3 1 1 A= 1 3 2 1 1 3 Resolução. Neste caso a matriz A − 2I tem as duas primeiras colunas iguais e portanto é singular. Isto significa que λ1 = 2 é um valor próprio de A. O resto do exercı́cio é análogo aos anteriores. E XERC ÍCIO Calcule os valores próprios da matriz 3 1 1 A = 1 3 −5 . 1 1 −1 Resolução. Tal como no exercı́cio anterior, um dos valores próprios é λ1 = 2 porque a matriz A − 2I tem duas colunas iguais. Desta vez temos det A = 0 e portanto outro dos valores próprios é λ2 = 0. A relação λ1 + λ2 + λ3 = tr A = 5 determina o terceiro valor próprio λ3 = 3. E XERC ÍCIO Calcule os valores próprios da matriz 3 1 1 A = 1 3 −5 . 2 1 0 Sugestão: comece por calcular det A. Resolução. Seguindo a sugestão concluimos que det A = 0 e portanto um valor próprio é λ1 = 0. Então os restantes valores próprios obedecem à relação λ2 + λ3 = tr A = 6 mas isto não chega para os determinar porque a outra relação, λ1 λ2 λ3 = det A, se resume à igualdade trivial 0 = 0. Calculando o polinómio caracterı́stico obtemos, na forma canónica, p(λ ) = −11λ + 6λ 2 − λ 3 . (Note-se que o termo de grau 0 é nulo, como teria de ser porque det A = 0, ou seja, p(λ ) é divisı́vel por λ .) Os restantes valores próprios√são as raı́zes de λ 2 − 6λ + 11, ou √ seja, λ2 = 3 + 2i e λ3 = 3 − 2i. Alguns comentários: O Teorema Fundamental da Álgebra assegura que existem n raı́zes complexas de qualquer polinómio de grau n com coeficientes complexos. Mas não oferece nenhum algoritmo para as determinar! Na verdade demonstra-se, no contexto de uma área da álgebra conhecida por Teoria de Galois em honra do matemático francês Évariste Galois (25 de Outubro de 1811 – 31 de Maio de 1832) que não existe nenhuma fórmula resolvente para obter as raı́zes de polinómios de grau maior ou igual a 5. Em engenharia a determinação de valores próprios de matrizes de grande dimensão é frequentemente feita por métodos numéricos. G ALOIS F IGURA : O matemático francês Évariste Galois (25/10/1811 – 31/05/1832), desenhado aos 15 anos de idade por um colega de escola. Capı́tulo 28 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 6.6 e primeiras duas páginas da secção 6.7. F ORMA NORMAL DE J ORDAN Vamos ver que as matrizes não diagonalizáveis têm apesar de tudo uma forma “quase-diagonal”, a que se chama a forma normal de Jordan, ou forma canónica de Jordan. F IGURA : O matemático francês Camile Jordan (5/01/1838 – 22/01/1922). D EFINIÇ ÃO Seja A ∈ Matn×n (K), seja λ um valor próprio de A e seja ainda u ∈ K n um vector qualquer. Diz-se que u é um vector próprio generalizado de A associado a λ se as duas condições seguintes se verificarem, para algum k ∈ N: u 6= 0 , (A − λ I)k u = 0 . N OTA Qualquer vector próprio u é também um vector próprio generalizado, pois (A − λ I)k u = 0 com k = 1. Se u for um vector próprio generalizado e k for o menor número natural tal que (A − λ I)k u = 0 então (A − λ I)k−1 u é um vector próprio associado a λ . D EFINIÇ ÃO Uma cadeia de Jordan de comprimento k associada a λ é uma lista u1 , . . . , uk de vectores não nulos tal que (A − λ I)ui = ui−1 (A − λ I)u1 = 0 . A cadeia é maximal se não existir nenhum vector v tal que (A − λ I)v = uk . N OTA u1 , . . . , uk é uma cadeia de Jordan se e só se todos os ui são vectores próprios generalizados e ui = (A − λ I)k−i uk para cada i ∈ {1, . . . , k}. D EFINIÇ ÃO Seja u um vector próprio generalizado associado a λ e seja k o menor número natural tal que (A − λ I)k u = 0. A cadeia de Jordan definida por u1 = (A − λ I)k−1 u, u2 = (A − λ I)k−2 u, .. . uk−1 = (A − λ I)u, uk = u é a cadeia de Jordan gerada por u. P ROPOSIÇ ÃO Todos os vectores de uma cadeia de Jordan u1 , . . . , uk são linearmente independentes. Demonstração. Por indução matemática. Se k = 1 temos a base da indução: {u1 } é um conjunto linearmente independente porque u1 6= 0. Usando como hipótese de indução que a afirmação é válida para k ∈ N vamos provar que também o é para k + 1. Se u1 , . . . , uk+1 for uma cadeia de Jordan então u1 , . . . , uk é uma cadeia de jordan de comprimento k, pelo que, pela hipótese de indução, os seus vectores são linearmente independentes. Qualquer vector v ∈ L({u1 , . . . , uk }) tem de satisfazer (A − λ I)k v = 0 e portanto uk+1 ∈ / L ({u1 , . . . , uk }). Portanto {u1 , . . . , uk+1 } é linearmente independente. C OROL ÁRIO Qualquer cadeia de Jordan u1 , . . . , uk associada a λ está contida numa cadeia maximal u1 , . . . , uk , v1 , . . . , vl associada a λ com l ∈ N0 . (Como de costume, usa-se a convenção de que l = 0 se e só se a lista v1 , . . . , vl for vazia.) L EMA Sejam λ1 , . . . , λm os valores próprios de A (sem repetições) e sejam u1 , . . . , um vectores próprios generalizados associados a λ1 , . . . , λm , respectivamente. Então o conjunto {u1 , . . . , um } é linearmente independente. Este lema é uma generalização do que já vimos para vectores próprios associados a valores próprios distintos e não o demonstraremos aqui. O teorema fundamental deste capı́tulo é o seguinte: T EOREMA Seja A ∈ Matn×n (K). Então existe uma base de K n formada por vectores próprios generalizados de A. Não demonstraremos este resultado, mas vamos ilustrá-lo por meio de exemplos. Primeiro vamos ver o efeito de escolher uma base de vectores próprios generalizados para a representação matricial da transformação linear T : K n → K n definida por T(x) = Ax . Seja (v1 , . . . , vn ) uma base de K n , formada por vectores próprios generalizados, obtida por concatenação de cadeias maximais de Jordan associadas a valores próprios λ1 , . . . , λm : (1) (1) (2) (2) (m) (m) (v1 , . . . , vn ) = u1 , . . . , uk1 , u1 , . . . , uk2 , . . . , u1 , . . . , ukm . | {z } | {z }| {z } λ1 λ2 λm Temos, para cada i ∈ {1, . . . , m}, (i) (i) (i) T u1 = Au1 = λi u1 (i) (i) (i) (i) (i) (i) T u2 = Au2 = (A − λi I)u2 + λi u2 = u1 + λi u2 (i) (i) (i) (i) (i) (i) T u3 = Au3 = (A − λi I)u3 + λi u3 = u2 + λi u3 ··· ··· ··· Portanto T tem a seguinte representação matricial em relação à base (v1 , . . . , vn ): λ1 1 0 · · · 0 0 λ1 1 . . . ... . .. 0 0 0 λ1 0 · · · .. .. .. . . . . 1 . . 0 0 · · · 0 λ1 λ2 1 0 · · · 0 . . . . .. 0 λ 1 2 . .. 0 0 0 0 λ · · · 2 .. .. .. . . . 1 . . . 0 0 · · · 0 λ2 .. .. .. . . . D EFINIÇ ÃO Uma matriz da forma da anterior diz-se estar na forma normal de Jordan, ou na forma canónica de Jordan, ou simplesmente que é uma forma normal de Jordan. Cada bloco da forma λ 1 0 0 λ 1 0 .. . 0 .. . λ .. . 0 0 ··· ··· 0 . .. . .. .. . 0 .. . 1 0 λ chama-se um bloco de Jordan (associado a λ ). C OROL ÁRIO Qualquer matriz A ∈ Matn×n (K) tem uma forma normal de Jordan J. A multiplicidade geométrica de um valor próprio λ de A é igual ao número de blocos de Jordan associados a λ em J. A PLICAÇ ÕES Resolução de sistemas de equações diferenciais (a ver em ACED). E XERC ÍCIOS A matriz seguinte não é diagonalizável e já figurou num exercı́cio: E XERC ÍCIO 1. Calcule os valores próprios da matriz 7 5 −1 1 A = 0 −2 20 0 3 2. Calcule uma forma normal de Jordan J e uma matriz não-singular S tais que J = S−1 AS. E XERC ÍCIO 1. Calcule os valores próprios da matriz 1 −1 0 3 1 A= 1 0 0 2 2. Calcule uma forma normal de Jordan J e uma matriz não-singular S tais que J = S−1 AS. E XERC ÍCIO 1. Calcule os valores próprios da matriz 1 −1 −1 3 1 A= 1 0 0 2 2. Calcule uma forma normal de Jordan J e uma matriz não-singular S tais que J = S−1 AS. Capı́tulo 29 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 4.1 e 4.2. E SPAÇOS E UCLIDIANOS F IGURA : Impressão artı́stica do matemático grego Euclides de Alexandria, que viveu por volta do ano 300 AC e é frequentemente referido como o Pai da Geometria. Recordar o produto escalar em Rn : x · y = xT y = x1 y1 + · · · + xn yn . É uma função em duas variáveis Rn × Rn → R. É uma função linear na primeira variável: (αx + β y) · z = αx · z + β y · z . É uma função simétrica das variáveis: x·y = y·x . (E portanto também é linear na segunda variável.) É uma função positiva, ou definida positiva: x·x ≥ 0 e x·x = 0 sse x=0. Este facto é fundamental para poder definir a norma de um vector: √ ||x|| = x · x . D EFINIÇ ÃO Seja V um espaço vectorial real. Um produto interno em V é uma função ϕ : V ×V → R que é: L INEAR NA PRIMEIRA VARI ÁVEL : ϕ(αx + β y, z) = αϕ(x, z) + β ϕ(y, z). S IM ÉTRICA : ϕ(x, y) = ϕ(y, x). D EFINIDA POSITIVA : Se x 6= 0 então ϕ(x, x) > 0. O espaço V equipado com um produto interno especı́fico designa-se por espaço Euclidiano (real). A norma de um vector x ∈p V num espaço Euclidiano V com produto interno ϕ é ||x|| = ϕ(x, x). Dois vectores x, y ∈ V são ortogonais se ϕ(x, y) = 0. N OTA É habitual usar a notação hx, yi para o produto interno dos vectores x e y num espaço Euclidiano real V. A linearidade implica h0, xi = 0 para qualquer x ∈ V e portanto pela positividade temos hx, xi = 0 se e só se x = 0. Qualquer produto interno num espaço real é uma função bilinear. E XEMPLO São produtos internos em espaços vectoriais reais: I O produto escalar hx, yi = x · y em Rn . I Em P2 (R): hp, qi = p(0)q(0) + p(1)q(1) + p(2)q(2) . I Em Pn (R), dada lista de elementos distintos x1 , . . . , xm ∈ R com m > n: m hp, qi = ∑ p(xi )q(xi ) . i=1 I Em C[a, b] (com a < b): hf , gi = Z b f (t)g(t)dt . a Antes de estudar mais exemplos vamos ver como se pode adaptar a noção de produto interno aos espaços vectoriais complexos. Comecemos pelo exemplo mais simples de todos: em C é natural querer que a norma ||z|| de um vector z ∈ C seja o seu módulo |z| = (zz)1/2 . Sendo assim é natural definir o produto interno de z e w pela fórmula hz, wi = zw . Mais geralmente, definimos o produto escalar dos vectores z, w ∈ Cn pela fórmula z · w = z1 w1 + · · · + zn wn . D EFINIÇ ÃO Seja V um espaço vectorial complexo. Um produto interno em V é uma função h−, −i : V × V → C que é: L INEAR NA PRIMEIRA VARI ÁVEL : hαx + β y, zi = αhx, zi + β hy, zi. H ERMITEANA : hx, yi = hy, xi. D EFINIDA POSITIVA : Se x 6= 0 então hx, xi ∈ R+ . O espaço V equipado com um produto interno especı́fico designa-se por espaço Euclidiano (complexo). A norma de um vector x ∈ V num p espaço Euclidiano V com produto interno h−, −i é ||x|| = hx, xi. Dois vectores x, y ∈ V são ortogonais se hx, yi = 0. A palavra “Hermitiana” é usada em honra do matemático francês Charles Hermite: F IGURA : Charles Hermite (24/12/1822 – 14/01/1901), por volta de 1887. N OTA A linearidade implica h0, xi = 0 para qualquer x ∈ V e portanto pela positividade temos hx, xi = 0 se e só se x = 0. Chama-se também à propriedade hx, yi = hy, xi simetria Hermitiana. Qualquer produto interno num espaço complexo é uma função sesquilinear, ou seja, uma função linear na primeira variável e anti-linear na segunda: hx, αy + β zi = αhx, yi + β hx, zi . E XEMPLO São produtos internos em espaços vectoriais complexos: I O produto escalar hx, yi = x · y em Cn . Matricialmente temos x · y = xT y , onde a operação de conjugação para matrizes A ∈ Matm×n (C) é definida por A ij = aij . I Em P2 (C): hp, qi = p(0)q(0) + p(1)q(1) + p(i)q(i) . I No espaço das funções contı́nuas f : [a, b] → C (com a < b em R): hf , gi = Z b f (t)g(t)dt . a R EPRESENTAÇ ÕES MATRICIAIS P ROPOSIÇ ÃO Seja ϕ : Cn × Cn → C. A função ϕ é sesquilinear se e só se existir uma matriz A ∈ Matn×n (C) tal que ϕ(x, y) = xT Ay para quaisquer x, y ∈ Cn . Se existir uma tal matriz A ela é única e as suas entradas são definidas por aij = ϕ(ei , ej ) . A função ϕ é Hermitiana se e só se a matriz A satisfizer a condição aij = aji . D EFINIÇ ÃO Diz-se que a matriz A da proposição anterior representa ϕ. Chama-se matriz Hermitiana a uma matriz A tal que aij = aji . (E anti-Hermitiana se aij = −aji .) E XERC ÍCIO Dê exemplos de matrizes Hermitianas e de matrizes anti-Hermitianas. A adaptação para os espaços reais Rn é evidente: P ROPOSIÇ ÃO Seja ϕ : Rn × Rn → R. A função ϕ é bilinear se e só se existir uma matriz A ∈ Matn×n (R) tal que ϕ(x, y) = xT Ay para quaisquer x, y ∈ Rn . Se existir uma tal matriz A ela é única e as suas entradas são definidas por aij = ϕ(ei , ej ) . A função ϕ é simétrica se e só se a matriz A for simétrica. E XEMPLO A função ϕ : R2 × R2 → R definida por ϕ(x, y) = 3x1 y1 + x1 y2 − x2 y1 + 10x2 y2 é bilinear e é representada pela matriz 3 1 −1 10 Portanto ϕ não é simétrica. D EFINIÇ ÃO À matriz que representa um produto interno em Cn chama-se a métrica do produto interno. L EMA A métrica dum produto interno em Cn é necessariamente uma matriz Hermitiana com todas as entradas da diagonal principal reais e positivas. A métrica dum produto interno em Rn é necessariamente uma matriz simétrica com todas as entradas da diagonal principal positivas. Estas condições são apenas necessárias: não são suficientes para garantir que uma dada matriz é uma métrica. E XEMPLO Os produtos escalares de Rn e Cn são representados por matrizes identidade. E XERC ÍCIO Diga, justificando, quais das seguintes matrizes são métricas de produtos internos em R2 : 1 2 1. 2 0 1 2 2. 1 3 1 1 3. 1 3 1 2 4. 2 3 Capı́tulo 30 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 4.2 e 4.3. A LGUMAS PROPRIEDADES DA NORMA Sendo x e y vectores de um espaço Euclidiano (real ou complexo) e a um escalar, têm-se as duas propriedades seguintes, cuja demonstração é imediata: P OSITIVIDADE : ||x|| > 0 se x 6= 0 H OMOGENEIDADE : ||ax|| = |a| ||x|| Ver-se-ão outras propriedades mais adiante. BASES ORTONORMAIS D EFINIÇ ÃO Seja V um espaço Euclidiano (real ou complexo). Uma base de V diz-se ortogonal se quaisquer vectores distintos da base forem ortogonais. Uma base de V diz-se ortonormal se for ortogonal e qualquer vector da base for um vector unitário, ou seja, com norma igual a 1. E XEMPLO I As bases canónicas de Rn e Cn são ortonormais. I De qualquer vector não nulo x obtém-se um vector unitário 1 ||x|| x. Portanto podemos obter uma base ortonormal a partir de qualquer base ortogonal. E XERC ÍCIO Dizendo que um conjunto X de vectores qualquer é ortogonal quando quaisquer vectores distintos de X forem ortogonais, mostre que é linearmente independente qualquer conjunto ortogonal X tal que 0 ∈ / X. E XERC ÍCIO Mostre que as funções sen nt (n ∈ N) definidas no intervalo [0, 2π] formam um conjunto ortogonal em relação ao produto interno Z 2π hf , gi = f (t)g(t)dt . 0 P ROPOSIÇ ÃO Seja V um espaço Euclidiano complexo com uma base ortonormal (e1 , . . . , en ). Então o vector de cordenadas, nessa base, de qualquer vector x ∈ V é (hx, e1 i, . . . , hx, en i) . Por outras palavras, qualquer vector x ∈ V exprime-se como a seguinte combinação linear: n x = ∑ hx, ei iei . i=1 C OROL ÁRIO Seja V um espaço Euclidiano complexo com uma base ortonormal (e1 , . . . , en ) e sejam x, y ∈ V. Então tem-se a seguinte igualdade, conhecida como fórmula de Parseval: n hx, yi = ∑ hx, ei ihy, ei i . i=1 N OTA Esta fórmula mostra que o produto interno de dois vectores num espaço complexo de dimensão n é, dada uma base ortonormal, igual ao produto escalar dos seus vectores de coordenadas nessa base. N OTA Neste momento estamos equipados para compreender textos básicos sobre mecânica quântica e, em particular, computação quântica. P ROJECÇ ÕES ORTOGONAIS E ÂNGULOS D EFINIÇ ÃO Seja V um espaço Euclidiano (real ou complexo) e seja e um vector unitário (ou seja, com norma 1). Dado um vector qualquer x ∈ V, a projecção ortogonal de x sobre e é o vector p = hx, eie . Mais geralmente, dado um vector qualquer v ∈ V \ {0}, a projecção ortogonal de x sobre v é a projecção ortogonal de 1 x sobre o vector unitário e = ||v|| v: p = hx, eie = hx, vi v = v. hv, vi ||v||2 hx, vi Em R2 , sendo θ o ângulo entre dois vectores não nulos x e y, ||p|| tem-se cos θ = ||x|| onde p é a projecção ortogonal de x sobre y. Logo, tem-se hx, yi cos θ = ||x|| ||y|| o que motiva a definição seguinte (apenas para espaços Euclidianos reais): D EFINIÇ ÃO Seja V um espaço Euclidiano real e sejam x, y ∈ V \ {0}. O ângulo entre os dois vectores x e y é definido por θ = arccos hx, yi . ||x|| ||y|| Para esta definição fazer sentido é preciso demonstrar que da nossa definição de produto interno real resulta que hx, yi ||x|| ||y|| ≤ 1 . Na verdade esta condição verifica-se até para espaços Euclidianos complexos e tem o nome de desigualdade de Cauchy–Schwarz: T EOREMA Em qualquer espaço Euclidiano (real ou complexo) tem-se, para quaisquer dois vectores x e y, a desigualdade de Cauchy–Schwarz: |hx, yi| ≤ ||x|| ||y|| . Verifica-se a igualdade se e só se os dois vectores forem linearmente dependentes. Demonstração. Suponha-se que x 6= 0 e seja p a projecção ortogonal de y sobre x: hy, xi p= x. ||x||2 Então ||y − p||2 = hy − p, y − pi = hy, yi − hy, pi − hp, yi + hp, pi ||y||2 ||x||2 − |hy, xi|2 . = ||x||2 (Os passos intermédios foram feitos no quadro — ver o livro, Teorema 4.3.) Uma vez que ||y − p||2 ≥ 0, obtemos a desigualdade pretendida. Demonstração. (Continuação.) O caso da igualdade corresponde a ter-se ||y − p||2 = 0, ou seja, y=p= hy, xi x, ||x||2 e portanto y e x são linearmente dependentes. O caso com x = 0 é evidente. P ROPOSIÇ ÃO A norma de um espaço Euclidiano satisfaz a desigualdade triangular: ||x + y|| ≤ ||x|| + ||y|| . Se x e y forem ortogonais então tem-se o Teorema de Pitágoras: ||x + y||2 = ||x||2 + ||y||2 . Demonstração. Resolver como exercı́cio, ou consultar o livro, secção 4.2. O RTOGONALIZAÇ ÃO DE G RAM –S CHMIDT Vamos ver que em qualquer espaço Euclidiano (real ou complexo) de dimensão finita existe uma base ortogonal (e portanto uma base ortonormal). Vamos estudar um algoritmo para obter uma base ortogonal a partir de uma base qualquer, conhecido por método de ortogonalização de Gram–Schmidt. O algoritmo resulta do teorema seguinte: T EOREMA Seja V um espaço Euclidiano (real ou complexo) e seja v1 , . . . , vn uma lista de vectores linearmente independente. Então a lista u1 , . . . , un definida adiante é também linearmente independente, gera o mesmo subespaço L({v1 , . . . , vn }), e consiste de vectores ortogonais entre si: u1 = v1 hv2 , u1 i u1 ||u1 ||2 hv3 , u1 i hv3 , u2 i = v3 − u − u2 1 ||u1 ||2 ||u2 ||2 .. . hvn , u1 i hvn , u2 i hvn , un−1 i u − u − · · · − un−1 = vn − 1 2 ||u1 ||2 ||u2 ||2 ||un−1 ||2 u2 = v2 − u3 un Demonstração. A demonstração foi explicada na aula. Quem não esteve na aula deve consultar o livro, secção 4.3. O seguinte exercı́cio foi resolvido na aula. E XERC ÍCIO Dados os seguintes vectores de R3 (que formam uma base), v1 = (1, 1, 1) v2 = (1, 1, 0) v3 = (1, 0, 0) , calcule os vectores u1 , u2 e u3 do teorema anterior e verifique que formam de facto uma base ortogonal de R3 . O seguinte exercı́cio difere do anterior apenas na ordem dos vectores e serve para mostrar que o resultado de aplicar o algoritmo de Gram–Schmidt depende da ordem pela qual são apresentados os vectores v1 , v2 , . . .. E XERC ÍCIO Dados os seguintes vectores de R3 , v1 = (1, 0, 0) v2 = (1, 1, 0) v3 = (1, 1, 1) , calcule os vectores u1 , u2 e u3 do teorema anterior. Capı́tulo 31 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. R EVIS ÃO Na aula anterior vimos que em qualquer espaço Euclidiano de dimensão finita existe uma base ortonormal (e apresentámos um algoritmo para obter tais bases — o algoritmo de Gram–Schmidt). Na aula anterior a essa tı́nhamos visto que em Cn qualquer produto interno é representado por uma matriz M ∈ Matn×n (C) a que se chama a métrica do produto interno: hx, yi = xT My mij = hei , ej i . A definição de M é, como se vê, feita em termos da base canónica de Cn . Mas, como veremos nesta aula, podemos defini-la em termos de uma qualquer base de um espaço complexo de dimensão finita. Tal como para a representação matricial de transformações lineares, a métrica de um produto interno depende da base escolhida. M UDANÇAS DE BASE Comecemos por estudar a representação matricial de uma função sesquilinear em relação a uma base qualquer: P ROPOSIÇ ÃO Seja V um espaço vectorial complexo com uma base ordenada (v1 , . . . , vn ) e seja ϕ : V × V → C. A função ϕ é sesquilinear se e só se existir uma matriz A ∈ Matn×n (C) tal que para quaisquer x, y ∈ V temos ϕ(x, y) = xT Ay onde x, y ∈ Cn são os vectores de coordenadas de x e y, respectivamente, na base dada. A é necessariamente definida por aij = ϕ(vi , vj ) e ϕ é Hermitiana se e só se a matriz A for Hermitiana. P ROPOSIÇ ÃO Seja V um espaço vectorial Euclidiano de dimensão finita. Uma base é ortonormal (resp. ortogonal) se e só se a métrica do produto interno nessa base for a matriz identidade (resp. uma matriz diagonal). N OTA Dada uma base ortonormal, o produto interno de dois vectores é igual ao produto escalar dos respectivos vectores de coordenadas nessa base, tal como já tı́nhamos observado na aula anterior a propósito da fórmula de Parseval. T EOREMA Seja V um espaço vectorial complexo com bases ordenadas B = (v1 , . . . , vn ) e B0 = (w1 , . . . , wn ) e matriz de mudança de base S (de B para B0 ). Seja ainda ϕ : V × V → C uma função sesquilinear representada pelas matrizes A e A0 nas bases B e B0 , respectivamente. As matrizes A e A0 relacionam-se pela fórmula seguinte: A0 = ST AS . O mesmo resultado obtém-se para espaços reais, mas com a fórmula A0 = ST AS . Este teorema permite-nos obter uma primeira caracterização das matrizes que são métricas de produtos internos: C OROL ÁRIO Uma matriz M ∈ Matn×n (C) pode ser a métrica de um produto interno se e só se existir uma matriz não-singular S ∈ Matn×n (C) tal que M = ST S. Demonstração. Seja M ∈ Matn×n (C) a métrica de um espaço Euclidiano complexo V de dimensão n em relação a uma base (v1 , . . . , vn ). Uma vez que qualquer espaço Euclidiano de dimensão finita tem uma base ortonormal, seja (e1 , . . . , en ) uma base ortonormal de V e seja S a matriz de mudança de base da base ortonormal para a outra base. A métrica do produto interno na base ortonormal é a identidade e portanto a fórmula da mudança de base do teorema anterior dá-nos M = ST S. Demonstração. (Continuação.) Acabámos de ver que qualquer métrica M é igual a ST S para alguma matriz não-singular S. A afirmação recı́proca (de que ST S é necessariamente uma métrica se S for não-singular), demonstra-se observando que ST S é, por exemplo a métrica do produto escalar de Cn na base ordenada formada pelas colunas de S. C OROL ÁRIO Seja V um espaço Euclidiano complexo com bases ortonormais B = (v1 , . . . , vn ) e B0 = (w1 , . . . , wn ) e matriz de mudança de base S (de B para B0 ). Então tem-se ST S = I . Para espaços reais o resultado é análogo, com a fórmula ST S = I . D EFINIÇ ÃO Diz-se que é unitária (resp. ortogonal) uma matriz quadrada S tal que ST S = I (resp. ST S = I). N OTA Uma matriz quadrada S é ortogonal se e só se for não-singular com S−1 = ST . (Exemplo: as matrizes de permutação.) Isto significa precisamente que todas as colunas de S são vectores de norma 1 (em relação ao produto escalar de Rn ) e ortogonais entre si. A mesma afirmação se aplica às linhas. D EFINIÇ ÃO Seja A ∈ Matm×n (C). A matriz adjunta de A é a matriz T A∗ = A = AT . N OTA I M é uma métrica de um produto interno num espaço complexo de dimensão finita se e só se existir uma matriz não-singular S tal que M = S∗ S. I Uma matriz quadrada S é unitária se e só se for não-singular com S−1 = S∗ . I Isto significa precisamente que todas as colunas de S são vectores de norma 1 (em relação ao produto escalar de Cn ) e ortogonais entre si. I Uma matriz A é Hermitiana se e só se A = A∗ . Por esta razão também se designam as matrizes Hermitianas por auto-adjuntas. E XERC ÍCIO Defina um produto interno ϕ em R2 para o qual os vectores v1 = (2, 1) e v2 = (2, −1) tenham norma igual a 1 e sejam ortogonais. Resolução. Queremos evidentemente que o produto interno seja o produto escalar nas coordenadas definidas pela base (v1 , v2 ). A matriz de mudança de base da base canónica para esta base é 2 2 S= . 1 −1 Portanto queremos ϕ(x, y) = (S−1 x)T (S−1 y) = xT (S−1 )T S−1 y, pelo que a métrica será a matriz 1 1 −1 −1 −1 −2 1/8 0 (S−1 )T S−1 = = 2 (−4) −1 2 0 1/2 (−4) −2 e portanto tem-se ϕ(x, y) = 18 x1 y1 + 12 x2 y2 . Capı́tulo 32 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 4.4, 4.5.1 e 4.5.2. O que se segue diz respeito tanto a espaços reais como complexos. D EFINIÇ ÃO Seja V um espaço Euclidiano e seja S ⊂ V um subespaço qualquer. Diz-se que um vector x ∈ V é ortogonal a S se e só se é ortogonal a todos os vectores de S. O conjunto de todos os vectores ortogonais a S designa-se por complemento ortogonal de S e denota-se por S⊥ . E XEMPLO Já vimos os seguintes exemplos, dada uma matriz A ∈ Matm×n (R), tomando para produto interno de Rn o produto escalar: I nuc(A) = (lin(A))⊥ ⊂ Rn I lin(A) = (nuc(A))⊥ ⊂ Rn T EOREMA Se S for um subespaço de um espaço Euclidiano V de dimensão finita então V = S ⊕ S⊥ . (Portanto cada vector x ∈ V escreve-se de forma única como x = xS + xS⊥ com xS ∈ S e xS⊥ ∈ S⊥ .) A função P : V → S definida por P(x) = xS (designada por (operador de) projecção ortogonal de V sobre S) é uma transformação linear. Se {e1 , . . . , ek } for uma base ortonormal de S então k Px = ∑ hx, ei iei . i=1 T EOREMA (Continuação.) Tem-se: I P(V) = S I P2 = P I hPx, yi = hx, Pyi Denotando por P⊥ a projecção ortogonal de V sobre S⊥ tem-se: I P + P⊥ = id I ||x||2 = ||Px||2 + ||P⊥ x||2 (fórmula de Pitágoras). Demonstração. Ver demonstração no livro. T EOREMA (Teorema de aproximação.) Seja S um subespaço de dimensão finita de um espaço Euclidiano V e seja x ∈ V. Então existe um vector de S mais próximo de x do que todos os outros vectores de S, nomeadamente a projecção ortgonal de x sobre S. Por outras palavras, para qualquer y ∈ S tem-se ||x − Px|| ≤ ||x − y|| . Demonstração. Da fórmula de Pitágoras temos ||x − y||2 = ||P(x − y)||2 + ||P⊥ (x − y)||2 . Logo, como Py = y para qualquer y ∈ S temos ||x − y|| ≥ ||P⊥ (x − y)|| = ||(id − P)(x − y)|| = ||x − Px − y + Py|| = ||x − Px|| . C OROL ÁRIO Seja S um subespaço de dimensão finita de um espaço Euclidiano V e seja x ∈ V. A distância de x a S é igual a ||x − Px|| = ||P⊥ x|| . Se a ∈ V então a distância de x ao plano-k a + S é ||P⊥ (x − a)|| . Se U ⊂ S for um subespaço e b ∈ V (diz-se que os planos a + S e b + U são paralelos) a distância entre eles é ||P⊥ (b − a)|| . A PLICAÇ ÃO — A PROXIMAÇ ÕES DE QUADRADOS M ÍNIMOS Suponha-se que o sistema seguinte com A ∈ Matm×n (R) é impossı́vel (ou seja, b ∈ / col(A)): Ax = b Existem contudo “soluções” que minimizam a distância de b ao espaço col(A). Sendo P o operador de projecção ortogonal sobe col(A), o vector p = Pb é o vector de col(A) mais próximo de b (equivalentemente, p é tal que p − b ∈ col(A)⊥ — explique porquê). Definição: As soluções de quadrados mı́nimos de Ax = b são as soluções de Ax = p. T EOREMA Seja A ∈ Matm×n (R). As soluções de quadrados mı́nimos do sistema Ax = b são os vectores x∗ ∈ Rn que satisfazem AT Ax∗ = AT b . Demonstração. Os vectores de col(A) são da forma Ay para y ∈ Rn . A condição p − b ∈ (col(A))⊥ é equivalente a impor, para qualquer y ∈ Rn , Ay · (p − b) = 0 , ou seja, (Ay)T (p − b) = 0, e portanto yT AT (p − b) = 0 para qualquer y ∈ Rn . Isto é equivalente a ter-se AT (p − b) = 0, ou seja, AT p = AT b . Portanto as soluções de quadrados mı́nimos são os vectores x∗ tais que AT Ax∗ = AT b . L EMA Seja A ∈ Matm×n (R). Então A e AT A têm a mesma caracterı́stica. Demonstração. Vamos começar por provar que A e AT A têm o mesmo núcleo. Primeiro, nuc(A) ⊂ nuc(AT A) pois evidentemente se Ax = 0 então AT Ax = 0. Por outro lado, se AT Ax = 0 então xT AT Ax = 0, ou seja, (Ax) · (Ax) = (Ax)T Ax = 0, pelo que Ax = 0. Portanto nuc(A) = nuc(AT A). AT A tem n colunas, tal como A, e tem a mesma nulidade de A e portanto tem a mesma caracterı́stica de A. C OROL ÁRIO Seja A ∈ Matm×n (R). A matriz AT A é não-singular se e só se as colunas de A forem linearmente independentes. Nesse caso a solução de quadrados mı́nimos do sistema Ax = b é única e é dada pela fórmula x∗ = (AT A)−1 AT b . R EGRESS ÃO LINEAR Problema: Como encontrar uma recta de equação y = Ct + D que melhor aproxime a colecção de dados experimentais da figura seguinte? R EGRESS ÃO LINEAR Resposta: Sendo m o número de pontos do gráfico, com coordenadas (ti , yi ), queremos a solução de quadrados mı́nimos do sistema Ct1 + D = y1 .. . Ctm + D = ym . ou seja, At = y com A= t1 t2 .. . 1 1 .. . . tm 1 Então as soluções de quadrados mı́nimos são as soluções do sistema C ∑ ti2 ∑ ti ∑ ti yi = . D ∑ ti m ∑ yi Nota: Se todos os pontos (ti , yi ) tiverem ti ’s distintos então as colunas de A são linearmente independentes e por isso ter-se-á uma e uma só recta, com C e D dados por C D = ∑ ti2 ∑ ti ∑ ti m −1 ∑ ti yi ∑ yi , pelo que C = D = m ∑ ti yi − (∑ ti ) (∑ yi ) m ∑ ti2 − (∑ ti )2 2 ( y )−( t )( t y ) t ∑i ∑ i ∑i ∑i i m ∑ ti2 − (∑ ti )2 . Capı́tulo 33 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secção 6.4 (excluindo o material da Proposição 6.19 em diante). I NTRODUÇ ÃO I Ainda falta encontrar condições suficientes para uma matriz ser uma métrica. I Antes de fazer isso é conveniente estudar o que são as “boas” transformações entre espaços Euclidianos. I Veremos que há várias soluções: transformações unitárias, Hermitianas, etc., em correspondência com as matrizes unitárias, Hermitianas, etc. M ÉTRICAS E TRANSFORMAÇ ÕES LINEARES Vimos que num espaço V de dimensão n os produtos internos são, uma vez fixada uma base, representados por matrizes únicas n × n, a que chamamos métricas. Mas tais matrizes também representam transformações lineares de V em V. Daqui resulta a ideia de que há uma relação entre produtos internos e transformações lineares, que é o que começaremos por ver. T EOREMA Seja V um espaço Euclidiano complexo cujo produto interno é, como habitualmente, denotado por h−, −i. Seja ainda T : V → V uma transformação linear. Então as funções φ , ψ : V × V → C definidas por φ (x, y) = hT(x), yi ψ(x, y) = hx, T(y)i são sesquilineares. Se V tiver dimensão finita e A for a matriz que representa T em relação a uma base ortonormal então as representações matriciais de φ e ψ em relação a essa mesma base são respectivamente AT e A. Demonstração. É imediato ver que φ e ψ são sesquilineares. Suponha-se agora que V tem dimensão finita e que a transformação linear T é representada pela matriz A em relação a uma base ortonormal dada. Dados vectores x, y ∈ V, sejam x e y, respectivamente, os vectores de coordenadas de x e y nessa base. Uma vez que a base é ortonormal, a métrica do produto interno nessa base é a identidade, e portanto temos φ (x, y) = hT(x), yi = (Ax) · y = (Ax)T y = xT AT y . Portanto φ é representada pela matriz AT . Analogamente, ψ é representada por A: ψ(x, y) = hx, T(y)i = x · (Ay) = xT Ay = xT Ay . C OROL ÁRIO Seja V um espaço Euclidiano complexo de dimensão finita. Para cada transformação linear T : V → V existe uma e uma só transformação linear T ∗ : V → V, chamada a adjunta de T, tal que para quaisquer x, y ∈ V se tem hT(x), yi = hx, T ∗ (y)i . As seguintes propriedades verificam-se: T ∗∗ = T (T ◦ U)∗ = U ∗ ◦ T ∗ id∗ = id . Demonstração. Seja A a representação matricial de T em relação a uma base ortonormal dada. Então hT(−), −i é uma função sesquilinear representada pela matriz AT . Então T ∗ é a transformação linear representada pela matriz adjunta A∗ , pois a função sesquilinear h−, T ∗ (−)i é também representada por A∗ = AT . T RANSFORMAÇ ÕES LINEARES ENTRE ESPAÇOS E UCLIDIANOS Os factos anteriores sugerem a seguinte definição (em que admitimos transformações lineares T : S → V com S ⊂ V em vez de apenas S = V): D EFINIÇ ÃO Seja V um espaço Euclidiano (de qualquer dimensão) e S um subespaço. Uma transformação linear T : S → V diz-se H ERMITIANA se hT(x), yi = hx, T(y)i para quaisquer x, y ∈ S; A NTI -H ERMITIANA se hT(x), yi = −hx, T(y)i para quaisquer x, y ∈ S; U NIT ÁRIA se hT(x), T(y)i = hx, yi para quaisquer x, y ∈ S. C OROL ÁRIO Seja V um espaço Euclidiano complexo de dimensão finita e seja T : V → V uma transformação linear com representação matricial A em relação a uma base ortonormal. T é Hermitiana (resp. anti-Hermitiana, unitária) se e só se A é uma matriz Hermitiana (resp. anti-Hermitiana, unitária). E XEMPLO I As projecções ortogonais sobre subespaços de espaços Euclidianos de dimensão finita são transformações Hermitianas (v. aula anterior). I As rotações de R2 em torno da origem são transformações unitárias. I As reflexões através de uma recta que passa pela origem em R2 são transformações unitárias. N OTA A definição de transformação unitária faz sentido para transformações lineares entre espaços Euclidianos diferentes: D EFINIÇ ÃO Sejam V e W espaços Euclidianos (denotaremos por h−, −i os produtos internos de ambos). Uma isometria T : V → W é uma transformação linear tal que para quaisquer x, y ∈ V se tem hT(x), T(y)i = hx, yi . T EOREMA Sejam V e W espaços Euclidianos e T : V → W uma transformação linear. As condições seguintes são equivalentes: 1. T é uma isometria (T “preserva” o produto interno); 2. ||T(x)|| = ||x|| para qualquer vector x ∈ V (T “preserva” as normas dos vectores de V); 3. ||T(x) − T(y)|| = ||x − y|| para quaisquer vectores x, y ∈ V (T “preserva” as distâncias entre vectores de V). Demonstração. Ver demonstração no livro (Teorema 6.14 — a demonstração do livro é feita assumindo que V é um subespaço de W, mas essa hipótese é desnecessária). L EMA Os valores próprios de uma transformação Hermitiana (resp. anti-Hermitiana) T : S → V são reais (resp. imaginários puros). Demonstração. Suponha-se que T é uma transformação Hermitiana e seja u um vector próprio de T associado ao valor próprio λ . (Podemos assumir sem perda de generalidade que u é unitário.) Então λ é real porque: λ = λ hu, ui = hλ u, ui = hT(u), ui = hu, T(u)i = hu, λ ui = λ hu, ui = λ . De forma análoga, se T for anti-Hermitiana mostra-se que λ = −λ , pelo que λ é imaginário puro. L EMA Seja V um espaço Euclidiano, S ⊂ V um subespaço e T : S → V uma isometria. Então os valores próprios de T são números complexos de módulo igual a 1. Demonstração. Seja u um vector próprio de T associado ao valor próprio λ . (Podemos assumir sem perda de generalidade que u é unitário.) Então |λ |2 = λ λ = λ λ hu, ui = hλ u, λ ui = hT(u), T(u)i = hu, ui = 1 . L EMA Seja V um espaço Euclidiano, S ⊂ V um subespaço e T : S → V uma transformação Hermitiana, anti-Hermitiana ou unitária. Então quaisquer vectores próprios u e v de T associados a valores próprios distintos são ortogonais. Demonstração. Ver livro (Teorema 6.14). R EPRESENTAÇ ÕES DIAGONAIS DAS TRANSFORMAÇ ÕES H ERMITIANAS Agora vamos tratar apenas de transformações Hermitianas (o objectivo é obter uma caracterização das métricas, que já sabemos serem matrizes Hermitianas). L EMA Seja T uma transformação Hermitiana com domı́nio V e seja S ⊂ V um subespaço. Se T(S) ⊂ S então T(S⊥ ) ⊂ S⊥ . (Diz-se que S e S⊥ são subespaços invariantes de T — v. Secção 6.2 do livro.) Demonstração. Suponha-se que T(S) ⊂ S e seja x ∈ S⊥ . Então, para qualquer y ∈ S temos hT(x), yi = hx, T(y)i = 0 porque T(y) ∈ S. Logo, T(x) ∈ S⊥ e concluimos T(S⊥ ) ⊂ S⊥ . Qualquer transformação Hermitiana entre espaços de dimensão finita tem uma representação diagonal: T EOREMA Seja V um espaço Euclidiano de dimensão finita e seja T : V → V uma transformação Hermitiana. Então existe uma base ortonormal de V constituı́da por vectores próprios de T. Demonstração. A demonstração faz-se por indução. A base da indução é o caso em que dim(V) = 1. Neste caso tomamos um vector unitário qualquer de V e assim obtemos uma base ortonormal de V constituı́da por vectores próprios. Vamos agora ver que se o enunciado do teorema for verdadeiro para dim(V) = n ∈ N também o é para dim(V) = n + 1. Seja dim(V) = n + 1. Qualquer transformação linear entre espaços de dimensão finita tem pelo menos um vector próprio (porquê?), portanto podemos assumir a existência de um vector próprio unitário u ∈ V associado ao valor próprio λ . Seja S = L({u}). Então T(u) = λ u ∈ S, pelo que T(S) ⊂ S. Portanto T(S⊥ ) ⊂ S⊥ (pelo lema anterior). Demonstração. (Continuação.) Seja U : S⊥ → S⊥ a restrição de T ao subespaço S⊥ . U é uma transformação Hermitiana, uma vez que se tem, para quaisquer x, y ∈ S⊥ : hU(x), yi = hT(x), yi = hx, T(y)i = hx, U(y)i . Uma vez que dim S = 1 temos dim(S⊥ ) = n (porque V = S ⊕ S⊥ ). Logo, usando a hipótese de indução concluimos que existe uma base ortonormal (e1 , . . . , en ) de S⊥ constituı́da por vectores próprios de U. Mas os vectores próprios de U são-no também de T e por isso encontrámos uma base ortonormal (e1 , . . . , en , u) de V constituı́da por vectores próprios de T. N OTA Se V tiver dimensão finita e T : V → V for anti-Hermitiana ou unitária também existe uma base ortonormal de V constituı́da por vectores próprios de T — ver o livro, Secção 6.4 (Teorema 6.16). M ÉTRICAS E VALORES PR ÓPRIOS T EOREMA Uma matriz M ∈ Matn×n (C) é uma métrica (de um produto interno num espaço Euclidiano de dimensão n) se e só se for Hermitiana e todos os seus valores próprios forem positivos. Demonstração. Vamos primeiro supor que M é uma métrica. A função h−, −i : Cn × Cn → C definida por hx, yi = xT My é um produto interno e portanto é definida positiva. Seja λ um valor próprio de M. Então λ também é um valor próprio de M T (porquê?). Seja u ∈ Cn um vector próprio unitário de M T associado a λ . Tem-se λ = λ u · u = (λ u) · u = (M T u) · u = uT Mu = hu, ui > 0 porque u 6= 0. Concluı́mos assim que todos os valores próprios são positivos. Demonstração. (Continuação.) Vamos agora demonstrar a implicação recı́proca: assumindo que M é Hermitiana e que os valores próprios são positivos vamos mostrar que M é uma métrica. A função hx, yi = xT My é Hermitiana porque M é Hermitiana, por isso resta provar que é definida positiva. Por M T também ser Hermitiana, existe uma base (e1 , . . . , en ) de Cn constituı́da por vectores próprios de M T associados a λ1 , . . . , λn , respectivamente, que é ortonormal relativamente ao produto escalar de Cn (por um dos teoremas anteriores). Para cada i, j ∈ {1, . . . , n} temos hei , ej i = (M T ei ) · ej = λi ei · ej = λi se i = j 0 se i 6= j . Demonstração. (Continuação.) Então, se x = c1 e1 + . . . + cn en , temos n n n n hx, xi = ∑ ∑ ci cj hei , ej i = ∑ ci ci λi = ∑ |ci |2 λi . i=1 j=1 i=1 i=1 Se x 6= 0 então pelo menos um dos ci deve ser não nulo, pelo que o somatório anterior é maior do que 0 e portanto hx, xi > 0. Concluı́mos assim que M é definida positiva e portanto uma métrica. N OTA A segunda parte da demonstração (das duas páginas anteriores) pode ser feita de forma puramente matricial, como se explica de seguida. Sendo S a matriz de mudança de base da base canónica para uma base ortonormal B de vectores próprios de M T , segue-se que S é uma matriz unitária, ou seja, S−1 = S∗ . Portanto Λ = S∗ M T S é uma matriz diagonal cujas entradas da diagonal principal são os valores próprios de M repetidos de acordo com as respectivas multiplicidades algébricas. Λ é uma métrica porque os valores próprios são positivos. Sendo Λ diagonal tem-se também Λ = ΛT = ST MS. Isto significa que Λ também resulta de M pela fórmula da mudança de base aplicada a representações matriciais de funções sesquilineares. Portanto M é uma métrica porque Λ é. E XERC ÍCIO Mostre que uma matriz A ∈ Matn×n (C) é Hermitiana se e só se existir uma base ortonormal de Cn constituı́da por vectores próprios de A e todos os valores próprios de A forem reais. E XERC ÍCIO Mostre que uma matriz A ∈ Matn×n (C) é unitária se e só se existir uma base ortonormal de Cn constituı́da por vectores próprios de A e todos os valores próprios de A forem complexos de módulo igual a 1. Capı́tulo 34 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações B IBLIOGRAFIA L. Magalhães, Álgebra Linear como Introdução à Matemática Aplicada, 1992, Texto Editora. I Secções 1.4 e 6.5 (excluindo o material do Teorema 6.36 em diante). I NTRODUÇ ÃO I Na aula passada estudámos as transformações lineares Hermitianas (entre outras — anti-Hermitianas e unitárias). I Vimos que, dado um espaço Euclidiano V de dimensão finita, para qualquer transformação Hermitiana T : V → V existe uma base ortonormal de V formada por vectores próprios de T. I Vimos que uma matriz M ∈ Matn×n (C) é uma métrica de algum produto interno se e só se for Hermitiana e tiver os valores próprios todos positivos. I Uma vez que, como já sabemos, o cálculo de valores próprios pode ser difı́cil, nesta aula vamos estudar critérios mais eficientes para determinar se uma dada matriz Hermitiana é uma métrica. I Isto levar-nos-á de volta ao ponto de partida desta disciplina: a eliminação de Gauss! L EMA Se A for uma métrica então det A > 0. Demonstração. Como vimos, uma métrica tem todos os valores próprios positivos. Logo, o determinante, que é o produto dos valores próprios, é positivo. L EMA Se A for uma métrica então são métricas todas as submatrizes Ak que consistem nos elementos das primeiras k linhas e k colunas: a11 a12 A1 = [a11 ], A2 = , . . . , An = A . a21 a22 Demonstração. Cada uma das matrizes Ak é obviamente Hermitiana. E também é uma métrica porque se (x1 , . . . , xk ) 6= 0 temos x1 .. . x1 . xk x1 , . . . , xk Ak .. = x1 , . . . , xk , 0, . . . , 0 A 0 >0. xk .. . 0 C OROL ÁRIO Se A for uma métrica então todas as submatrizes Ak têm determinantes positivos. L EMA Seja A ∈ Matn×n (C) uma matriz tal que têm determinantes positivos todas as submatrizes Ak que consistem nos elementos das primeiras k linhas e k colunas. Então, aplicando exclusivamente a regra da eliminação do método da eliminação de Gauss, a matriz A pode transformar-se numa matriz triangular superior cujas entradas da diagonal principal (os pivots da eliminação) são todas positivas. Demonstração. Explicado na aula (ver também a demonstração do caso 2 ⇒ 3 do Teorema 6.32 do livro). L EMA Seja A uma matriz Hermitiana de dimensão n × n. Se A puder transformar-se, usando exclusivamente a regra da eliminação do método da eliminação de Gauss, numa matriz triangular superior cujas entradas da diagonal principal (os pivots) são positivas então A é uma métrica. Demonstração. A afirmação do teorema, de que podemos usar apenas a regra da eliminação, permite concluir que A tem uma factorização A = LDU em que: I L é triangular inferior com entradas da diagonal principal iguais a 1, I U é triangular superior com entradas da diagonal principal iguais a 1 (é a matriz que resulta de dividir cada linha pelo respectivo pivot na matriz triangular superior obtida a partir de A usando a regra da eliminação sucessivamente), I D é uma matriz diagonal cuja diagonal principal contém os pivots (pela ordem em que surgiram durante a eliminação). (Isto está descrito na Secção 1.4 do livro e vai ser explicado na aula.) Pelo facto de A ser Hermitiana também se conclui que L = U ∗ (isto também será explicado na aula). Demonstração. (Continuação.) Tomando S = U temos uma matriz não-singular (porque det S = 1) tal que A = ST DS . Portanto A resulta de D por uma mudança de base de uma forma sesquilinear cuja matriz de mudança de base é S. Mas D é uma métrica (as entradas da diagonal principal são os pivots) e portanto A também é. Em suma, obtemos o seguinte corolário: T EOREMA Seja A ∈ Matn×n (C) uma matriz Hermitiana. Então as seguintes condições são equivalentes: 1. A é uma métrica. 2. Os valores próprios de A são positivos. 3. Tem-se det Ak > 0 para cada submatriz Ak de A cujas entradas são as das primeiras k linhas e k colunas de A. 4. A pode ser transformada por eliminação de Gauss, usando apenas a regra da eliminação, numa matriz triangular superior cujas entradas da diagonal principal são positivas. N OTA O critério 4 é em geral o mais fácil de aplicar. U MA APLICAÇ ÃO : DIAGONALIZAÇ ÃO DE FORMAS QUADR ÁTICAS I I I I Uma forma quadrática Q : Rn → R é uma função que pode ser expressa como um polinómio homogéneo de grau dois nas componentes de x ∈ Rn . Por exemplo, com n = 3, Q(x, y, z) = x2 + 3xy − 4xz + z2 . (Equações baseadas em formas quadráticas podem ser usadas para descrever elipses, parábolas, hipérboles — ver a classificação das quádricas no Apêndice C do livro.) Uma forma quadrática diz-se diagonal se for uma combinação linear de quadrados, por exemplo Q(x, y) = x2 + 2y2 . Qualquer forma quadrática se pode exprimir na forma QA (x) = xT Ax para alguma matriz quadrada A. I I I I Chama-se a QA a forma quadrática associada a A. Fazendo B = (A + AT )/2 (a parte simétrica de A) tem-se QB = QA . Então QA pode ser diagonalizada: ou seja, escolhendo uma base de vectores próprios de B ortonormal, QA será diagonal nas coordenadas dos vectores calculadas nessa base. Mais precisamente, se S for a matriz (ortogonal) de mudança de base e Λ for a matriz diagonal cujas entradas da diagonal principal são os valores próprios associados respectivamente às colunas de S ter-se-á B = SΛS−1 = SΛST e portanto n QA (x) = x Bx = x SΛS x = (S x) Λ(S x) = y Λy = ∑ λi y2i , T T T T T T T i=1 onde y = ST x é o vector das coordenadas de x na nova base. I Se A for uma métrica diz-se que QA é definida positiva. I Pelos resultados anteriores também podemos diagonalizar uma tal forma quadrática usando eliminação de Gauss a fim de obter uma factorização A = U T DU. I Neste caso ter-se-á n QA (x) = x Ax = x U DUx = (Ux) D(Ux) = y Dy = ∑ pi y2i , T T T T T i=1 onde p1 , . . . , pn são os pivots e y = Ux é o vector das novas coordenadas de x. (A matriz de mudança de base da base canónica para a nova base é portanto U −1 .) I Também existem outros tipos de forma quadrática QA (semidefinida positiva, definida negativa, etc. — ver Definição 6.31 do livro) e maneiras de as reconhecer em termos dos valores próprios de A. Capı́tulo 35 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações U MA APLICAÇ ÃO : PESQUISA NA I NTERNET Há um algoritmo de pesquisa na Internet que se baseia em parte no cálculo de vectores próprios de uma matriz real simétrica. Este assunto está descrito em detalhe no artigo seguinte: http://www.cs.cornell.edu/home/kleinber/auth.pdf O autor deste artigo, Jon Kleinberg (http://www.cs.cornell.edu/home/kleinber/), recebeu em 2006 o Prémio Nevanlina (http://www.mathunion.org/General/Prizes/Nevanlinna/index.html) no Congresso Internacional de Matemática, em Madrid. Vamos de seguida descrever este algoritmo com algumas simplificações (para todos os detalhes consultem o artigo). PASSO 1: Digitar a frase a pesquisar, por exemplo “Bons carros usados a bom preço”. PASSO 2: Fazer uma primeira selecção de endereços de, digamos, 200 páginas segundo um critério razoável, por exemplo seleccionando páginas que contêm esta frase, ou que contêm muitas palavras desta frase. Obtém-se assim um conjunto R de endereços. PASSO 3: Para cada página P cujo endereço pertence a R acrescentar a R um subconjunto do conjunto de endereços de páginas que apontam para P ou que são apontadas por P. Obtém-se assim um conjunto S bastante grande. (Mas relativamente pequeno em comparação com o número de páginas da Internet!) Tipicamente este conjunto S contém (ao contrário de R) muitas das melhores páginas sobre o assunto que estamos a pesquisar. Problema: S é enorme e não está ordenado! PASSO 4: Ordenar S por ordem decrescente de interesse. I Seja n ∈ N o número de elementos de S e numerem-se de 1 a n as páginas cujos endereços estão guardados em S. I Para cada i ∈ {1, . . . , n} seja xi ∈ R+ um número que representa a autoridade da página i acerca do assunto da pesquisa: quanto maior o número, maior a autoridade. I As autoridades xi definem um vector x ∈ Rn . Como determiná-lo? I Quanto mais páginas apontarem para a página i maior, em princı́pio, deveria ser xi . I Contudo, uma página pode apontar para outra por razões que nada têm que ver com a pesquisa, pelo que é preciso determinar quais são as “boas páginas”, ou seja, as que apontam para i pelo motivo certo. I Vamos então ordenar também as páginas por ordem decrescente do seu interesse enquanto “distribuidoras” (“hubs”): para cada j ∈ {1, . . . , n} seja yj ∈ R+ um número que representa o valor da página j enquanto hub para o assunto da pesquisa: quanto maior o número, maior o valor. Os valores yj definem um vector y ∈ Rn . Como determiná-lo? A ideia chave: I I I I xi deve ser tanto maior quanto maior for a soma ∑j yj para as páginas j que apontam para i; yj deve ser tanto maior quanto maior for a soma ∑i xi para as páginas i apontadas por j. I Seja A ∈ Matn×n (R) a matriz definida por 1 se j aponta para i, aij = 0 se j não aponta para i. I A soma ∑j yj indicada acima é (Ay)i . A soma ∑i xi indicada acima é (AT x)j . I I Processo iterativo: I Começar com xi = yi = √1n para qualquer i. Os vectores x e y estão assim normalizados: n n 2 ||x|| = ∑ xi2 = ||y|| = ∑ y2j = 1 . 2 j=1 i=1 I I I Chamar aos vectores assim definidos x1 e y1 . Definir vectores x2 , x3 , . . . e y2 , y3 , . . . pela seguinte regra de recorrência: yk+1 = xk+1 = 1 Axk ||Axk || 1 AT yk . T ||A yk || Daqui resulta, para cada k ∈ N: xk+2 = 1 AT Axk . T ||Axk || ||A yk+1 || I Logo, para cada k ∈ N o vector x2k+1 é unitário e é um múltiplo de k AT A x1 . I AT A é diagonalizável porque é uma matriz Hermitiana. I AT A tem valores próprios não negativos, como se vê por um argumento semelhante ao que usámos para mostrar que as métricas têm valores próprios positivos: se λ for um valor próprio de AT A associado a um vector próprio u então temos, por um lado, T u A Au = A Au u = λ u · u T T T e, por outro, uT AT Au = (Au)T (Au) = (Au) · (Au) ≥ 0 , pelo que, sendo u 6= 0 (porque é um vector próprio), temos λ= I (Au) · (Au) ≥0. u·u Os valores próprios de (AT A)k são da forma λ k para cada valor próprio λ de AT A e os vectores próprios de (AT A)k associados a λ k são os vectores próprios u de AT A associados a λ : (AT A)k u = (AT A)k−1 AT Au = (AT A)k−1 λ u = ... = ... = ... = = = = λ (AT A)k−1 u λ 2 (AT A)k−2 u ... λ ku . (Formalmente, isto demonstra-se por indução matemática.) I Se λM for o maior dos valores próprios de AT A então para qualquer um dos outros valores próprios a razão λ k /λMk tende para zero quando k tende para infinito. I Seja Λ = S−1 (AT A)S a matriz diagonalizada com os valores próprios na diagonal principal, onde S é uma matriz diagonalizante. Então Λ2 = S−1 AT ASS−1 AT AS = S−1 (AT A)2 S e vemos que para cada k se terá k Λk = S−1 AT A S . I [Isto é outra forma de verificar que os vectores próprios de (AT A)k — que são as colunas de S — são os mesmos de AT A e que os valores próprios, que são as entradas da diagonal principal de Λk , são as potências λ k para cada valor próprio λ de AT A.] k 1 T Portanto a matriz λM A A converge, quando k → ∞, para a matriz que representa a projecção ortogonal sobre o espaço próprio EλM , pois a matriz λ1M Λ tem entradas da diagonal principal iguais a 1 nas colunas correspondentes aos vectores próprios associados a λM e valores menores do que 1 nas outras entradas: I 0 ··· 0 ... 1 ... k 0 1 λ0 k 0 0 ( λM ) ... Λ = 00 λM 0 0 ( λλM )k 0 .. . 1 ... .. . 000 ( λλM )k 0 ··· 0 ··· 0 ... 0 1 ... k→∞ 0 0 ... −→ 0 0 0 0 0 ... .. .. . . 0 ··· 1 0 I Desde que o vector inicial x1 não seja ortogonal a EλM , os vectores x2k+1 “convergem para EλM ” quando k → ∞. I CONCLUSÃO: O que verificamos é que serve para o efeito pretendido um qualquer vector próprio associado ao maior valor próprio λM . I Ficou demonstrada a existência de soluções para o problema de ordenar os resultados da pesquisa e que o problema pode resumir-se ao cálculo de valores próprios e vectores próprios da matriz AT A. I A forma de calcular os vectores próprios pode, mas não tem, de basear-se no algoritmo iterativo descrito acima. Capı́tulo 36 P ROGRAMA 1. Sistemas de equações lineares e matrizes 1.1 Sistemas 1.2 Matrizes 1.3 Determinantes 2. Espaços vectoriais (ou espaços lineares) 2.1 2.2 2.3 2.4 2.5 Espaços e subespaços Subespaços associados a matrizes Isomorfismos Independência linear, bases e dimensão Aplicações 3. Transformações lineares 3.1 3.2 3.3 3.4 Representação matricial Equações lineares Mudança de base Vectores e valores próprios 4. Espaços Euclidianos 4.1 4.2 4.3 4.4 Produtos internos e métricas Projecções e distâncias Transformações lineares entre espaços Euclidianos Aplicações A SPECTOS ALG ÉBRICOS B ÁSICOS DA MEC ÂNICA QU ÂNTICA I Os espaços de estados de sistemas fı́sicos são representados por espaços Euclidianos complexos especiais chamados espaços de Hilbert — os espaços Euclidianos de dimensão finita são espaços deste tipo. I Os estados são representados por vectores unitários. I As grandezas observáveis são representadas por transformações lineares Hermitianas. I Os valores que podemos fisicamente observar são os valores próprios. E XEMPLO : PART ÍCULAS DE SPIN 1/2 D EFINITION As matrizes de spin de Pauli são: 0 1 σx = 1 0 0 −i σy = i 0 1 0 σz = . 0 −1 E XEMPLO : PART ÍCULAS DE SPIN 1/2 As matrizes de Pauli são Hermitianas (e unitárias), com valores próprios 1 e −1. Os vectores z+ = (1, 0) e z− = (0, 1) são vectores próprios unitários de σz e representam os estados de spin positivo e spin negativo (na direcção do eixo zz), respectivamente. Os vectores x+ = √12 (1, 1) e x− = √12 (1, −1) são vectores próprios unitários de σx e representam os estados de spin positivo e spin negativo (na direcção do eixo xx), respectivamente. Os vectores y+ = √12 (1, i) e y− = √12 (1, −i) são vectores próprios unitários de σy e representam os estados de spin positivo e spin negativo (na direcção do eixo yy), respectivamente. A EXPERI ÊNCIA DE S TERN –G ERLACH Deflexão de agulhas magnéticas num campo magnético não uniforme. F IGURA : Exemplo de equipamento para a experiência de Stern–Gerlach (1922). As “agulhas magnéticas” são átomos de prata. A EXPERI ÊNCIA DE S TERN –G ERLACH F IGURA : Postal enviado por Gerlach a Bohr. No alvo da esquerda vemos o resultado de fazer a experiência sem campo magnético e no alvo da direita o resultado de fazer a experiência com o campo magnético não uniforme. A EXPERI ÊNCIA DE S TERN –G ERLACH F IGURA : Visão esquemática do equipamento de Stern–Gerlach. F IGURA : Equipamento de Stern–Gerlach, estilo “caixa preta”. Matematicamente, o estado das partı́culas que saem pela abertura de cima é z+ e o das que saem pela abertura de baixo é z− . A EXPERI ÊNCIA DE S TERN –G ERLACH F IGURA : Medições repetidas na direcção do eixo zz (sentido positivo). F IGURA : Medições repetidas na direcção do eixo zz (sentidos alternados). A EXPERI ÊNCIA DE S TERN –G ERLACH F IGURA : O “paradoxo” das medições em direcções sucessivamente diferentes (neste caso zz-yy-zz): as probabilidades de obter spin positivo ou spin negativo na medição C (ao longo do eixo zz) são ambas iguais a 1/2, embora após a medição A a probabilidade de obter spin positivo ao longo de zz fosse igual a 1. Matematicamente, após a medição B o estado da partı́cula é representado por y+ (por outras palavras, a partı́cula passou a ter spin positivo ao longo de yy), que é a combinação linear √12 z+ + √i2 z− , sendo as probabilidades referidas acima iguais aos quadrados dos módulos dos coeficientes desta combinação linear.