Álgebra Linear Leis de uma Álgebra: Uma lei interna T associa dois elementos x e y de um conjunto A à um terceiro elemento z A . Por exemplo: x y z onde a lei interna é a adição , ou x y z , onde a lei interna é a multiplicação . Na nossa notação se afirma que xT y z x y z ou xT y z x y z . A lei será associativa se: xT y T z xT yT z e será comutativa se xT y y T x . O elemento a A será REGULAR se xT a y T a x y e aT x aT y x y . O elemento e A será unitário sobre a lei T se xT e eT x x . O elemento x A possui elemento inverso x sobre a lei T se x A / xT x x T x e . Teorema: se uma lei T possui elemento unitário, é associativa e x A possui inversa, então a inversa é única e x é regular. Provar por absurdo: supor que x x inversos de x . Nesse caso: xT x e e xT x e além disso x T xT x x T e x . Agora, como T é associativo então x T xT x x T x T x eT x x o que implica que x x em contradição com x x . Logo a inversa é única. Falta a regularidade: Seja a xT y e b x T z . Queremos mostrar que se a b então y z . Aplicando a inversa de x de ambos os lados temos que x T xT y xT xT z e usando a associatividade xT x T y xT x T z logo eT y eT z e, finalmente y z C.Q.D. Álgebra com duas Leis. Vamos chamar a lei T de lei 1 e uma outra lei 2 de . A lei será distributiva frente à lei T se xT y z x z T y z ou z xT y z x T z y para x, y, z A . Exemplo: mostrar que a multiplicação é distributiva frente à adição mas o inverso não é verdade. x y z x z y z logo a mulitplicação é distributiva. Entretanto x y z x z y z . GRUPO. Um conjunto G é um grupo se uma lei interna T com as seguintes propriedades: 1. T é associativa 2. T admite elemento unitário e 3. x G admite inversa x G Se, além da propriedade associativa, T for comutativa, o grupo é chamado de Abeliano. CAMPOS. Seja G um grupo Abeliano de T com uma segunda lei associativa e distributiva frente à T . Seja e o elemento unitário de G e G* , onde G* é o conjunto de todos os elementos de G exceto e . Se é uma lei de grupo para G * então G é um campo. Exemplo: vamos considerar as leis e para o conjunto dos números reais. Primeira lei : x y z x y z associativa x y y x comutativa x e e x x então e 0 é o elemento unitário da adição. Inversa x x e e x é a inversa de x . Note que se o conjunto fosse o dos naturais não haveria inversa pois ele não inclui números negativos. Então G e G* x / x 0 . Agora vamos analisar o comportamento da multiplicação frente ao G * . x y z x y z associativa x y y x comutativa x y z x z y z distributiva frente à adição x e e x x então e 1 é o elemento unitário da multiplicação. Logo a inversa será dada por x x 1 , ou 1 seja, x . Note que sem a exclusão do zero teríamos problema com a inversa do elemento unitário da x 1 adição pois 0 . 0 Então é um CAMPO frente à adição e multiplicação. Note a necessidade de ampliar os conjuntos para a obtenção de grupos e campos. Partindo dos naturais e da operação foi necessário incluir os números negativos para a existência da inversa, chegando ao conjunto . Já para a operação multiplicação foi-se obrigado a inlcuir o conjunto dos racionais para admitir inversas 1 . Além disso, para admitir operações como x x y com x G e y G percebe-se a necessidade de x inclusão dos irracionais e dos imaginários, caso y 0 . x Matrizes Uma matriz é uma tabela com m linhas e n colunas em que cada elemento é identificado pelos índices da linha e da coluna. Assim o elemento aij é encontrado no cruzamento da linha i com a coluna j , ou seja, o primeiro índice se refere à linha e o segundo à coluna. coluna 1 2 3 n linha a13 a1n a2 n a3n amn 1 a11 a12 2 a21 a22 3 a31 a32 m am1 am 2 a23 a33 am3 Note que quando denotamos uma matriz Amn temos um bloco com n m números. Uma analogia é com um circuito integrado, composto de milhões de elementos individuais. Outra analogia seriam as rotinas dos softwares que podem ser utilizadas como blocos individuais. Se existe uma álgebra para lidar com os blocos sem muita necessidade de descer ao nível dos elementos individuais, isso representa uma enorme economia de esforço intelectual. Assim, se for possível simplificar todo um conjunto de operação com matrizes apenas no nível mais alto, mais abstrato, o trabalho se torna muito mais produtivo. Por isso a álgebra de matrizes é uma ferramenta matemática das mais poderosas. Exemplo: matriz Insumo-Produto. Para produzir ai1, ai 2 , , ain unidades dos insumos 1, 2, qi unidades do produto é necessário usar , n . Nesse exemplo podemos escrever a matriz na forma: Insumo I1 I2 I3 produto a13 a1n a2 n a3n amn produto1 a11 a12 produto2 a21 a22 produto3 a31 a32 produtom am1 am 2 i a23 a33 am 3 I n produto q1 q 2 q3 qm Vamos formalizar uma “ÁLGEBRA” de matrizes. Dimensão: uma matriz de dimensão m n [m por n] possui m linhas e n colunas. O elemento Aij está no encontro da iésima linha com a jésima coluna. Matriz NULA: Omn / Oij 0 i, j , ou seja, todos os elementos são nulos. Matriz COLUNA: Cm1 tem apenas uma coluna e m linhas Matriz LINHA: L1n tem apenas uma linha e n colunas. Matriz QUADRADA: se n m , A é uma matriz quadrada Função Delta de Kronecker: ij Amm de ordem m. 1 se i j 0 se i j Matrizes quadradas especiais: 1. DIAGONAL: Dij 0 se i j , já Dii pode tomar qualquer valor. Em termos da Delta de Kronecker pode ser escrita como: Dij di ij onde d i é o elemento da diagonal i . A ij garante que todos os elementos fora da diagonal serão nulos. n 2. IDENTIDADE: Matriz diagonal na qual Iij ij , onde n denota a ordem da matriz quadrada. Ou seja, é uma matriz com todos os elementos da diagonal iguais a UM e todos os elementos fora da diagonal iguais a ZERO. 3. Matriz TRIANGULAR SUPERIOR: ij 0 se i j , ou seja, todos os elementos abaixo da diagonal são NULOS. 4. Matriz TRIANGULAR INFERIOR: ij 0 se i j , ou seja, todos os elementos acima da diagonal são NULOS. 5. Matriz SIMÉTRICA: 6. Sij S ji Matriz ANTISIMÉTRICA: Aij A ji Note que matrizes representam um conjunto de números, logo é preciso definir as operações sobre esse conjunto. Operação IGUALDADE: A B se, e somente se, Aij Bij ij . Os da elementos Aii Aii diagonal 2 Aii 0 de Aii 0 . uma matriz antisimétrica Operação ADIÇÃO: essa operação sobre ser efetuada sobre matrizes de mesma dimensões, é definida como A B ij Aij Bij . são Amn nulos: e Bmn , e Operação SUBTRAÇÃO: é a inversa da ADIÇÃO. A B ij Aij Bij Propriedades da operação ADIÇÃO de matrizes: a. A B B A pois Aij Bij Bij Aij b. A B C A B C c. A O A , a matriz nula é o elemento unitário da operação adição de matrizes. pois Operação multiplicação por um escalar: multiplicados pelo escalar (número) ou seja é comutativa frente à adição. Aij Bij Cij Aij Bij Cij , ou seja, é distributiva. aAij aAij , ou seja, todos os elementos da matriz são a. Propriedades da operação multiplicação por escalar: 1. 2. 3. 4. k A B kA kB distributiva k1 k2 A k1 A k2 A 0A O é uma matriz nula k1 k2 A k1k2 A Operação TRANSPOSTA é denotada por A A , e é definida por Aij Aji . Ou seja, essa operação troca A B linhas por colunas. Gosto da notação A teria que usar parênteses na notação A , ou seja, A B . Além disso a aplicação da operação transposta porque podemos usá-la facilmente em equações como duas vezes pode ser escrita como A e na outra como A . Matriz simétrica tem a propriedade: que nesse caso a matriz S é obrigatoriamente quadrada. S S . Note Propriedades da operação Transposta: 1. 2. 3. Aij Aji Aij . A B A B , pois A B A B ji A ji B ji A B A B . ij ij ij ij A A , pois Aij A ji kA k A ij S ji Sij Se A é antisimétrica então A A , pois A A ji Aij ij 4. Se 5. logo S é simétrica então S S , pois S que BBS 6. é simétrica. B B B B B B B B , simétrica. BB A 7. é logo B B B B B B B B B B B B , antisimétrica. B B B B é antisimétrica. é logo 8. Toda matriz quadrada pode ser decomposta em uma matriz simétrica e uma antisimétrica. Prova: 1 1 1 1 1 1 1 1 M M M M M M M M M M M 2 2 2 2 2 2 2 2 1 1 M S A onde S M M e A M M 2 2 Prova: logo Operação MULTIPLICAÇÃO de matrizes: Motivação. Suponha uma matriz que fornece as quantidades de vitaminas A, B e C nos alimentos I e II, do tipo: vitamina A B C alimento I alimento II 4 3 0 5 0 1 Quanto existe de cada vitamina em um prato com 5 unidades do alimento I e 2 do alimento II? 5 4 3 0 2 5 4 2 5 5 3 2 0 5 0 2 1 30 15 2 . 5 0 1 Note que multiplicamos linha por coluna para obter a quantidade de cada uma das vitaminas em um prato combinando diferentes alimentos. Só podemos, então, multiplicar duas matrizes A e B se o número de colunas de A for igual ao número de linhas de B . A operação MULTIPLICAÇÃO entre uma matriz de ordem m n e outra de ordem n p é n definida por ( AB)ij Aik Bkj , resultando em uma matriz de ordem m p . Note que o índice repetido k 1 da primeira matriz é o segundo, da coluna, e da segunda é o primeiro, o da linha. A regra para saber a dimensão da matriz multiplicação é cancelar a dimensão repetida, ou seja: Amn Bn p Cm p , ou seja, o n repetido desapareceu. Propriedades da operação MULTIPLICAÇÃO de matrizes: a. Em geral operação AB BA , ou seja, a operação multiplicação não comuta. Existem que casos em que a AB está definida mas a operação BA não. Exemplo: Amn Bn p está definida pois o A é igual ao de linhas de B , mas a operação Bn p Amn não se p m . Para que as duas operações AB e BA sejam definidas é necessário que se A é m n então B é número n de colunas de n m. Mesmo nesse caso os produtos Amn Bnm Cmm e Bnm Amn Dnn , sequer possuem a mesma dimensão., logo não podem ser iguais. Se m n então as duas matrizes terão as mesmas dimensões, mas ainda assim os produtos AB e BA , genericamente, são diferentes. Podem ser iguais apenas em certas condições especiais. Note a diferença entre os dois produtos: AB ij Aik Bkj e BAij Akj Bik k k Propriedades da operação MULTIPLICAÇÃO. 1. Na álgebra de números reais sabemos que se ab 0 , então a 0 , ou b 0 . No entanto no produto de matrizes é possível que AB O e exemplo: 1 1 1 A 3 2 1 O 2 1 0 e 1 2 3 B 2 4 6 O 1 2 3 b 0 , ou ainda a 0 e A O e B O . Veja o então: 2 4 1 3 6 3 0 0 0 1 2 1 AB 3 4 1 6 8 2 9 12 3 0 0 0 . 2 2 4 4 6 6 0 0 0 2. Multiplicação pela matriz identidade: AI IA A , ou seja, a matriz identidade é o elemento unitário frente à operação multiplicação de matrizes. Prova: AI ij Aik I kj Aik kj Aij Aij , k k k k AI A . logo Por IAij Iik Akj ik Akj Aij Aij , logo IA A . 3. 4. A B C AB AC A B C AC BC é distributiva à esquerda. é distributiva à direita. Prova: A B C ij Aik B C kj Aik Bkj Ckj k k Aik Bkj Aik Ckj AB ij AC ij k k A B C ij A B ik Ckj Aik Bkj Ckj k k Aik Ckj Bik Ckj AC ij BC ij k k outro lado 5. A BC AB C , é associativa. A BC ij Aik BC kj Aik Bkl Clj k k l Aik Bkl Clj Aik Bkl Clj AB il Clj AB C ij k l l k l 6. 7. OA O e AO O AB B A , na transposta do produto é preciso comutar a multiplicação. Prova: 8. Se Q ik Akj B Aij AB AB A jk Bki B ji ij k k é uma matriz quadrada então QQ S é simétrica. Prova: QQ QQ , logo Q Q S é simétrica. QQ QQ QQ 9. A multiplicação de duas matrizes triangulares superiores é triangular superior. 10. A multiplicação de duas matrizes triangulares inferiores é triangular inferior. Matriz triangular superior é tal que ij T Já se ij i j T ij 0 se i j . Nesse caso, se i j j n j i j j então: n ik Tkj ik Tkj ik Tkj 0Tkj ik 0 k k 1 k j 1 k 1 k j 1 então: ik Tkj ik Tkj ik Tkj ik Tkj k k 1 k i 1 k i 1 j ik Tkj 0 k i 1 Logo trata-se de uma matriz triangular superior. Matriz triangular inferior é tal que T Já se ij i j i ij 0 se i j , nesse caso se i j n i então: n ik Tkj ik Tkj ik Tkj ik 0 0Tkj 0 k k 1 k i 1 k 1 k i 1 então logo T ij j i n i k 1 k j 1 k i 1 k j 1 ik Tkj ik Tkj ik Tkj ik Tkj ik Tkj 0 k Logo trata-se de uma matriz triangular inferior. VETORES. B1 B Vetores são matrizes linha ou coluna que denotamos por A A1 A2 An ou B 2 . Bn Produto escalar ou produto interno. Vamos multiplicar a matriz linha A A1 A2 An pela matriz B1 B coluna B 2 . O resultado AB A1 Bn B1 B An 2 Ai Bi se chama PRODUTO ESCALAR e é i Bn A2 denotado por A B . Note que se B A então A A A1 A2 2 A A A A12 A22 2 An2 e chamamos a norma de A An2 . A interpretação geométrica do produto escalar pode ser obtida, sem perda de generalidade, tomando o eixo x na direção de A e colocando o vetor B no plano ângulo com o eixo x. xy fazendo um Nesse caso podemos usar apenas duas dimensões e os vetores são dados por A A, 0 e B B cos , B sin . O produto escalar será A B AB cos . Dois vetores não nulos para os quais A B 0 são perpendiculares entre si. Note que cos 1 e 1. A B A A B B é um número que varia entre Desigualdade de Schwartz no produto escalar: A B A B 0 pois é o produto escalar de um vetor por ele mesmo. Mas A B A B A A 2 A B B B 0 . Aqui usamos as propriedades distibutiva A B C A B A C e comutativa A B B A do produto escalar. Mas a equação A A 2 A B B B 0 é uma parábola em do tipo a b c com o coeficiente a positivo, pois a A A 0 e a desigualdade a b c 0 só será válida se b 4ac 0 , ou sjea não 2 2 2 2 2 existem raízes reais. Nesse caso, 4 A B 1 A B A A B B 2 A B 1 A A B B 2 4 A A B B 0 que implica em e 1 . Se A é um vetor complexo então precisamos não apenas transpor o vetor coluna mas conjugá-lo para garantir A1 A um número real positivo após a operação. Chamamos de adjunto do vetor A 2 o vetor linha An A† A* A1* A2* An* , ou seja, é necessário transpor e conjugar. Agora sim, o produto A† A A1* A2* A1 A * 2 An Ai* Ai Ai i i An 2 será um número real positivo e pode ser usado na definição da norma, ou módulo, de um vetor complexo. Funções de Matrizes quadradas: A nossa álgebra de matrizes nos permiet apenas realizar as operações adição, multiplicação por um escalar e multiplicação de matrizes. A adição só pode ser realizada com matrizes de mesma dimensão e a multiplicação exige condições sobre as dimensão das duas matrizes. Se trabalharmos apenas com matrizes quadradas tanto as condições da adição quanto as da multiplicação serão automaticamente satisfeitas. Sabendo a operação multiplicação podemos definir a operação potenciação de matrizes: com matrizes quadradas. Faz sentido falar de uma função de matrizes? Por exemplo: An A A A , sem problemas exp( A) , ou cos A ? Sabemos calcular essas funções para um argumento real apenas. No entanto sabemos calcular a função f A An e isso é o suficiente para definirmos uma função de matrizes desde que essa função possa ser expandida em série de Taylor-McLaurin, ou seja, seja de classe C e com raio de convergência infinito. Dentre essas funções estão a n f 0 n f x x . n! n 0 exponencial, o seno, o coseno, etc. Assim, considere a série de Taylor da função Note que n f 0 n! são apenas escalares (números). Assim definimos a função de matrizes através da série: n f 0 n f A A n! n 0 Sabemos realizar essa operação? Sim, sabemos, pois sabemos calcular escalar n f 0 n! sabemos multiplicá-la por um , e sabemos somar as matrizes: 3 f 0 2 f 0 3 f A f 0 I f 0 A A A 2! 3! 1. Se An , n f 0 n A . n! D é uma matriz diagonal na forma: 1 0 0 2 D 0 0 Então f 1 0 f D 0 0 0 n 0 f 2 0 . f n 0 0 Para tanto basta notar 1n 0 Dn 0 que f n 0 1n n 0 n! n f 0 D n 0 n! n 0 0 f 1 0 f D 0 é usando D 0 f 2 0 indução com a ij k k Supomos verdadeiro para D n 1 ij n , isto é, que D n ij e que 0 D 3 ij portanto logo 0 0 n n 0 2n 0 mostramos que Dik Dkj2 i k2 ik kj i3 ij . k k n i ij e mostramos que é verdadeiro para Dik Dkjn i kn ik kj in 1 ij . k 2n 0 0 f n 0 n 2 0 n! n 0 n f 0 n 0 n n! n 0 1n 0 0 n 0 . Uma forma de mostrar que D f n 0 seguinte notação: Dij iij . Daí Dik Dkj i k ik kj i2 ij , 2 0 0 , n n 0 Assim está provado que k D n ij n 1 , ou seja inij é sempre verdadeiro. Matrizes Periódica, idempotente e nihilpotente. Uma matriz quadrada é a matriz A é PERIÓDICA com período p n 1 , n 2 , se An A , onde An A A A multiplicada por si própria n vezes. Uma matriz periódica com período 1, i.e., Uma matriz quadrada A2 A , é chamada IDEMPOTENTE. A é NIHILPOTENTE de índice p se p é o menor inteiro tal que A p O . A An p1 An , n 0 . a. Se A é periódica com período p b. Se A é idempotente então An A , n 1 . c. Se A é nihilpotente de índice p então A p n O , n 0 . então Determinantes: Determinantes são uma função que associa um número real à matrizes quadradas de números reais na forma det A : m m . A melhor forma de definir determinante é através dos tensores de Levi-Civita e por isso vamos começar com definições e estabelecer as propriedades desses tensores. Definições. 1 se x 0 se x 0 . A função sinal (sgn) é definida por sgn( x) 0 1 se x 0 n O produtório é representado por j 1 2 3 n j1 Propriedade da função sinal: sgn xy sgn x sgn y ou, generalizando, sgn xi sgn xi . i i A operação produtório entra e sai do argumento da função sinal. , n sgn k j , e (1 ) 1 1 j kn quando houver apenas uma variável. Como sgn z então só pode assumnir os valores 1, 0 e 1 . O Tensor de Levi-Civita é definido por: 1 , 2 , Esclarecendo a notação. Note que: ( k j ) n n1 n n2 1 j k n mantendo sempre n 1 n1 n2 n1 1 2 1 j k . Não podemos usar j k O número de termos no produtório porque ( k j ) é 1 j k n k j 0 e o produtório inteiro seria nulo. n n 1 . Para ver isso começamos de: 2 n 1 termos n n1 n n2 n 1 k n 1 j k n1 n2 n1 n3 n1 1 n 2 termos k 2 jk 2 1 1 termo k n jk Então devemos somar a PA n 1 S 1 2 n 1 n 1 1 n n 1 . 2 1. Já se existirem dois então 1, 2 sgn 2 1 . Por definição se houver apenas um Para 2 então n 3 temos que 1, 2 , 3 sgn 3 2 3 1 2 1 . n 4 temos: 1, 2 , 3 , 4 sgn 4 3 4 2 4 1 3 2 3 1 2 1 . Exemplos de cálculos de s : 4 1. 4,5,1,2 sgn 2 1 2 5 2 4 1 5 1 4 5 4 1 1 2. 2,3,1,2 sgn 2 1 2 3 2 2 1 3 1 2 3 2 0 0 3. 1,2,3,4 sgn 4 3 4 2 4 1 3 2 3 1 2 1 1 6 4. 4,3,2,1 sgn 1 2 1 31 4 2 3 2 4 3 4 1 1 3 5. 3,2,1 sgn 1 2 1 3 2 3 1 1 Para Note no caso 2 que se dois valores quaisquer são iguais o tensor se anula porque dois valores, o primeiro e o último, foram iguais (2). Inversões: existe uma inversão sempre que conjunto 1 , 2 , j k e j k . Cada inversão traz um sinal negativo. Se o 1 , 2 , , n com i j i j possui p inversões então p , n 1 . Logo será 1 se p for par e será 1 se p for ímpar. Foi a contando o número de inversões que calculamos 4,5,1,2 sgn 2 1 2 5 2 4 1 5 1 4 5 4 1 1 4 Tem 4 inversões. Não é necessário escrever todo o produtório para contar o número de inversões. Tome o exemplo da seqüência: 2 5 4 1 3 1 3 2 Tem um total de 1 3 2 6 inversões. As inversões do 2 foram o 1, o único número à direita menor do que 2,5,4,1,3 1 . 2. As inversões do 5 foram 4, 1 e 3, e do 4 foram 1 e 3. Com 6 inversões sabemos que 1762354 54 tem rapidamente. Por exemplo: 1762354 1 pois a seqüência inversões. Já 25314 1 pois a seqüência 25314 tem 1 3 1 5 Contando as inversões podemos calcular o 5 4 1 10 1 31 1 inversões. Arranjos de 1 , 2 , Percebemos então que 1 , 2 , , n : só não é nulo se todos os s forem diferentes. Escolhido um conjunto qualquer , n de s diferentes entre si de quantas formas podemos ordenar esse conjunto? Trata-se do problema de colocar n objetos distintos em n caixas em que a ordem dos objetos importa. Assim existem: n n 1 n 2 1 n n 1 n 2 1 n! 1 2 3 n formas de reordenar esse conjunto. Exemplos: 1. 2. n 2 1,2 e 2,1 2 formas , e 2! 2 . n 3 existem 3! 6 formas mostradas abaixo: Total 6 arranjos 1 2 3; 1 3 2 ; 2 1 3; 2 3 1; 3 1 2 ; 3 2 1 Propriedades do tensor de Levi-Civita: 1. 1 , 2 , i j 2. , n 0 se i j i j . Corolário: se 1 2 n , isto é, i j i j então 1 , 2 , , n 1 . k i k i 0 logo ik k i 0 e sgn ik k i 1 . 4. , n 0 então i j . 1, 2, ,n 1. 3. Se 1 , 2 , 1, 2 , 3 , , n 2 , 3 , , n Nesse caso 5. Se 1 2 n , isto é, i j i j que nesse caso todos os termos k i k i 0 n n 1 termos, então 1 , 2 , 2 6. , n 1 1 , 2 , 1 , 2 , , i , , j , , n 1 sgn k i k i 1 , e 2 . Note como existem . Basta notar . , n 1 , 2 , 2 n n1 1 p, 2 p, , n p 1 , 2 , , n . sgn k p j p sgn k j 7. então n n1 , j , , i , i j . Ou seja, a transposição de dois índices troca o sinal de . , n que . Aqui estamos supondo j basta analisar os termos contendo esses dois índices, pois todo restante não muda. No produtório vamos separar os termos de acordo com a ordem k j i , j l i , j i m e m i j . Os termos que contém apenas i e j são: Prova: como só vamos trocar i por k j k i j l l i k j i j l i j m i m j i j i m k j k i k i k j portanto trocar i por j nada muda nesse termo. Da mesma forma para o termo j m i m i m j m . Já no termo: j l l i 1 l j 1 i l 12 l j i l Agora O sinal foi trocado duas vezes. 2 n é obtido Portanto, trocar trocar i por j leva a i l l j j l l i . O único termo que sobrou foi j i 1 i j , mostrando que qualquer permuta nos índices troca o sinal de 8. Se . 1 1 2 vez. Corolário: Se então 1 2 n através de p transposições então n 1 1 2 n , pois cada transposição troca o sinal uma n é obtido através de p transposições de 1 2 n 1 2 1 2 p n 1 p . 9. Reordenamento k1 k2 i j i j 1 2 simultâneo: kn reordenamentos de k 1 1 10. 2p kn n k1 n 2 e logo não existem índices iguais, i.e. k2 é um reordenamento de 1 2 n 1 n 2 kn k1 k2 n n kn . n e k 1 k2 kn logo as permutações são idênticas em ambos os casos. p 2 p 1 1 1 a igualdade está provada. 1, 2 , 3 , , n 2 , 3 , , n 2,3, 1 2 é o mesmo reordenamento de Como n , p p k 1 1 k2 k2 n , kn 1 1 2 k2 1 k n 1 2 k1 1 2 1 2 é sempre verdade. Então: Para provar basta notar que Pois sejam onde 2 , 3 , , n é um reordenamento de ,n . Todos os termos com sgn i 1 1 1 e desaparecem do produtório. Para provar as propriedades do determinante vamos precisar ainda dos teoremas de preenchimento. Teoremas de preenchimento: 1. Sejam 1 i j i j 1 1 n 2 2 n , 2 n . todos os reordenamentos possíveis de é sempre verdade, e então k 1 k2 k1 kn kn k2 k2 k3 2 3 1 . 3 1 : Agora vamos reordenar n , 2 portanto um reordenamento fixo de varre todos os reordenamentos possíveis de Antes de demonstrar o teorema vamos exemplificá-lo com k1 2 1 1 n 3, 2 3 e 1 2 3 e escolher e ver o que obtemos com 1 1 1 2 3 2 3 3 2 3 2 2 3 1 3 2 3 1 1 3 1 2 1 2 2 3 1 3 1 2 1 1 2 2 3 3 3 2 3 1 2 1 2 3 1 obtivemos de volta os 6 arranjos apenas em uma ordem diferente. Ou seja 1 é tão bom quanto 1 2 3 para varrer todas as possibilidades de arranjos. Note que com 2 3 Para n 1 n 2 exaurir todas as possibilidades de reordenamento ele precisa de k elementos, diferentes entre si [os conjuntos]. Se k2 1 kn 1 diferentes, obrigatoriamente contém todos os possíveis reordenamentos de 1 2 k 1 n k2 corresponde um kn 1 reordenamento de é igual ao de 1 2 basta provar que não existem Suponha que os dois conjuntos k 1 k k 1 k2 1 1 kn kn 1 2 2 Para cada kn é um repetidos. n , diferentes entre si, levam a repetidos, i.e.: k k 2 i n o que significa que n n . j j j , fazendo j ki , e, portanto que em Logo contradição não com há n todos os reordenamentos a hipótese repetição e eles varrem todos os possíveis reordenamentos de 1 2 n . logo o número de conjuntos de n 1 2 2 n 1 2 n 1 2 2 2 2. Sejam ki ki , conjuntos kn kn k1 Mas isso implica que 1 1 1 k2 kn 2 n! n . Na realidade k1 k2 2 k2 1 k2 1 k2 1 contém n . Como o número de conjuntos são iguais entre si e igual a n ! então k Vamos provar por absurdo: dois conjuntos k n ! conjuntos de possíveis nos que conjuntos n . 2 de de 1 2 n e n um reordenamento fixo de 1 2 n , então o reordenamento , n n também varre todos os n tal que 1 1, 2 2 , reordenamentos possíveis de 1 2 n . Antes de demonstrar o teorema vamos aplicá-lo para entender a regra de associação entre os diversos índices. 2 3 3 1 2 e a regra para encontrar o é dada por 1 3, 2 1, 3 2 . Então se 1 2 3 2 1 3 , 1 3 porque 3 3 , 2 2 1 2 e 3 1 porque 2 1 . Trata-se, portanto, de encontrar a função inversa porque Vamos escolher 1 i i i 1 i . No exemplo dado, 1 3 , 2 1 e 3 2 , teremos: 1 Note que A 1 prova 2 1 1 2 3 2 3 3 3 2 3 1 2 1 2 1 2 3 1 3 1 2 2 com 2 2 Para n 3 1 é semelhante e basta provar n 1 2 que 3 1 obtivemos de volta os 6 1 é tão bom quanto 1 2 3 n 2 não há repetição, k 1 k2 n kn se logo arranjos apenas em uma ordem diferente. Ou seja para varrer todas as possibilidades de arranjos. exaurir todas as possibilidades de reordenamento ele precisa de corresponde um seja, então k 1 k2 kn 1 diferentes, obrigatoriamente contém todos os possíveis reordenamentos de 2 ou n . elementos, diferentes entre si [os conjuntos]. Se 1 2 3 1 1 3 2 1 1 2 3 2 3 2 3 varreu todas as possibilidades de reordenamento de 1 2 3 também. 1 2 n n 1 2 1 2 n i i e i i i i j j 1 3 2 3 3 2 1 1 k é igual ao de 1 1 2 k2 kn , n ! conjuntos de contém 2 n! conjuntos n . Para cada logo o número de conjuntos de n . Na realidade k1 k2 kn é um reordenamento de 1 2 basta provar que não existem n . Como o número de conjuntos são iguais entre si e igual a n ! então k k2 1 repetidos. kn Vamos provar por absurdo: Suponha que os dois conjuntos diferentes entre si, levam a dois conjuntos k 1 k2 kn k1 Mas isso implica que 1 1 k 1 2 2 ki ki k k2 i kn k2 kn n n . n 1 2 2 kn o que significa que n 1 2 n 1 2 k2 1 1 n , repetidos, i.e.: j j j , fazendo j ki , e, portanto que em contradição Logo não com há a hipótese repetição e eles varrem todos os possíveis reordenamentos de 1 nos de que conjuntos n . 2 DEFINIÇÃO DE DETERMINANTE: O determinante é uma função que associa um número à matrizes quadradas, ou seja, é uma função de matrizes, o domínio é o conjunto de matrizes quadradas, e o contradomínio são os reais, definida pela regra: n n det( A) 1 1 2 1 n 1 , 2 , , n A11 A22 n 1 An . n Também denotado por: det( A) 1 , 2 , , n 1 , 2 , , n A1 A2 1 2 An n Ou ainda na forma mais abreviada: det( A) A1 A2 1 2 An n com 1 , 2 , , n Note que a somatória é feita sobre o segundo índice dos elementos da matriz, que correspondem às colunas. Também se percebe que a propriedade (1) das s nos garante que podemos trabalhar apenas com reordenamentos de 1 2 n , evitando assim índices repetidos. Exemplos: encontrar a forma explícita dos determinantes de matrizes 11 , 1 1. det A11 1 A11 A11 . 1 1 2 2 e 3 3 . 2 2. 2 det A22 1, 2 A11 A22 1,2 A11 A22 2,1 A12 A21 , ou 1 1 2 1 seja, det A22 A11 A22 A12 A21 . Trata-se da famosa regra: 3 3. 3 3 det A33 1, 2 , 3 A11 A22 A33 1 1 2 1 3 1 det A33 1,2,3 A11 A22 A33 2,3,1 A12 A23 A31 3,1,2 A13 A21 A32 3,2,1 A13 A22 A31 1,3,2 A11 A23 A32 2,1,3 A12 A21 A33 Agora note que 1,2,3 2,3,1 3,1,2 1 e que 3,2,1 1,3,2 2,1,3 1 e mais ainda que varremos todos os reordenamentos possíveis [devem existir 2 começando com 1, dois começando com 2 e 2 começando com 3]. Trata-se também de outra regra famosa: O determinante de uma matriz 4 4 terá 4! 24 termos e o processo de cálculo vai se tornando tedioso. O EXCEL já tem uma função embutida que faz esse cálculo. Na mão o melhor é calcular usando a regra dos menores que provaremos adiante. Propriedades dos determinantes: 1. Onde det( A) 1 ,2 , 1 , 2 , , n , n 1 , 2 , é um reordenamento de inicial do determinante det( A) de 1 2 , n 1 , 2 , n . Prova: por definição temos que: 1 , 2 , , n 1 2 1 , 2 , , n A A 1 1 A 2 2 n n n . Note que a diferença com a definição , n A1 A2 1 2 An n foi o reordenamento det( A) 1 , 2 , , n 1, 2, , n 1 , 2 , , n A1 A2 1 Agora aplicamos dois reordenamentos iguais e simultâneos: 1, 2, , n 1 , 2 , 1 , 2 , An 2 n , n , n 1 , 2 , , n e usamos a propriedade (7): 1, 2, , n 1 , 2 , , n 1 , 2 , , n 1 , 2 , , n . Para completar, precisamos usar o teorema de preenchimento para garantir que os reordenamentos possíveis de 1 n 2 como faziam os s s varrerão todos o iniciais. Isso garante que a somatória incluirá todos os termos. det( A) 2. 1 , 2 , ,n 1 , 2 , , n 1 , 2 , , n A A 1 1 2 2 A n n . Note que agora a somatória é feita sobre o primeiro índice, ou seja, sobre as linhas. Prova: novamente começamos de: det( A) 1 , 2 , , n 1, 2, , n 1 , 2 , , n A1 A2 1 1 , 2 , O procedimento de reordenação agora será o seguinte – reordenar cada mesmo 1, 2, 2 An , n n até chegar a um 1 , 2 , , n fixo, o que requer que j . Se aplicamos o mesmo reordenamento para ,n obteremos 1 , 2 , , n , ou seja, se j virou j então j virou j . Como os j reordenamentos são, novamente, simultâneos, vale a propriedade (7) 1, 2, , n 1 , 2 , , n 1 , 2 , , n 1 , 2 , , n . A diferença agora é que os s estão fixos e os s variando nos reordenamentos de que essa variação preencherá todos os 3. ,n . O teorema 2 do preenchimento garante n ! reordenamentos. Assim a propriedade está provada. det A det A . det( A) 1, 2, 1 , 2 , ,n 1 , 2 , ,n 1 , 2 , 1 , 2 , , n 1 , 2 , , n 1 , 2 , , n A A 1 1 , n A A 1 1 2 2 2 2 A nn A n n det A Usando a propriedade (2). O determinante de uma matriz é igual ao da sua transposta. A 4. Se A multiplicando a iésima linha por é obtida de A transformação é dada por det A 1 2 Aij Aij então Ak ij Aij . Nesse caso e n A11 A2 2 1 2 n A11 A22 1 2 Aii Aii n A11 A22 det A det A . An n Ann Ann det A Aii det A n det A 4.a. det A 1 2 n A11 A22 A 5. Se é obtida de Nesse caso notamos que então det A det A . Aii Ann n det A A multiplicando a jésima coluna por então det A det A . A é obtida de A multiplicando a jésima linha por , e como det A det A 6. Trocar duas linhas, ou duas colunas, de uma matriz troca o sinal do determinante. Para mostra a troca det A det A . de colunas basta usar o fato de que D det( A) 1 , 2 , D 1 , 2 , , n Chamando D 1 , 2 , , n , i , 1 , 2 , , n , j , 1 , 2 , 1 , n 1 , 2 , 1 , 2 , 1 , 2 , , n A1 A2 , i , , j , , i , , j , , j , An 2 , i , , n A1 A2 1 , n A1 A2 1 n A j 2 2 , n A j Ai i An j n Ai j j Ai i An n j i e i j 1 , 2 , , n 1 , 2 , , i , , j , , n A1 A2 1 2 A j i An det A n 7. Se uma matriz tem uma linha (ou uma coluna) nula então det A 0 . Multiplica a linha por zero e usa propriedade (4). 8. Se dua linhas (ou colunas) de A são iguais então det A 0 . Se duas linhas i e j são iguais, trocá-las A A . Por outro lado, pela propriedade det A det A det A det A 2det A 0 det A 0 . não muda a matriz, i.e., (6) então 9. E duas linhas (ou duas colunas) de A são proporcionais então det A 0 . Nesse caso Aij kAij onde a matriz A possui duas linhas iguais, logo A1 e A2 10. Considere duas matrizes A11 A 21 A1 Ai1 An1 A1n A2 n Ain Ann A12 A22 A12 A22 Ai 2 An 2 A11 A 21 det A det Ai1 Ai1 An1 det A 1 , 2 , 1 , 2 , , n A1 A2 1 e An 2 1 Ai 2 A Ai i i 2 i que só diferem na A11 A12 A 21 A22 A1 Ai1 Ai2 An1 An 2 A1n A2 n det A det A Ain Ain Ann Ai 2 Ai2 , n A1 A2 det A k det A k 0 0 . i linha, A1n A2n , Ain Ann i.e., então . An n An 1 , 2 , n iésima , n A1 A2 1 2 Ai i An n det A1 det A2 A mesma propriedade vale para duas colunas. 11. Somar à uma linha um múltiplo de outra linha não altera o determinante. Basta usar as propriedades acima: det A det A1 det A2 mas A2 possui duas linhas proporcionais logo det A2 0 . O mesmo vale para colunas. 12. det AB det A det B . Seja C AB det C 1 , 2 , , n C1 C2 1 1 , 2 , A1 A2 1 2 então Cij Aik Bkj k 2 Cn n , n A1 B A2 B 1 1 1 2 2 2 1 2 An 1 , 2 , , n B B n e nnn 1 1 2 2 Ann Bnn n n B n n Agora 2 1 , 2 , , n 1 , 2 , , n 1 , 2 , , n 1 desde que 1 ,2 , 1, 2, ,n . Logo podemos incluí-lo na somatória acima obtendo: det C 1 , 2 , , n A1 A2 An , n seja um reordenamento de 1 1 , 2 , , n 1 , 2 , 1 , 2 , , n A1 A2 13. , n B B 1 1 2 B 2 2 n n An det B det A det B n det AB det BA det AB det BA det AB det BA det A det B det M det M 14. Se a matriz Se 1 n 2 A e pois det MN det M det N . n é diagonal então det( A) Aii A11 A22 i 1 Ann . A é diagonal então Aij Ai ij . Nesse caso o determinante é dado por: det( A) 1 , 2 , , n 1 , 2 , , n A11 A22 1 2 Ann n Mas os deltas de Kronecker dentro da somatória garantem que que apenas os termos com 1 1, 2 2, , n n sobrevivem, logo a somatória será det( A) A1A2 An , ou seja, a multiplicação dos elementos da diagonal. 15. Se a matriz A n é triangular superior, ou inferior, então det( A) Aii A11 A22 i 1 Ann . Trata-se de uma propriedade intuitiva porque exceto pela diagonal todos os outros termos serão multiplicados por algum elemento nulo do triângulo inferior. Basta mostrar para a triangular superior, pois a inferior sai com det A det A . Se A é matriz trinagular superiro então Aij 0 se i j , o que impõe restrições nos s . det( A) 1 , 2 , , n A1 A2 An 1 , 2 , , n Note que para 1 2 n A11 0 0 1 2 1 1 . Se 1 1 então i 1 i 1 . O próximo termo é o 2 , que pela propriedade da matriz deve ser menor do que 3, mas acima de 1, logo 2 2 . Continuando o argumento percebemos que a única solução não nula é para 1 1, 2 2, , n n e det( A) A11 A22 Ann . Essa propriedade (15) é a base do método numérico de triangularização da matriz, usando o fato de que operações elementares não alteram o determinante, mais eficiente para cálculo de determinantes. Definição do COFATOR. Vamos obter a matriz ij à partir da matriz Ann extraindo a iésima linha e a jésima coluna. A matriz cofator i j ij de A é definida como: cof Aij 1 1 0 2 Exemplo, seja A 3 1 1 . 2 1 2 1 1 11 det 11 1 cofA11 1 1 2 3 12 2 3 13 2 . det ij 1 det 12 4 cofA12 4 2 1 det 13 1 cofA13 1 1 0 2 21 det 21 2 cofA21 2 1 2 1 2 22 det 22 2 cofA22 2 2 2 1 0 23 det 23 1 cofA23 1 2 1 0 2 31 det 31 2 cofA31 2 1 1 1 2 32 det 32 5 cofA32 5 3 1 1 0 33 det 33 1 cofA33 1 3 1 1 4 1 cof A 2 2 1 2 5 1 Propriedades do cofator: 1. 1 A det A det 21 An1 0 A2 n A22 A23 A A22 A2 n A33 A3n 32 , ou seja, det 11 det An 2 Ann Ann An 2 An3 iniciamos com uma matriz n n e caímos em uma matriz n 1 n 1 . Note que os elementos da primeira linha podem ser escritos como A1 1 , anulando todos os elementos com 1 1. 1 1 0 det( A) Expansão nos cofatores: 2 , 2 , 1 , 2 , , n 1 , 2 , 1, 2 , 2 , , n 1 , n 1 , n 1 A2 1 , n A2 , n A2 2 2 2 An An n An det 11 n n A11 A 21 det Ai1 An1 A11 A 21 det 0 An1 A11 A 21 det Ai1 An1 Ai 2 An 2 A12 A22 0 An 2 A12 A22 Ai 2 An 2 A11 A 21 Ain det 0 An1 Portanto A1n A11 A A2 n 21 det Ain Ai1 Ann An1 A1n A2 n Ain Ann A12 A22 A12 A22 0 An 2 A1n A11 A A2 n 21 Ai1 det Ain 1 Ann An1 A1n A2 n 1 Ann det A Aik Dik k com A1n A11 A A2 n 21 det 0 0 Ann An1 A12 A22 0 An 2 A12 A22 0 An 2 A11 A 21 Dik det 0 An1 A1n A11 A A2 n 21 Ai 2 det 0 0 Ann An1 A12 A22 A1k A2 k 0 1 An 2 Ank A1n A2 n 0 Ann A12 A22 Ai 2 An 2 A12 A22 1 An 2 A1n A2n 0 Ann A1n A2 n , com a 0 Ann linha i substituida pro zeros exceto na coluna k em que é substituída por 1. Agora vamos trocando as linhas até levar a linha i para a primeira linha na ordem. Não podemos simplesmente trocar a linha i pela linha 1 porque isso desordena o resto da matriz. Vamos fazer o seguinte: primeiro trocamos a linha i com a linha i 1, depois com a linha i 2 e assim sucessivamente até chegar a primeira linha. Nesse processo trocamos de linhas i 1 vezes, portanto: A11 A 21 det 0 An1 A12 A22 A1k A2 k 0 1 An 2 Ank A1n 0 A A2 n 11 A21 i 1 1 det 0 Ann An1 Agora vamos trocando as colunas da mesma forma até levar a coluna A11 A 21 det 0 An1 A12 A22 A1k A2 k 0 1 An 2 Ank 0 A12 A22 1 A1k A2 k An 2 Ank k 0 A1n A2 n Ann para a primeira coluna, então: A1n 1 A A2 n 1k A2 k i 1 k 1 1 1 det 0 Ann Ank 0 A11 A21 An1 0 A12 A22 An 2 0 A1n A2 n Ann Ou seja 1 A 1k A ik Dik 1 det 2 k Ank 0 A11 A21 An1 An 2 Pois extraimos a linha i e a coluna Então, acabamos de provar que 0 A1n A2 n cof A ik Ann 0 A12 A22 k. det A Aik cof Aik Akj cof Akj k k Nesse caso temos dois métodos de decomposição no cofatores para calcular um determinante – escolhe uma linha e usa a primeira somatória, ou escolhe uma coluna e usa a segunda. A idéia é procurar linhas ou colunas com muitos zeros para facilitar os cálculos. Para fazer determinantes 4 4 ou 5 5 na mão, dependendo da quantidade de zeros na matriz, esse método pode ser até rápido. Se precisar de uma resposta analítica em lugar de numérica também deve-se usar esse método. Para calcular valores numéricos de qualquer determinante não é o mais adequado. Entretanto, o método é valioso demais para provar o teorema a seguir: Teoremas: Aik cof A jk ij det A ou Akj cof Aki ij det A k k Prova: vamos criar uma matriz A A trocando a linha j pela i , i.e., Apq se p j Apq Aiq se p j à partir da ficamos com i j det A Ajk cof A jk Aik cof A jk 0 i j Note que se k duas linhas iguais. Agora por conta das duas linhas iguais. Se k j para a expansão dos cofatores então cof A cof A . Se, por outro lado, i j , a troca não muda nada e Aik cof A det A . Nesse caso podemos então escrever que ik escolhemos a linha k Aik cof A jk Akj cof Aki ij det A k Note agora que k Aik cof A jk Aik cof Akj Aik Akj† k k onde matriz adjunta de A , dada por k Akj† cof A kj , é a transposta da matriz cofator. Note o que temos aqui: AA† det A I ou 1 A A† I det A A† A det A I ou 1 † A det A A I Por outro lado também vale: Logo acabamos de encontrar a matriz inversa de A ( AA1 A1 A I ): A1 transposta do cofator dividida pelo determinante de det A 0 . A. Note que essa fórmula só pode ser utilizada se Assim podemos encontrar facilmente a matriz inversa de uma matriz A A 11 A21 A12 A22 cof A A22 A12 1 A† . A inversa é a det A 2 2 não singular: A21 A22 A12 † A A11 A21 A11 Ou seja, para obter a matriz adjunta simplesmente trocamos os dois elementos da diagonal e os sinais dos dois elementos fora da diagonal. A matriz inversa é dada por: A22 A12 A A11 21 1 A ( A11A22 A12 A21 ) Formalização de Matriz Inversa 1. Definição de matrizes SINGULAR e NÃO-SINGULAR. A matriz A é SINGULAR se SINGULAR se det( A) 0 , e é NÃO det( A) 0 . 1.1. Divisores da matriz NULA: Se AB O então A O ou B O ou A e B , as duas, são matrizes singulares. Claro que se A O ou B O então AB O . Mas estamos interssados no caso em que A O , B O mas AB O . Aplicando o determinante temos que det AB det A det B 0 . det A 0 ou det B 0 seria suficiente, mas essa caso é mais forte, os dois devem ser nulos. Suponha que det A 0 e det B 0 1 1 . Mas se det A 0 então A admite inversa, portanto A AB A O B O em contradição com B O . Pareceria então que exigir que 2. Definição de matriz inversa. Se existir uma matriz 1 X AX I e que XA I tal que matriz inversa de A , denotada por X A . 2.1. Se a inversa existe ela é única. Supor que existem duas diferentes, ou seja, X XI X AY XAY IY Y inversa, se existir, é única. 2.2. Se admite A AA1 I det AA1 e A1 A então éa Y X / AY I . Mas em contradição com X X Y . Logo não singular. det A 0 logo a e 1 . det A A é não singular então A admite inversa. Nesse caso 1 A† det A existe 1 A† . det A Então podemos afirmar 2.4. Se X Y é A det I 1 det A det A1 1, inversa det A1 0 . Mais ainda det A1 2.3. Vale também o converso, se ou seja então é A é não singular. A admite inversa singular, A não admite inversa, 0 det A1 1 0 1 gera uma contradição. pois det A det A1 1 logo A é a inversa de A1 . Pois AA1 I e A1 A I . 2.6. Se A é não singular, A também é não singular, pois det A det A 0 . 1 1 1 2.7. Se A e B são não singulares então AB é não singular, admite inversa e AB B A é a inversa de AB . B1 A1 AB B1 A1 A B B1IB B1B I 2.5. A é não singular então A A1 . 1 2.8. Se Partindo de AA1 I e aplicando a transposta AA1 I I A1 A I logo A1 A 1 . OPERAÇÕES ELEMENTARES: São três as operações elementares sobre matrizes quadradas. 1. Multiplicar uma linha, ou uma coluna, por um escalar 0 . O determinante é multiplicado por . 2. Permutar duas linhas, ou duas colunas. O determinante é multiplicado por 1. 3. Adicionar à uma linha, ou uma coluna, um múltiplo de outra linha, ou coluna. Nesse caso o determinante é preservado. A , ou seja ˆ . Para diferenciar operações nas linhas das colunas vamos chamar o operador nas linhas de Oˆ e o A OA L ˆ . operador nas colunas de O Vamos denotar um operador por Ô que aplicado em uma matriz A a modifica para a matriz C Teorema: O operador portanto Oˆ L . só atua nas linhas, ou seja, apenas no primeiro índice do produto AB ij Aik Bkj , k que significa Oˆ L AB Oˆ L A B . Já o operador Oˆ Oˆ B . Oˆ L AB ij Oˆ L Aik Bkj k no índice Oˆ L AB Oˆ L A B e OˆC AB A OˆC B j e OˆC AB ij Aik k C só atua C kj Matrizes elementares. Uma matriz elementar é obtida aplicando operadores linha e/ou coluna sobre a matriz identidade. Denotamos essas matrizes por E e EL ou EC se a operação for apenas sobre linhas ou colunas. 0 1 0 Exemplo: A matriz troca as linhas 1 e 2. Veja E1 1 0 0 0 0 1 0 1 0 A11 A12 A13 A21 A22 A23 0 0 E1 A 1 0 0 A21 A22 A23 A11 A12 A13 . A matriz E2 0 1 0 0 0 1 A 0 0 1 31 A32 A33 A31 A32 A33 1 0 multiplica a linha 1 por . A matriz E3 0 1 0 soma à linha 1, linha 2. Note: 0 0 1 1 0 A11 E3 A 0 1 0 A21 0 0 1 A 31 Já a matriz 1 E4 0 A12 A22 A32 0 0 1 0 0 1 A13 A11 A21 A23 A21 A33 A31 soma á coluna 1, A12 A22 A22 A32 A13 A23 A23 A33 coluna 2, ou seja, opera nas colunas, em lugar das linhas. Teorema. 1. det E 0 , pois selecionamos as operações elementares com essa propriedade. Note que det I 1 e que det E k 0 para a operação multiplicar uma linha por uma constante não nula, det E 1 para a operação trocar duas linhas e det E 1 para a operação adicionar á uma linha um múltiplo de outra linha. 2. Realizar uma operação sobre as linhas é equivalente à pré-multiplicar a matriz pela matriz elementar da operação desejada. Já realizar a operação sobre colunas é equivalente a pós-multiplicar pela matriz elementar. A IA OL IA OL I A EL A por outro lado A AI 3. OC AI A OL I AEC Como o determinante das matrizes elementares não é nulo elas admitem inversa. A inversa de E também é uma matriz elementar. Se ˆ E OI I Oˆ 1E IE 1 Oˆ 1EE 1 E 1 Oˆ 1I , obtida pela operação elementar reversa aplicada na matriz identidade. Matrizes equivalentes A B ou seja E 1 também é Definição: A elementares. B , A é equivalente à B , se B pode ser obtido de A através de uma cadeia de operações Teoremas: 1. 2. 3. A A , pois A IA e I é uma matriz elementar. 1 E21E11 A . Se A B então B A , pois se A E1E2 En B B En 1 E21E11C Se A B e B C então A C . Note que A E1E2 En B e B Em A E1E2 En Em1 logo E21E11C . 4. Todas as matrizes quadrada não singulares podem ser expressas como um produto de matrizes elementares. A é não singular então A admite inversa. Isso significa que um conjunto de operações elementares leva A até I , ou seja, E1E2 En A I , logo A En1 E21E11I En1 E21E11 . Isso também Se significa que A1 E1E2 En . Método para achar matriz inversa através de operações elementares. Coloque as duas matrizes, A e I lado a lado. Agora, usando operações elementares de linhas vá transformando A na matriz identidade. Toda operação realizada sobre A também deve ser realizada sobre I . Quando A se tornar a identidade a identidade se tornou A1 . 2 A 4 5 3 5 2 3 2 1 1 . A 10 12 4 2 2 1 Exemplo 1: achar inversa de 3 . 5 Usando a matriz adjunta sabemos Agora vamos usar apenas as operações elementares. Colocar as duas lado à lado: 1 3 1 0 linha 2 2 3 1 0 2 1 3 1 2 0 4 2 2 2 3 4 5 0 1 linha 1 0 1 2 1 2 4 5 0 1 3 3 1 0 5 1 0 5 2 2 2 2 0 1 2 1 1 0 1 2 1 Então A 1 2 3 4 5 1 5 2 2 3 2. 1 que Exemplo 2: achar inversa de 2 4 5 A 1 3 2 . Faremos mais de uma operação elementar por vez. 2 2 3 5 1 0 0 2 4 5 1 0 0 2 1 2 2 2 1 3 2 0 1 0 linha1 1 3 2 0 1 0 2 2 3 0 0 1 2 3 1 0 0 1 1 linha1 2 2 1 2 5 1 0 7 3 1 0 0 2 0 2 2 2 2 2 linha 2 0 1 1 1 1 0 0 1 1 1 1 0 2 2 2 2 2 0 1 1 1 linha 2 3 1 0 1 1 1 3 0 0 2 2 2 2 7 1 0 7 3 2 5 2 0 7 linha3 6 6 6 2 2 2 1 0 0 4 0 1 1 1 1 0 1 linha3 0 1 0 1 1 2 2 2 6 6 6 0 0 0 0 1 4 1 2 2 1 4 2 3 3 3 6 6 6 Ou seja 2 4 5 A1 1 3 2 2 2 3 1 5 2 7 1 1 4 1 . 6 4 4 2 Matrizes na forma escada reduzida por linha: Uma matriz na forma escada reduzida obedece aos seguintes critérios: 1. O primeiro elemento não nulo de uma linha é 1. 2. Se Aij é o primeiro elemento não nulo da linha elementos da coluna i então Aij 0 j i , ou seja, todos os j , exceto Aij , são nulos. 3. Todas as linhas nulas estão abaixo das linhas não nulas. 4. Se as linhas 1, 2, , p são não nulas e ki é o primeiro elemento não nulo da linha k1 k2 Teorema: Toda matriz kp . Amn pode ser colocada na forma escada através de operações elementares. i então A demonstração do teorema é a descrição do procedimento para atingir o objetivo – colocar a matriz na forma escada reduzida por linhas. O procedimento é o seguinte: 1. Suponha que já se colocou as i 1 linhas com primeiro elemento não nulo iguais à 1 e todo o resto da coluna desse elemento nula. Tome agora a linha i : 2. Se ela é nula nada precisa ser feito. 3. Se o primeiro elemento não nulo é o Aij divida a linha por Aij . Assim tornamos o primeiro elemento não nulo igual a 1. Falta anular todos os elementos da coluna 4. Some todos os elementos da linha todos os elementos da linha j k i exceto o com a linha i j. multiplicada por Akj . Assim anulamos Aij 1. 5. Repita o procedimento para as próximas linhas. Note que os zeros abaixo e acima do elemento igual a 1 não desfazem os 1 e zeros já obtidos. 6. Permute as linhas até colocar a matriz na forma escada. 0 2 1 4 Exemplo: colocar a matriz M 3 0 5 2 na forma escada reduzida por linhas. 0 0 0 3 0 1 1 1 2 0 2 1 4 2 1 5 3 0 5 2 3 1 0 3 0 0 0 3 0 0 0 1 3 1 0 5 0 1 1 2 2 linha3 0 0 2 3 trocar linha1 2 2 linha3 1 0 5 1 0 com linha 2 0 1 0 3 3 3 2 0 0 0 1 0 0 0 1 1 Unicidade da forma escada reduzida por linhas. Qualquer operação elementar de linhas em uma matriz na forma escada reduzida por linhas ou a tira da condição de escada ou nada modifica, deixando a matriz invariante. 1. Multiplicar uma linha por 1 . Se a linha for nula nada muda. Se a linha não for nula contém o primeiro elemento não nulo igual a 1, que se torna igual a após a operação e a matriz não está mais na forma escada. 2. Trocar duas linhas não nula altera a ordem escada k1 k2 kp . 3. Somar duas linhas não nulas colocaria 1 onde deveria ser zero Aesc Besc . Matematicamente podemos provar a unicidade da Aesc . Nesse caso então Aesc E1E2 En A e forma usual, supondo que existe Aesc o que implica que Aesc Aesc . E1E2 Em A , logo Aesc A e Aesc Aesc A então Aesc Aesc Isso significa que se Aesc Besc então Cuidado para manter apenas operações de linhas, porque operações elementares de colunas podem gerar duas matrizes escadas. Exemplo: 1 0 0 5 1 0 5 0 3 3 0 1 0 1 0 1 1 0 2 2 0 0 1 0 0 0 0 1 Nesse caso trocamos as colunas 3 e 4 e as duas matrizes, embora diferentes, estão na forma escada. POSTO e NULIDADE de uma Matriz: ao terminar de colocar a matriz na forma escada reduzida por linhas o número r de linhas não nulas será o posto [rank em inglês] da matriz M. Ou seja, posto de número de linhas não nulas de Aesc A . A nulidade de Amn é A , p A , é o N A n p , o número de colunas subtraído do posto. Note que no caso de um sistema de equações lineares o número de colunas é igual ao número de incógnitas. Antes de utilizar o conceito poderoso de posto de uma matriz na resolução de sistema de equações lineares vamos estabelecer alguns teoremas. Teoremas do posto de uma matriz Amn . p A 0 então A O . Claro, pois todas as linhas são nulas. p A m . Trivial pois Aesc também é m n e o número de linhas não nulas não pode ser maior 1. Se 2. do que o número de linhas. 3. p A n . Aqui complica um pouco por estamos usando colunas em lugar de linhas. Isso implica que N A n p 0 . Na forma escada k1 k2 k p onde p posto = número de linhas não nulas. Por outro lado ki é a coluna do iésimo elemento diferente de zero da linha i . Logo ki n e k p n . As condições da forma escada requerem que k1 1 , k2 k1 2 e, continuando, k p p . Então concluímos que p k p n , ou seja, p n . Definição equivalente de Posto. Posto de uma matriz A é o máximo p para o qual uma sub-matriz quadrada de A na forma Ak k é não singular, ou seja, tem determinante não nulo. Fica claro a equivalência com a definição anterior para matrizes na forma escada. As operações elementares jamais anulam o determinante de uma matriz não singular, portanto podemos permutar as colunas da matriz na forma escada para colocar os 1´s em colunas adjacentes crescentes. Todas as linhas após p serão nulas, então o máximo determinante não nulo tem dimensão p p. Qualquer sub-matriz Al l terá linhas nulas com determinantes nulos. Procurar sub-matriz não singular pode ser feito diretamente na matriz A sem necessidade de reduzi-la à forma escada. O fato de que det E 0 sempre garante que as operações elementares sobre A jamais anularão qualquer determinante que já não fosse nulo. A vantagem dessa definição é que facilita a demonstração de teoremas. Do ponto de vista de operacionalidade pode ser muito fácil descobrir a sub-matriz não singular mas fica complicado operacionalizar o procedimento de sair procurando uma a uma as submatrizes. Melhor começar pelas matrizes de dimensão mais alta possível. Exemplos: 0 2 1 4 Achar p A onde A34 3 0 5 2 . Como A34 o posto será no máximo 3. Fica fácil de ver que a 0 0 0 3 0 2 1 4 sub-matriz 3 0 5 2 marcada é triangular superior com determinante diferente de zero, logo 0 0 0 3 p A 3 . 1 0 0 0 2 0 3 0 0 1 2 0 Achar p A onde A45 . Como a última linha é nula sabemos que o posto será no 0 0 0 1 0 0 0 0 1 2 0 3 0 1 0 0 0 0 1 2 0 máximo 3. Esolhendo a sub-matriz 0 1 0 obtemos uma sub-matriz 0 0 0 0 1 0 0 1 0 0 0 0 0 identidade com determinante não nulo, logo p A 3 . Teoremas. Com essa definição fica fácil mostrar que: 1. 2. 0 p Amn min m, n min m, n . pois uma sub-matriz quadrada só pode ser, no máximo, de ordem p A p A . Sabemos que det A det A . Portanto se extraímos uma sub-matriz Ap p de A com determinante não nulo também podemos extrair a Ap p 4. linhas quanto nas colunas, não alteram o posto de uma matriz. 5. 6. A. Se A tiver uma linha A terá uma correspondente coluna nula. Se A é sub-matriz de A então p A p A . p EA p AE p A , pois det EA det E det A . Operações elementares, tanto nas nula a 3. da matriz p A p A , constante. p AB min p A , p B . Se Ae B são conformes para multiplicação então Amn e Bnk e o produto A que as operações elementares de linha só se aplicam à matriz elementares podemos levar a matriz p AB p A . Por do produto. Através de operações A para a forma escada com m p A m p A também terá, pelo menos, outro Amn Bnk Cmk . Note linhas nulas. O produto então linhas nulas. sobre colunas só se aplica à matriz lado B . Isso implica que p AB p AB p B A p B p B , p AB min p A , p B . então 7. O posto de uma matriz não muda se ele é pré/pós-multiplicada por uma matriz quadrada não singular. Pré-multiplicação: Cmn X mm Amn . Como X p XA p A , é não singular então pela teorema 6. Por outro lado p XA p A p XA e p A m , logo p A p X 1 XA p XA , com a única solução possível o mesmo para a pós-multiplicação p X m p AX p A . que nos leva a p XA p A . Basta transpor para concluir Dois sistemas de equações lineares são equivalentes se eles possuem as mesmas soluções e as mesmas nulidades, ou variáveis livres. 8. p AA p A . Note que AA é uma matriz simétrica quadrada. Considere o sistema Amn X n1 0m1 X1n Anm Amn X n1 011 0 . Isso e pode o sistema ser Anm Amn X n1 0n1 . re-escrito como Nesse caso AX AX 0 . Mas v1 v vm e AX AX v12 v22 vm2 0 só será AX 2 e AX v1 v2 vm verdadeiro se vi 0 i . Logo AX 0 é a única solução para AAX 0 , ou seja, AAX 0 e AX 0 são equivalentes. Igualando as nulidades n p A n p AA concluímos que p AA p A . Sistema de Equações Lineares: 1. Uma equação linear nas incógnitas x1, x2 , , xn é escrito como: a1x1 a2 x2 b 0 a equação é chamada de equação linear HOMOGÊNEA. an xn b . Se 2. Um sistema de a11x1 a12 x2 m equações lineares nas incógnitas x1, x2 , , xn é escrito como: a1n xn b1 a11 a12 a a21x1 a22 x2 a2 n xn b2 a22 21 ou, na forma matricial: am1x1 am 2 x2 amn xn bm am1 am 2 Se b1 b2 a1n x1 b1 a2 n x2 b2 amn xn bm b1 0 b 0 bm 0 , ou seja, b 0 , ou ainda 2 , o sistema é chamado de HOMOGÊNEO. bm 0 3. Equações redundantes. Suponha as seguintes equações: 1. x y 5 2. 2 x y 3 . A terceira equação foi 3. 3x 2 y 8 obtida simplesmente somando as duas primeiras. Não contém qualquer informação extra. É uma equação redundante. Correta, mas desnecessária. 4. Solução. Qualquer conjunto 1,2 , ,n que satisfaça a todas equações do sistema é uma solução. Em termos das soluções os sistemas são classificados em CONSISTENTES ou INCONSISTENTES. Os sistemas inconsistentes não admitem qualquer solução, ou seja, o conjunto solução é vazio. Os sistemas consistentes admitem pelo menos uma solução. Exemplo: 1. x1 x2 1 2. x1 x2 0 nos leva a 1 0 , uma inconsistência. Não existe solução para esse sistema. O sistemas consistentes podem ter uma única solução ou infinitas soluções. Por exemplo, a equação dois do sistema um implica que x1 equação x1 x2 1 2 e o conjunto 1. x1 x2 1 implica que 2. x1 x2 0 1,2 1 2 , 1 2 x2 x1 que substituída na equação é a única solução do sistema. Por outro lado a 1 admite infinitas soluções. Escolhe um valor qualquer para x1 SOLUÇÃO TRIVIAL: um sistema homogêneo Um sistema homogêneo do tipo: e x2 1 x1 . a11x1 a12 x2 a1n xn 0 a21x1 a22 x2 a2n xn 0 am1x1 am 2 x2 Admite pelo menos uma solução, a solução trivial amn xn 0 0,0, ,0 . Todo sistema homogêneo é consistente. No sistema: a11x1 a12 x2 a1n xn b1 a21x1 a22 x2 a2 n xn b2 am1x1 am 2 x2 a11 a12 a a22 21 Chamamos Amn am1 am 2 x1 x incógnitas e xn1 2 xn a11 a12 a a22 Ab 21 m n 1 am1 am 2 Ax b . a1n a2 n de matriz dos coeficientes do sistema. Já x é o vetor das amn b1 b bm1 2 . Chamamos de matriz ampliada a matriz: bm a1n b1 a2 n b2 . O sistema pode então ser escrito na forma matricial como: amn bm Se o sistema for consistente então particular do sistema, então amn xn bm Ax b admite pelo menos uma solução. Vamos chamar xo Axo b é verdadeira. O sistema homogêneo associado consistente, logo também admite pelo menos uma solução xo xH também é uma solução de xH tal que AxH 0 . uma solução Ax 0 é sempre Nesse caso então Ax b , pois A xo xH Axo AxH b 0 b . Se a única solução do sistema homogêneo for a trivial então xH 0 e xo xH xo . Resolução de sistemas de equações lineares: Vamos voltar ao sistema a11x1 a12 x2 a1n xn b1 a21x1 a22 x2 a2 n xn b2 am1x1 am 2 x2 amn xn bm As soluções não mudam por qualquer operação elementar entre linhas realizadas de ambos os lados da igualdade. Considere agora a matriz dos coeficientes . Podemos então mostra A e a matriz ampliada A b os seguintes teoremas: 1. Se Nesse o sistema é inconsistente e não admite qualquer solução. p A p A b caso 0 x1 0 x2 2. Se ao reduzir o sistema à forma escada obeteríamos que gera a inconsistência 0 bk 0 . 0 xn bk 0 p A p A b n do tipo: p A n é porque k1, k2 , , k p 1, 2, , n o que reduzidas na forma escada tem que ser do tipo: Ae Ab 1 0 0 0 1 0 0 0 0 0 1 0 A b e Aesc 0 0 1 0 0 0 0 0 0 0 0 0 a solução única xi ci i 1, n . 1 0 0 0 0 0 sistema o sistema é consistente e admite apenas uma solução. Note que a nulidade desse sistema é zero. Se significa que as matrizes um 0 1 0 0 0 0 0 0 1 0 0 0 0 c1 0 c2 0 1 c4 0 0 0 0 o que levaria a algumas equações redundantes e p A p A b n o sistema é consistente e admite infinitas soluções. Neste caso a nulidade n p é o número de variáveis livres que podem passar para o lado direito da equação. Sejam k1 , k2 , , k p as colunas dos primeiros termos não nulos de cada linha. Nesse caso sabemos que Aesc 1k1 1 , Aesc 2 k2 1 , ..., Aesc pk p 1 e que esses termos são os únicos não nulos nas colunas 3. Se k1 , k2 , , k p . Passamos para o lado direito as n p equações do tipo: incógnitas restantes para obter um sistema de xk1 c1 1 j x j j k1 , k2 , j ,kp xk2 c2 2 j x j j xk p c p pj x j j xk1 xk2 xk p 1 j1 2 j1 pj 1 1 j2 1 jn p x j 1 2 jn p x j2 pjn p x jn p 2 j2 pj2 c1 c2 c p X dep CX ind d Dados x j j k1 , k2 , ,kp os valores de xi i k1 , k2 , ,kp são únicos, mas como os x j s podem assumir quaisquer valores existem infinitas soluções. Suponha um sistema consistente com n n p . Note então que o sistema p variáveis dependentes. Sempre podemos escolher as ps variáveis, posto p e nulidade possui n p variáveis livres, independentes, e primeiras como as dependentes e as n p últimas como independentes. Agora vamos reescrever o sistema a11 a12 a 21 a22 am1 am 2 a1n x1 b1 a2 n x2 b2 amn xn bm Exemplo: suponha que após a redução à forma escada o sistema ficou na forma: x1 1 2 0 3 0 1 2 0 3 0 1 x 2 0 0 1 2 0 2 0 1 2 0 2 x3 no qual a matriz ampliada é dada por . Vemos 0 0 0 0 1 3 0 0 0 1 3 x4 0 0 0 0 0 0 0 0 0 0 0 x5 que estamos no caso em que p A p A b 3 5 e a nulidade é n p 5 3 2 . Logo existem 1 0 0 0 duas variáveis livres. Nesse problema, seguindo a nossa notação, escolhemos x1 , x3 k1 1, k2 3 e k3 5 , assim e x5 para ficarem do lado esquerdo das equações: x1 2 x2 3x4 1 x3 2 x2 x1 1 2 x2 3x4 2 x3 2 2 x2 x5 3 x5 3 As duas variáveis livres são dependendo de x2 x2 e x4 , x5 está determinada mas x1 e x3 podem assumir infinitos valores e x4 . Ax 0 com n incógnitas admite uma solução NÃO TRIVIAL se, e somente se, p A n . Prova: se p A n então p A 0 n pois o acréscimo de uma coluna de zeros 4. O sitema homogêneo não altera o posto da matriz, então o sistema admite apenas uma solução. Sabemos que a solução trivial x0 é uma solução, logo é a única solução. Se p A n então o sistema admite infinitas soluções. No caso do sistema acima teríamos: x1 2 x2 3x4 0 x3 2 x2 x1 2 x2 3x4 0 x3 2 x2 x5 0 x5 0 Ax 0 Ann possui solução NÃO TRIVIAL, então A é singular. Se o sistema admite solução não trivial então p A n , o que significa que ao reduzir a matriz para a 5. Se o sistema homgêneo com forma escada via operações elementares, que jamais anulam o determinante, terminaremos com uma ou mais linhas nulas. O determinante de uma matriz com linha nula é ZERO. Logo det A 0 e A é singular. 6. Se p A p então A contém uma sub-matriz quadrada p p com determinante não nulo. Novamente podemos usar o fato de que as operações elementares, via linhas ou colunas, jamais anulam o determinante. Então podemos transformar a matriz original, via operações elementares de linhas e ou colunas na forma: 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 Nesse caso o determinante da sub-matriz p p das p primeiras linhas e colunas é obviamente não nulo, vale 1, pois todos os elementos da diagonal valem 1. Além do resultado acima ainda podemos afirmar mais, que todos os determinantes de sub-matrizes k k , k p serão nulos pois terão pelo menos uma linha nula. Um último ponto em relação às operações elementares é que qualquer matriz de posto através de operações elementares de linha e ou coluna, à forma: p pode ser reduzida, I p p O p n p O m p p O m p n p Ou seja, a matriz identidade no canto superior esquerdo e matriz nulas nos outros 3 quadrantes. É fácil perceber como proceder para isso. Primeiro coloca-se a matriz na forma escada com operações elementares de linhas, depois com operações de colunas leva-se a matriz para a forma: 1 0 0 0 0 0 0 1 0 0 0 0 1 0 c11 0 c21 1 c p1 0 0 0 0 0 0 c1 n p c2 n p c p n p 0 0 Agora utilzamos os 1´s da diagonal para anular via subtração de colunas todos os termos cij 0 da matriz C p n p que sobrou. Sistemas de equações lineares com Ax b com n incógnitas e n equações. São sistemas que podem ser escritos na forma: A sendo uma matriz n n . Se A é não singular, i.e., det A 0 então A admite inversa e podemos calcular o vetor x da única solução imediatamente através de x A1b . Em particular se a 1 equação é homogênea então só existe a solução trivial x A A é menor do que n e teremos soluções diferentes da trivial. 0 0 . Se A é singular significa que posto de Regra de Cramer: x A1b . 1n v1 11 12 v 2n 2 21 22 e o vetor nn vn n1 n 2 b1 A11 A12 A A22 b2 vi bk ki det 21 k bn An1 An 2 Note que para matrizes dos coeficientes não singular obtivemos 11 A† 1 21 1 A det A det A n1 12 22 n2 np é tal que cada componente é dada por Por outro lado 1n b1 2 n b 2 nn bn A1n A2 n de Ann onde extraímos a regra de Cramer: A11 A12 A A22 det 21 An1 An 2 xi A11 A12 A A22 det 21 An1 An 2 b1 b2 bn A1i A2i Ani A regra é: troca-se a iésima coluna da matriz do numerador pelo vetor matriz pelo determinante da matriz dos coeficientes. Exemplo: A1n A2 n Ann A1n A2 n Ann b e divide-se o detrminante dessa 2x 3 y 2 3x 2 y 1 2 det 3 y 2 det 3 1 A então 2 3 A 3 2 2 1 2 6 4 3 4 9 5 2 e 2 b 1 1 x 5 então y 4 5 2 det 1 x 2 det 3 então 3 2 4 3 1 3 4 9 5 2 e é a solução. Recalculando através da inversa: 3 3 2 2 2 x 5 1 2 3 5 5 5 2 5 então 1 4 . y 3 2 4 9 3 2 3 2 5 5 5 5 5 Combinações lineares: Equações paramétricas. Suponha que exista uma curva no plano x-y, ou no espaço da curva é uma relação do tipo, possui a relação R x, y 0 2 . A equação do LUGAR GEOMÉTRICO entre as variáveis x e y. Exemplo: círculo centrado na origem x 2 y 2 R 2 , ou x 2 y 2 R 2 0 , onde R é o raio do círculo. Vamos tentar extrair dessa relação o y em função de x. Mas note que y R2 x2 não é uma função y x : porque admite dois valores para cada x. Uma função é uma regra de associação entre todos os elementos de um conjunto chamado de domínio com elementos de outro conjunto chamado contra-domínio e não admite dúvida sobre a qual elemento do contra-domínio devemos associar cada elemento do domínio. Caso contrário seria impossível obedecer a ordem associe os elementos através da regra – o operador ficaria em dúvida sobre qual elemento associar. A idéia da equação paramétrica [de parâmetro] é usar um parâmetro t em termos do qual as funções x t : x y t : e existem sendo bem definidas. Podemos agora fazer um gráfico de da seguinte forma: construímos uma coluna com os valores de final fazemos o gráfico y vs x y vs t , com ele calculamos x t e y t e no esquecendo o t . Criamos uma função x t , y t : 2 . Para obter a relação do lugar geométrico é necessário eliminar o parâmetro. Vejamos o exemplo do círculo: x t R cos t e y t R sin t . Agora elevando as duas ao quadrado e somando obtemos x2 y 2 R2 cos2 t sin 2 t R2 , gemétrico dos pontos x2 y 2 R2 . eliminando o parâmetro t e ficando com a equação do lugar Outro exemplo interessante é o da elipse: x2 a2 cos t 2 com y2 a2 sin t 2 x t a cos t x2 para obter a2 y2 b2 e y t b sin t . Agora somamos a equação 1. Com um parâmetro podemos descrever uma curva, com dois uma superfície, com três um volume e assim por diante. Note que se mantenho R fixo nas equações x círculo. Mas se ganhamos a liberdade de variar anel e até todo o plano x-y. R t R cos t e y t R sin t consigo gerar um de podemos preencher toda a área de um círculo, de um Equação paramétrica da reta. Tome um vetor V da direção reta na e o multiplique por do vetor t . Variando t de , podemos gerar todos os pontos ao longo V. Note que estamos usando as equações paramétricas: x t , y t tV t V1,V2 , ou seja, x t tV1 e y t tV2 . Eliminando o parâmetro obtemos y V2 que é uma reta que passa no origem. Já a equação X X o tV , x t xo tV1 e x V1 y t yo tV2 é uma reta que passa no ponto xo , yo com a equação do lugar geométrico dada por: y yo V2 . x xo V1 1. Mostre que se o sistema homogêneo de n equações e n incógnitas: A11 t1 + A12 t2 + ... + A1n tn = 0 A21 t1 + A22 t2 + ... + A2n tn = 0 A21 t1 + A22 t2 + ... + A2n tn = 0 admite solução diferente da trivial, i.e, (t1 , t2 , , tn ) (0, 0, , 0) então det(A) = 0. 2. Prove a regra de Cramer A11 A 21 A xi n1 A11 A 21 A n1 B1 B2 Bn A1i A2i Ani A1n A2n Ann A1n A2n Ann para as soluções do sistema de n equações e n incógnitas: A11 t1 + A12 t2 + ... + A1n tn = B1 A21 t1 + A22 t2 + ... + A2n tn = B2 A21 t1 + A22 t2 + ... + A2n tn = Bn em que A é NÃO SINGULAR. Espaços Vetoriais Seja o conjunto de todos os números reais positivos. Defina a operação adição pelo produto usual de u v u v . Seja um escalar e defina a operação multiplicação por um escalar através da regra u u . Mostre que é um espaço vetorial. Qual a necessidade da restrição para dois números, i.e., valores positivos? Se e são espaços vetoriais mostre que também é um espaço vetorial. Considere o conjunto das matrizes m n com as operações adição e multiplicação por escalar matriciais usuais. Mostre que esse conjunto é um espaço vetorial. Quem é o elemento nulo? Considere o conjunto das matrizes 2 2 e as operações matriciais usuais. Encontre uma base para esse espaço. Qual a dimensão desse espaço? O conjunto de matrizes 2 2 simétricas é um subespaço vetorial? Encontre uma base para esse espaço. Qual a dimensão desse sub-espaço? Sitemas superdeterminados. n Tome o caso em que aij x j bi i 1, , m m n . Nesse caso temos mais equações m do que j 1 incógnitas. Em termos matriciais temos que Amn x1n b1m modo que dos desvios, i.e., se não admite solução, queremos achar os valores Amn x1*n b1*m V Vi2 V V Amn x1n b1m . Mesmo que o sistema seja inconsistente, de . Então então b1*m b1m b * b Ax * b logo 2 x1*n para os quais de a soma min . A norma de um vetor é dada por b * b Ax * b Ax * b x * A b i logo b b b b x A b Ax b x AA x x Ab b Ax bb Agora * note * que * * b 1m Amn xn1 11 * é um * * * número, um escalar, logo, . bAx bAx x Ab x Ab , logo a nossa equação é dada por: Min x* AA x* 2 x* Ab bb Vamos escreve-la na forma mais adequada à diferenciação: Min xi* AA x*j 2 xi* Aij b j b 2 onde b 2 b ij i j i j A solução é dada quando o gradiente da função de x 2 . é nulo, ou seja: * * * 2 x AA x 2 x A b b ij 0 k 1, i j i j ij xk* i j i j Mas nesse caso temos que: , n . então * * * 2 x AA x 2 x A b b i j i ij j ij i j xk* i j i ij x* x*j i j x* xi* AAij x*j 2i j x* xi* Aij bi xi* AA j ij k k ij k xi* AA jk ik AA x*j 2 ik Aij bi i j i j i ik j AAkj x*j 2i Akj b j j xi* AA i Agora AA é simétrica, logo: xi* AAik AAkj x*j 2 Akj b j xi* AAki AAkj x*j 2 Akj b j i j i i j i x*j AA x*j 2 Akj b j 2 AA x*j 2 Akj b j kj kj kj j j i j i AA Então note que kj j 2 AA x*j 2 Akj b j 0 ser escrita na forma matricial como solução de Ax b solução de Ax b. Regressão linear: implica na equação i AAkj x*j Akj b j j A A x* Ab . Então a x* A A minimiza o desvio Ax* b 2 . Se 0 que pode i 1 então Ab embora não seja uma x* A A 1 Ab é uma Problema de autovalores e autovetores: O problema de diagonalização de matrizes é resolvido através do problema de autovalor. Problema do autovalor de uma matriz M quadrada: queremos saber se existem autovetores ui e autovalores i tais que Mui i ui . A forma canônica com que esse problema é resolvido é escrever a equação na forma do sistema de equações lineares M I u 0 que só admite solução diferente da trivial u 0 se det M I 0 . Note que isso M11 M 21 leva a uma equação de grau n pois det M n1 M12 M 22 M n2 M 1n M 2n 0 e não é possível se afirmar à M nn priori, mesmo se M for uma matriz real, que as raízes, correspondentes aos autovalores, serão reais ou complexas. Entretanto se M for real e simétrica podemos afirmar com certeza que os autovalores serão reais. Poderíamos relaxar afirmando que se M for Hermitiana os autovalores são reais. Matrizes Hermitianas Uma matriz M é Hermitiana se M † M , ou seja, M * M . Se M é real e Hermitiana então M é simplesmente simétrica, M M . Ou seja, matrizes reais simétricas são Hermitianas – um sub-conjunto das matrizes Hermitianas. Qual a propriedade interessante das matrizes Hermitianas? 1. Os autovalores são reais 2. Os autovetores são ortogonais Prova: Temos que M ui i ui e M u j j u j . Aplicando o operador adjunto na segunda equação M u † j u †j M † *j u †j como M † M então u †j M *j u †j . Agora multiplicamos a primeira equação por u †j obtendo u †j M ui iu †j ui e a última por ui obtendo u †j M ui *j u †j ui . Subtraindo uma da outra temos que i *j u †j ui 0 . Se i j então ui†ui 0 e a igualdade só é satisfeita se i i* , o que significa que i é real. Por outro lado se i j , i j [caso não degenerado] é preciso que u j ui u j ui 0 , o que significa † que os autovetores são ortogonais entre si. Se M é real e simétrica os autovalores e autovetores serão reais. Agora, se além de real e simétrica M for definida positiva então os autovalores, além de reais, são obrigatoriamente positivos, pois ui M ui i ui ui 0 e como ui ui 0 sempre, então i 0 . Existe uma arbitrariedade na escolha do autovetor uma vez que é possível multiplicar a equação M ui i ui por uma constante de ambos os lados sem perda de validade. Já que se pode multiplicar por uma constante qualquer pode-se multiplicar pela constante que garanta que ui ui 1 e ui u j ij . Neste caso geramos uma base ortonormal – ortogonal normalizada à 1. Todos os autovetores são unitários, i.e., possuem norma igual a 1. Diagonalização de Matrizes: Vamos considerar que encontramos todos os autovalores da base ortonormal de autovetores de modo que M ui iui e ui u j ij . O que acontece se realizamos a seguinte operação: u1 u2 M u u 1 2 un u j1 u j2 u j e que u jn un . Note que nossa notação para o símbolo de vetor é de uma matriz coluna logo u1 u2 e u u 1 2 un un são matrizes n n . Na primeira os vetores estão alinhados na u1 u forma de linhas e na segunda na forma de colunas. Além disso note que 2 u1 u2 un un . Aplicando M a cada um dos autovetores normalizados teremos: u1 u2 M u u 1 2 un u1 u2 M u u 1 2 un u1 u un 2 1u1 2u2 un 1u1 u1 2u1 u2 u u 2u2 u2 un 1 2 1 1un u1 2un u2 nun nu1 un nu2 un nun un u1 u2 são ortonormais para chegar ao resultado M u1 u2 un M foi e, diagonalizada. A matriz que a diagonaliza é S u1 finalmente, que . Agora usamos o fato de que os vetores 0 1 0 0 2 0 . Ou seja a matriz un n 0 0 un1 u11 u21 u12 u22 un 2 onde o u2 un unn u1n u2 n u1 u primeiro índice se refere ao autovetor e o segundo às suas componentes. Note que S 2 e que S S I , un 1 ou seja, S S . São chamadas matrizes ortogonais. Aplicando o determinante det S S det I , e usando o fato de que det AB det A det B , det A det A e det I 1 vemos que det 2 S 1 que nos leva a det S 1. Na realidade det S 1, sendo 1 em rotações e -1 em operações que envolvem reflexões, que não é o caso aqui. Então a operação S M S D transforma a matriz M em uma matriz diagonal. Para voltar da diagonal à basta inverter S´com S: S M S D SS M SS S D S M S D S . M Transformação de similaridade: Quando transformamos uma matriz segundo a forma: M S 1M S dizemos que fizemos uma transformação de similaridade. A transformação de similaridade preserva o determinante e o traço da matriz. A preservação do determinantes é demonstrada facilmente pois det M det S 1M S det S 1S det M det M . Já o traço é dado pela soma dos elementos da diagonal tr M M ii e tem as seguinte propriedades: i tr A B tr A tr B , tr cA ctr A e tr AB tr BA . As duas primeiras são triviais. A última é demonstrada da seguinte forma: AB ij A B ik kj e tr AB k o t r M 1 2 D ik i isso a preservação do traço pode ser facilmente demonstrada matriz M foi diagonalizada para A B B A tr BA . Com tr S M S tr M SS tr M . Se a ki k ki k 1 ik i 1 e o determinante e o traço são preservados então det M 12 n e n . Diagonalização da Matriz inversa: Podemos mostrar que a mesma matriz S que diagonaliza a matriz M também diagonaliza sua inversa. Sabemos 1 que MM 1 I e S MS D . Inserindo I SS dos dois lados de M: SS MSS M I , e usando o fato de 1 que M se torna diagonal obtemos SDS M I . Agora multiplicamos à direita e à esquerda pela inversa de S 1 ou S´ para obter S SDS M S S IS , que se transforma em D S M 1S I , o que significa que 1 0 1 1 0 2 S M S D . Entretanto se D 0 0 1 1 0 0 0 1 então D n 0 0 1 2 0 0 0 e também é 1 n diagonal. Ou seja, a transformação S também diagonaliza a matriz inversa e, além disso, os autovalores da matriz inversa são os recíprocos da direta. Em resumo se i é um autovalor de M com autovetor ui então 1 i é o autovalor de M-1 correspondendo ao meso autovetor ui . 0 x 0 1 x 0 1 x det 0 0 0 ao a1 a2 1 0 x 0 1 x 0 x det 0 1 x 0 0 an1 x Aij xij an1in jn i j 1 ai 1 jn a1 a2 a2 1 an1 x