Aplicações: Incluir as distribuições discretas: distribuição degenerada + distribuição uniforme + distribuição multinomial Incluir as distribuições contínuas: uniforme + exponenciais + triangulares Distribuição de Bernoulli: Jogar a moeda, só temos duas possibilidades, cara ou coroa. A v.a. será definida como cara = 1 e coroa = 0. Qualquer jogo com apenas duas respostas, sim = 1 e não = 0, segue uma distribuição de Bernoulli. Se a probabilidade de SIM é p , a de Não será q 1 p e a função densidade de é dada por: f x q x p x 1 . A função distribuição de probabilidade probabilidade acumulada vale: F x 0 x0 q 0 x 1 1 x 1 A funçao geradora dos momentos é dada por: M t q x p x 1 e xt dx q pet . A função característica t q pe . it Momentos: Mk q x p x 1 x dx q0 k k p1k logo M k p k , então p . 1 p t qe pt pe qt . Momentos centrados: e t M t e pt q pet qe pt pe Agora mk dk k qe pt peqt q p e pt pq k e qt k dt mk pq 1 p k 1 k 1 p . Casos particulares: 1. m1 pq qp 0 ; k k , ou seja, mk pq 1 qp ou ainda k t 0 2. m2 pq 1 p p pq ; 3. m3 pq 1 p p 2 pq 1 2 p p 2 p 2 pq 1 2 p ; 4. m4 pq 1 p p3 pq 1 3 p 3 p 2 p3 p3 pq 1 3 p 1 p pq 1 3 pq . 2 3 Cumulantes: ln t ln 1 p eit 1 , então d ipeit ip ip ln t it it it dt p 1 p eit 1 p e 1 e p pe logo: 1. 2. 3. 1 d d ln t ip p qe it . Logo c1 i ln t p dt dt t 0 2 d2 2 d 2 it it 2 2 ln t i pq e p qe c i , logo 2 ln t pq . 2 dt 2 dt 3 2 3 d3 ln t i 3 pq 2qe2it p qeit eit p qeit i 3 pqeit p qeit p qe it 3 dt logo, m3 c3 i 3 4. d3 ln t pq q p . dt 3 t 0 4 d4 ln t i 4 pqeit p 2qeit p qeit 3qeit qeit p p qe it . 4 dt alguma álgebra temos c4 i 4 4 d4 ln t i 4 pqeit p 2 4 pqeit q 2e2it p qeit , logo 4 dt d4 ln t pq p 2 4 pq q 2 ou c4 pq 1 6 pq . dt 4 t 0 Distribuição Binomial: Após Vamos jogar a moeda n vezes de forma independente. Nesse caso a v.a. soma são i.i.d., e a função n característica vale: Bin t Bern t q peit . Sabendo a queremos a f z dada por n 1 f z FT t 2 1 n q peit eitz dt . Expandindo em binômio de Newton temos: n 1 n f z q nk p k k 0 k 2 n n n k k i k z t e dt q p z k k 0 k Aqui vale a acumulação dos cumulantes ck Bin n ck Bern , então np , 2 npq , c3 npq q p e c4 npq 1 6 pq . Distribuição de Poisson: Essa distribuição é um caso limite da binomial quando n , mas p 0 de tal forma que o produto eit 1 it . Nesse ponto usamos o fato de np é constante. Agora Bin t 1 p pe 1 n n n n que x Lim 1 e x n n f z 1 2 e para eitz dt e eit 1 2 achar Poisson t e e itz e e dt e it k 0 eit 1 k 1 k ! 2 . e k z k . k! k 0 Uma expressão para FPoisson z . FPoisson z e k f Poisson x dx k! k 0 Então FPoisson z e int z k 0 k . k! z x k dx e queremos a k ikt itz e e dt z k e k! k 0 f Poisson z z Agora int z k k 0 k! fdp: Cumulantes: ln Poisson t ln e k k eit 1 i t , portanto todos os cumulantes valem eit 1 k 1 k! , daí , 2 , m3 e m4 3 2 , a skewness vale 3 a curtose k 1 , sempre leptocúrtica. Se 1 0 , skewed to the right, e então a skewness e curtose tendem a zero. Distribuição Normal: Vamos fazer o limite de n tendendo a infinito na distribuição binomial e usar o truque do logarítmo. Nesse caso: t2 n ln Bin t Bern t n ln q peit n ln q p ipt p 2 x 2 x3 já sabemos que ln 1 x x 2 3 Chamando x ipt p k 1 1 t2 n ln 1 ipt p 2 k 1 k x k e vamos truncar a série na ordem 2. t2 temos: 2 2 t2 t2 t2 t2 ln Bin t n ipt p ipt p n ipt p p 2 2 2 2 2 Logo lim ln Bin t inpt n vale: Normal t e it ln Normal t it . Mas npqt 2 2 t2 n ipt p 1 p 2 e essa é a distribuição normal, cuja função característica 2t 2 2 . 2t 2 2 Note que, nesse caso, só existem dois cumulantes, k e e it 2t 2 2 e 2t 2 2 pois , c1 e c2 2 , todos os outros são nulos. Os momentos centrados são dados pela função geradora: it 2t 2 k k 1 2 k 2 k 1 2 k 2k ! t 2 k 2 t . k! 2k k ! 2k k ! 2k ! k 0 k 0 k 0 Percebe-se i k 0 2k que m2 k não existem momentos t 2k t 2k k . 1 m2 k 2k ! k 0 2k ! ímpares Comparando e que os 2k ! 2 k . m2 k extraímos pares 2k k ! reescrever esse resultado em termos dos fatoriasi duplos z !! z z 2 z 4 2k !! 2k 2k 2 2k 4 2 1 2k 2k 2 logo 2k ! 2k !! 2k 1!! , substituindo m2 k 2k Podemos . Notando que 2 2 2 2 k k 1 k 2 1 2k k ! e, além disso, que: 2k ! 2k 2k 1 2k 2 2k 3 simples m2k 2k 1!! valem 2 2k 1 2k 3 1 2k !! 2k 1!! 2 k 2k !! chegamos na expressão mais 4 4 6 6 . Então vemos que m2 2 ; m4 3!! 3 ; m6 5!! 15 e assim por diante. 1 Falta a função densidade de probabilidade: f z 2 quadrado e 2t 2 2 i t itz no e expoente z 2 2 2 2 e f z e e z t i 2 2 2 2 2 2 it itz e 2t 2 2 e i t 2t 2 2 eitz dt . O truque aqui é completar it z e 2 z t z z t 2 2i 2 2 4 4 2 2 , obtendo 2 z 2 2 2t 2 . Substituindo de volta na integral temos: e 2 z t i 2 2 2 z 2 t e 2 d 2 2 2 e u 2 du z 2 2 2 e 2 Finalmente obtemos a função densidade de probabilidade da distribuição Normal: N x; , e x 2 2 2 2 A Normal Padrão tem esperança nula e variância unitária dada por NP x 1 cumulativa é definida como x 2 x e t2 2 e x2 2 2 . A Normal padrão dt . Note que é sempre possível escrever o resultado de uma normal cumulativa em termos da x por uma mudança de variável. Se queremos a função distribuição de probabilidade x 1 FNormal x 2 1 a FNormal x 2 e x 2 2 2 x cumulativa 1 dx 2 x e de x 2 2 2 uma normal com e , ou seja: x x nos leva d a mudança de variável t x e dt . Por isso as tabelas da normal são sempre feitas para a t2 2 normal padrão usando como argumento o desvio da esperança medido em desvios padrão z x . Distribuição Log-Normal. A distribuição Log-Normal é obtida da Normal através da mudança de variável y e x . A regra ára mudança de variável é dada por f ( y ) f [ g 1 ( y )] , com a somatória sobre todos os x’s possíveis dy dx para as raízes da equação g ( x ) y , ou, x g 1 ( y ) . Neste caso a função é biunívoca e só existe uma dy e x y . Logo: dx raiz dada por x ln y , y [0, ) . Vamos precisar da derivada LogN [ y; , 2 ] e (ln y )2 2 2 2 y A log-Normal como uma aproximação da normal: Vamos reescrever a log-normal como LogN e ln y ln yo 2 2 2 2 y e y ln yo 2 2 2 y 2 , yo 0 , e ver o que acontece para y yo y com y yo . Neste caso ln y ln yo y ln yo 1 aproximado por (ln y ln yo ) ln 1 vemos que LogN y y ln yo ln 1 e o termo no expoente é yo yo y y . No denominador simplesmente fazemos y yo e yo yo y2 2 2 yo2 N e y . Se fizermos é uma normal da variável teremos log N y yo o 2 yo duas curvas muito semelhantes no caso em que N . Note que se y 0 o ln y anulando a função. Grandes diferenças, portanto, entre a normal e a log-normal ocorrerão quando a probabilidade de valores de x negativos na normal forem grandes. A figura xx mostra esse comportamento: Figura xxx. Normal com xo yo 100 . (a) N 10 e log N 0,1 ; (b) N 20 e log N 0, 2 ;(c) N 40 e log N 0, 4 . Tanto a função geradora dos momentos quanto a função característica apresentam problemas de convergência, mas podemos calcular os momentos da Log-Normal M n y 0 no expoente: Mn e e e 2 2 e e ( x )2 nx 2 2 continuando n n2 nx 1 2 ( x )2 2 2 e e e ( x )2 2 2 nx 2 2 ( x x n ) 2 2 2 binômio de Newton variância m2 9 3 2 2 e dy mudando a 2 y e nx ( x )2 2 2 e dx . O truque aqui é completar quadrado e x 2 2 x 2 2 2 nx 2 2 e n n2 e 2 2 e x 2 2( n 2 ) x ( n 2 ) 2 ( n 2 ) 2 2 2 2 ( x x n 2 )2 2 2 . Daí n n2 2 2 . que Em particular temos M 0 1 ; M1 e 2 2 ; M 4 e 4 8 . Podemos calcular os momentos centrados usando 2 n n nk mn 1 n k M k . Já sabemos que mo 1 e k 0 k temos: vemos dx . A integral entre colchetes vale 1 e temos todos os momentos de ordem n dados por M n e M 2 e 2 2 ; M 3 e ( x x n 2 )2 ( 2 2 n 2 n2 4 ) 2 2 2 2 2 e dy dx , quando y 0 x e quando y variável de integração para ln y x , y e x , 1 y x . Nesse caso: M n 2 n (ln y )2 2 2 m2 M 2 M12 logo m1 0 . Para a m2 e 2 2 e 2 e 2 (e 1) , 2 2 2 2 V [ y] e 2 2 2 (e 1) e V [ y] e 2 m3 M 3 3M1 M 2 2 M13 m3 e m3 e m3 e 9 3 2 2 3 3 2 2 3 3 2 2 3e 1 2e e e 3 3e 2 . 2 2 2 de 2 2 2 2 2 2 (e 1) . Para o momento centrado de ordem 3 temos 2 3 3 2 2 onde e 9 3 2 2 Fatorando o 3e 5 3 2 2 termo extraímos 2e 3 3 2 2 entre que e colchetes ainda chegamos a e 1 e 2 . A Skewness será dada por: 2 3 2 m3 V ( y) 3 e 3 3 2 2 3 3 2 2 e 2 e 1 e 2 2 3 2 e 1 2 2 e 2 1 e 2 . 2 Para o momento de ordem 4 m4 M 4 4 M1 M 3 6 M12 M 2 3M14 teremos: m4 e 4 8 2 4e 2 2 e 9 3 2 2 6e 2 e 2 2 3e 4 2 e 4 8 4e 4 5 6e 4 3 3e 4 2 2 Que pode ser simplificado para m4 e 2 4 2 2 2 2 2 2 2 e 6 4e3 6e 3 e fatorando o termo: 2 2 2 2 e 6 4e 3 6e 3 e 1 e 5 e 4 e 3 3e 2 3e 3 e 1 e 4 2e 3 3e 2 3 2 2 2 2 2 2 2 2 2 2 2 2 2 obtemos, finalmente: m4 e 4 2 e 1 e 4 2e 3 3e 2 3 . 2 2 4 m4 V ( y) 4 que leva à curtose k e 2 2 2 e 4 2 e 1 e 4 2 2e 3 2 3e 2 2 3 e 4 2 2e 3 2 3e 2 2 3 2 2 2 e 4 2 e 1 2 Agora 2 2 2e3 3e 2 6 . Como 1 2 3 6 percebe-se que k 0 sempre, 2 com a igualdade valendo apenas se 0 . 4 2 Distribuição Gama: 2 2 2 Função gama: Vamos calcular a seguinte integral: I z t z e t dt . Fazendo por partes 0 b b udv uv vdu com u t b a a z ; du z t z 1dt , dv et dt e v e t , temos que: a I z t z e t dt t z e t 0 Mas t z e t 0 0 z t z 1e t dt . 0 0 , pelo t z em t 0 e pelo e t em t , então I z z t z 1e t dt , o que nos leva à 0 I z z I z 1 . Aplicando essa relação várias vezes temos que relação de recorrência I z z I z 1 z z 1 I z 2 I z temos que I 0 e t dt e t z z 1 z 2 1 I 0 z . Pela definição de 0 1 , portanto I z z !. 0 A identidade acima foi mostrada apenas para Z inteiro positivo, mas dado que a integral existe ela pode ser utilizada para generalizar a função fatorial para reais e até mesmo complexos, com a única condição de que a integral convirja. Assim: z ! t z e t dt . Essa integral não apresenta problemas para t por 0 conta do e t mas pode ter problemas para t 0 se z 0 . A integral converge se x t dt z existe. Para 0 x z 1 a integral t z dt 0 t z 1 existe se z 1 0 , ou seja, z 1 . z 1 t 0 A função gama é definida por: z t z 1e t dt , com Re Z 0 . A relação com a função fatorial é 0 dada por z z 1! e z ! z 1 . Formas equivalentes: vamos mudar a variável para t x 2 e dt 2 x dx então z 2 x 2 0 z 1 e x x dx , 2 finalmente z 2 x 2 z 1 e x dx 2 0 e z ! 2 x 2 z 1 x2 e 0 2 1 1 x2 vemos que 2 e dx e x dx de onde extraímos dx . Fazendo z 2 2 0 1 que e que 1 ! . 2 2 A distribuição gama é dada por: f gama x xo ; , x xo 1 e x xo H x xo Vamos mostrar que a área sobre a curva vale sempre 1. 1 x xo f gama x dx xo 1 e x xo x 1 d t 1et dt 1 0 Casos particulares: x xo 1. 1 então fexp onencial x xo ; f gama x xo ;1, 2. v 2 e e 2 então f 2 x xo ; f gama x xo ; H x xo 2 ,2 x xo 2 e 1 x xo 2 H x xo 2 2 2 é a distribuição chi-quadrado [se pronuncia qui-quadrado]. FGM da distribuição gama: 1 x xo M t e 1 M t e xot xt 0 e tu u 1e u du e e xot x xo 1 1 t u du u e 0 1 x e xot x x t x xo H x xo d e o e xot 1 1 t 1 t u 0 e 1 1 t u e x xo x xo H x xo d d 1 t u M t e xot 1 t M t e xot 1 t 1 v v e dv 0 e xot 1 t Logo t eix t 1 i t o Esperança: M t xo e x t 1 t o Se 0 então xo e xot 1 t 1 então M 0 xo . logo neste caso t e i t 1 i t e n t e in t 1 i t n o que gera uma distribuição gama com x n ; n , . ln t ln e Cumulantes: ixot ln 1 i t ixot k k 1 i 1 k t k , ln 1 x k 1 1 k k 1 pela série do logarítmo k k 1 k k k x k , ou seja, ln t ixot i k ! t , finalmente: k 1 k k! ln t i xo t i k k 1! k k 2 tk k! tk Comparando com ln t i ck , da definição dos cumulantes, vemos que c1 xo e que k! k 0 k ck k 1! k , de onde extraímos que c2 2 2 , c3 m3 2 3 e c4 6 4 . Assim a curtose vale k 6 4 2 4 6 , positiva, logo leptocúrtica. Usando o fato de que c m 3 4 vemos que 4 4 6 4 m4 3 2 4 e extraímos m4 3 2 4 . Aditividade da distribuição gama: Sejam x1 , x2 , diferentes , xn n v.a.´s independentes que seguem a distribuição gama de mesmo mas com s e xo s , ou seja, f xi Gama xi xoi ;i , . Então a variável z x1 x2 também segue a distribuição com xo xo1 xo 2 xon e 1 2 xn n e mesmo . Pelo teorema da z t eix o1t convolução z t ei x o1 xo 2 xon t 1 i t 1 2 n 1 i t 1 eixo 2t 1 i t 2 eixont 1 i t n logo que é a função característica da distribuição gama. Convergência para a Normal: Se podemos usar o truque do logarítmo para analisar o comportamento assimptótico da distribuição gama. Aplicando o logarítmo na função característica temos: x 2 x3 x 4 ln t ixot ln 1 i t , usando ln(1 x) x ... com x i t obtemos, 2 3 4 i t ln(1 x) i t até segunda ordem, 2 2 ln t i xo t 2 t 2 ou t e 2 i t i xo t 2 2 t2 2 2 t 2 . Nesse caso temos então que que é a função característica de uma normal com xo e 2 2 . Logo para Lim x xo ; , N x xo ; , 2 . Distribuição Chi-quadrado: Na função Gama vamos fazer f 2 x xo ; x xo 2 1 e x xo 2 2 2 2 e 2 . Nesse caso temos: v 2 2 e 2 então H x xo . Distribuições t-student e F. Agora suponha a variável y x2 onde x segue uma normal y 2 com N 0,1 . Então y segue a distribuição 1 1 2 2 2 2 fy y y 2e 2 H y . Agora a v.a. S x1 x2 2 distribuição Gama com f S 2 nnnnnnnn xn2 segue a Suponha que x Qual a distribuição de int n x t e N , segue uma normal z x1 x2 int 2t 2 n e 2 mudar a v.a. para a média xn t e 2t 2 2 . com x´s iid? A nova função característica será dada por t2 2 2 x cuja função característica vale x it logo z N n , n segue uma normal z 1 xj . n n j Nesse caso . Agora vamos z f x nf z nx , n ou seja, 2 fx x Chamando n einxt e 2 int n 2t 2 2 dt 2 nt n int inxt 2 e e d 1 2 nt s nt temos que 2 fx x 2 s n i s 2 eixs e ds 1 2 N , n Distribuição Beta: Podemos iniciar a distribuição Beta descobrindo quanto vale n!m! . Usando a forma z ! 2 x 2 z 1 e x dx podemos reescreever esse produto como: 2 0 n !m ! 4 x 0 2 n 1 x 2 e dx y 0 2 m 1 y 2 e dy 4 e x2 y 2 x 2 n 1 y 2 m 1dxdy . 0 0 Vamos trocar para coordenadas polares x r cos , y r sin , x 2 y 2 r 2 e dx dy r dr d . Temos que integrar apenas no primeiro quadrante, pois x 0 e y 0 , logo 0 logo: 2 e 0 r , 2 n!m! 4 e r2 r 2 n 1 2 m 1 r cos 2 n 1 sin 2 m 1 0 0 2 n m 1 1 r 2 2 2 n 1 r dr d 2 r e dr 2 cos sin 2 m 1 d 0 0 2 Ou seja: n!m! n m 1!2 cos 2 n 1 sin 2 m 1 d 0 Fazendo t cos 2 , 1 t 1 cos 2 sin 2 e dt 2sin cos d transformamos a integral acima em 2 n !m! n m 1! cos 2 sin 2 n 0 1 Então sabemos que: t 1 t n 0 m dt m 0 2sin cos d n m 1! t n 1 t 1 dt n m 1! t n 1 t dt n !m ! . n m 1! 1 n 1 A função Beta é definida como B n, m t 1 t m 1 dt 0 n 1! m 1! n m . n m n m 1! A distribuição Beta, definida no intervalo 0 x 1 apenas, é dada por: fbeta x; , x 1 1 x 1 B , H x H 1 x FGM da Beta: M beta t 1 m 1 1 t k k 1 1 1 xt 1 e x 1 x dx x x 1 x dx B , 0 B , k 0 k ! 0 1 1 B k, tk 1 t k k 1 1 M beta t x 1 x dx B , k 0 k !0 B , k ! k 0 1 M beta t k 0 B k , t k B , k! m 0 Daqui Mk extraímos Mk que: B k , B , . k 1! 1! 1! , ou seja, k 1! 1! 1! Em Mk termos Mo 1! 1! 1 . 1 ! 1! 2. M1 ! 1! ! 1! 3. M2 1 1! 1! 1! 1! 1 1 2 então 2 M 2 2 será dado por . 4. M3 1 2 2 ! 1! 2 ! 1! 1 2 5. M4 1 2 3 3! 1! . 3! 1! 1 2 3 Distribuição Logística: 1 F x; 1 e M (t ) etx x xo dF x dx d então f x; 1 e dx dx etx F x x xo x xo 1 e x xo 2 1 e t etx F x dx 1 temos: . 1 2 1 2 1 1 2 2 fatoriais k 1! 1! . k 1 ! 1! 1. então dos . finalmente M (t ) e t x xo xo t e e x xo x xo 1 e 2 d x xo e xot e t 1 z 1 e z 2 dz 1 s z ln s dz ds M (t ) e xo t t 1 ln s 1 e ln s 0 s e 2 1 ds e xot s s t s 1 2 ds 0 t t 1 1 ; ds 1 dt , s 1 2 1 t 1 t 1 t 1 t t t 1 M (t ) e xo t 1 t t 0 Distribuição 1 1 t 2 1 1 1 t 2 dt e xot t t 11 1 t t 11 dt e xot B 1 t ,1 t 0 t de Student. Uma variável aleatória t de Student é dada por uma variável normal cuja variância é igual à recíproca de uma variável que segue uma distribuição gama. Se a variável x segue uma normal com média nula mas variância 1 2 2 x . A e 2 desconhecida então f x 2 segue uma distribuição 1 1e H , então x segue a distribuição: gama com parâmetros f gama ; , 1 1 x2 1 1 1 1 1 2 2 f x d e e d 2 e 2 0 2 0 x 2 2 1 1 2 x2 f x 1 2 2 Ou seja, 1 x 1 2 2 2 modo que f x 1 2 1 2 x 2 d 0 1 2 z x2 1 2 1 2 1 2 1 2 e x 2 1 2 , de 1 1 2 2 x 2 e dz . Para 1 2 2 1 1 z 2 0 1 1 x2 2 2 2 . v 2 e chegamos a distribuição t de Student dada por f x 1 2 A distribuição t de Student não possui função geradora dos momentos mas possui função característica K t dada por t 2 t 1 22 2 2 onde K 2 x é a função de Bessel modificada. Note entretanto que é uma função do módulo de t , não diferenciável, e portanto não pode ser utilizada para cálculo dos momentos. Distribuição normal multivariada: Se as v.a.s correlacionadas seguem uma distribuição normal multivariada queremos mostrar que a função densidade de probabilidade conjunta é dada por: f x Ae 1 2 xi i Vij1 x j j i j onde V é a matriz de variância-covariância. O fato de que se trata de uma matriz definida positiva garante que o expoente será sempre negativo e f caia a zero para grandes valores de x. Antes de mais nada precisamos encontrar a constante normalizadora A tal que Ae 1 2 matriz Ae 1 2 xi i Vij1 x j j i dx1dx2 j V 1 . Voltando i j xi i Vij1 à x j j dx1dx2 dxn 1 . Para realizar essa operação precisamos antes diagnolizar a distribuição normal multivariada temos que a integral dxn 1 é complicada por causa dos termos cruzados envolvendo xi e x j . Então a idéia é diagonalizar e ficar apenas com termos contendo zi2 . Para tanto vamos começar definindo qi xi i e reescrever a integral como A e 1 2 qi Vij1 q j i j dq1dq2 dqn 1 . Agora notamos e que temos A A e truque: 1 qV 1q 2 dqn 1 e diagonalizamos a matriz V-1 no expoente com o seguinte dq1dq2 1 qS S V 1S S q 2 dqn A e dq1dq2 para as variáveis giradas, z S q , ou seja, zi 1 S q S V 1S S q 2 Sq ij dq1dq2 dqn 1 . Agora mudamos . Multiplicando pela inversa de S´ temos que j j q S z , ou seja, qi Sij z j de onde tiramos que j dqn det J dz1 dz2 matriz S. Sabemos que dq1 dq2 det S 1 A e A então z2 2i i i dzn A e i 2 dqn dz1 dz2 dq1 dq2 dz1dz2 1 n 12 qi Sij e que a matriz Jacobiana J é a própria z j zi2 2 i dzn . Mas, nesse caso, como J S e e dzn dzi A 2i i e a u 2 integral fica na du A 2i 1 . Isso significa que i onde i são os autovalores de V. Agora, usamos o fato de que a n diagonalização de uma matriz preserva o determinante e que, portanto, det V 12 obtemos que A 2 forma 1 n . Daí . n det V A distribuição Normal multivariada é dada por: f x e 1 2 xi i Vij1 x j j i j 2 n det V e 1 x V 1 x 2 2 n det V Para achar a matriz de variância-covariância entre as variáveis x notamos que que as variáveis z´s são independentes, pois f zi , z j f i zi f j z j , seguindo uma normal com esperança nula e variância i , ou seja, E zi 0 e E zi z j i ij . A relação entre as variáveis z´s e as x´s originais é: xi i Sij z j , de onde tiramos que E xi i Sij E z j i e xi i Sij z j , logo, j j xi i xk k Skl Sij z j zl j j então: j E xi i xk k Skl Sij E z j zl j l j l 1 Skl Sij jl j Sij S jk SDS V . j j Geração de variáveis correlacionadas – método da decomposição de Cholesky. Sabemos que a matriz de variância-covariância V é simétrica e definida positiva. Toda matriz dessa forma pode ser decomposta em uma multiplicação de matrizes triangulares superior e inferior, ou seja, 0 11 0 21 22 0 queremos escrever V onde 31 32 33 11 21 31 0 22 32 0 0 33 é uma matriz triangular inferior e é triangular superior. Sabemos que qualquer matriz dada por M AA é simétrica pois M AA AA AA M . Logo é uma matriz simétrica. Agora note que 0 11 0 22 0 21 31 32 33 Percebe-se do 11 31 V13 31 11 21 31 0 22 32 0 0 33 processo V13 V11 que 11 21 11 31 112 2 2 11 21 21 22 11 31 112 V11 11 V11 212 222 V22 222 V22 e . 11 21 V12 21 V12 V11 e V122 V11V22 V122 V V V 2 22 11 22 12 . O V11 V11 V11 processo pode ser continuado, mas existem pacotes capazes de realizar a decomposição de Cholesky. Note que é necessário que V seja definida positiva para que as raízes sejam reais. Agora geramos n v.a.s independentes com esperança nula e variância unitária, i.e., E xi 0 ; E xi x j ij e com essas variáveis construímos as variáveis z´s dadas por zi ij x j zi portanto j E zi ij E x j E zi zi . Nesse caso zi E zi zi zi ij x j . Daí extraímos que j j zk zk kl xl e zi zi zk zk kl ij x j xl . l l Aplicando a esperança de ambos os j lados: E zi zi zk zk kl ij E x j xl kl ij jl ij kj ij jk V l j l j j j Conseguimos então um conjunto de n v.a.s zi com esperança e variância determinadas. Aspectos fundamentais dessa técnica são: (1) A matriz de partida tem que ser simétrica e definida positiva; (2) as variáveis independentes devem ter esperança nula e (3) variância igual a 1.