Universidade do Estado do Rio de Janeiro Instituto de Matemática e Estatística Departamento de Estatística Cálculo das Probabilidades II Prof: Mariane Branco Alves ©2006 Mariane Branco Alves - Todos os direitos reservados. Reserve tempo à reflexão. O menor detalhe pode ser o mais essencial. — SHERLOCK HOLMES (trecho de "A Aventura do Círculo Vermelho", Sir Arthur Connan Doyle) Sumário 1 Revisão de Conceitos Fundamentais em Probabilidade 1.1 Interpretações de Probabilidade e Definição Axiomática 1.1.1 Definição Axiomática 1.2 Probabilidade Condicional e Independência 1.2.1 Regra da Multiplicação 1.2.2 Regra da Probabilidade Total 1.2.3 Teorema de Bayes 1.2.4 Independência 1.3 Exercícios 5 5 6 7 7 7 8 8 11 2 Variáveis Aleatórias Discretas 2.1 Introdução 2.2 Alguns Modelos Probabilísticos para Variáveis Aleatórias Discretas 2.2.1 Uniforme 2.2.2 Bernoulli(p) 2.2.3 Binomial(n,p) 2.2.4 Hipergeométrica(N,n,r) 2.2.5 Geométrica(p) 2.2.6 Pascal(r,p) ou Binomial Negativa(r,p) 2.2.7 Poisson(λ ) 2.3 Momentos de Variáveis Aleatórias Discretas 2.4 Exercícios 14 14 16 17 17 18 18 19 20 20 23 24 3 Variáveis Aleatórias Contínuas 3.1 Introdução 3.2 Alguns Modelos Probabilísticos para Variáveis Aleatórias Contínuas 3.2.1 Uniforme Contínua(a, b) 3.2.2 Normal(µ , σ 2 ) 3.2.3 Exponencial(λ ) 3.2.4 Gama(α , λ ) 3.2.5 Qui-quadrado(n) 3.2.6 Beta(α , β ) 3.2.7 Weibull(α , λ ) 3.2.8 T de Student(k) 3.2.9 F de Fisher-Snedcor(d1 , d2 ) 28 28 30 30 30 32 33 35 36 37 39 41 3 SUMÁRIO 3.3 3.4 4 5 Momentos de Variáveis Aleatórias Contínuas Exercícios 4 42 43 Funções de Variáveis Aleatórias 4.1 Distribuição de Y = h(X) 4.1.1 Caso1: X é variável aleatória discreta e Y = h(X) é variável aleatória discreta 4.1.2 Caso2: X é variável aleatória contínua e Y = h(X) é variável aleatória discreta 4.1.3 Caso3: X é variável aleatória contínua e Y = h(X) é variável aleatória contínua 4.2 Esperança de Y = h(X) 4.3 Exercícios 47 47 Funções Geratrizes de Momentos 5.1 Introdução 5.2 Uso de MX (t) para determinação dos momentos de X 5.3 Propriedades da Função Geratriz de Momentos 5.4 Uso de Funções Geratrizes de Momentos para a Determinação de Propriedades Reprodutivas 5.5 Exercícios 53 53 53 55 47 48 48 49 51 56 57 C APÍTULO 1 Revisão de Conceitos Fundamentais em Probabilidade 1.1 Interpretações de Probabilidade e Definição Axiomática Definição 1.1. : Um experimento que pode fornecer diferentes resultados, se repetido essencialmene sob as mesmas condições, é dito experimento aleatório. Notação: ε Definição 1.2. O conjunto de todos os possíveis resultados de um experimento aleatório ε é denominado espaço amostral de ε . Notação: Ω Definição 1.3. Um evento é um subconjunto do espaço amostral de um experimento aleatório. Notação: letras maiúsculas. Definição 1.4. Dois evento A e B são disjuntos ou mutuamente exclusivos ou mutuamente excludentes se A ∩ B = 0. / Objetivo: Atribuir um número real a cada evento o qual avaliará quão verossímil será a ocorrência de A quando o experimento for realizado. Este número será a probabilidade associada ao evento A. • Freqüentista: A probabilidade associada a um evento é dada pela freqüência relativa com que tal evento ocorreria, caso o experimento aleatório fosse repetido um grande número de vezes, sob as mesmas condições. Críticas: → Quão grande deve ser o número de repetições do experimento aleatórios? → Na prática, só seria aplicável a experimentos dos quais se possa fazer um grande número de repetições. • Clássica: Se um espaço amostral Ω é composto por n resultados igualmente verossímeis, então a probabilidade associada a cada resultado é 1/n. Se o evento A é formado por nA resultados, então P(A) = nnA . Críticas: → A definição é circular → Como calcular probabilidades o espaçamostral não é finito ou não tem elementos equiprováveis? 5 1.1 INTERPRETAÇÕES DE PROBABILIDADE E DEFINIÇÃO AXIOMÁTICA 6 • Subjetiva: A probabilidade que cada pessoa atribui a um evento é uma representação de suas crenças sobre o processo estudado, baseado em sua informação prévia sobre este processo. Críticas: → Garantir a consistência e ausência de contradições nas atribuições subjetivas para problemas complexos é difícil. → Pessoas diferentes podem fazer atribuições diferentes. 1.1.1 Definição Axiomática Definição 1.5. Seja ε um experimento aleatório e Ω o espaço amostral associado a ε . A distribuição de probabilidades ou, simplesmente, probabilidade em Ω é uma especificação de números P(.) que satisfazem a: (i) Para qualquer evento A, P(A) ≥ 0 (ii) P(Ω) = 1 (iii) Para qualquer seqüência de eventos disjuntos A1 , A2 , · · · , à ! ∞ [ P i=1 ∞ = ∑ P(Ai ). i=1 Decorrem dos axiomas (i), (ii) e (iii) as seguintes propriedades (demonstrar!): P.1: P(0) / = 0. P.2: Para qualquer seqüência de n eventos disjuntos A1 , A2 , · · · , An : à ! n [ P i=1 n = ∑ P(Ai ). i=1 P.3: Se Ac é o evento complementar a A, então P(Ac ) = 1 − P(A), ∀A. P.4: ∀A, 0 ≤ P(A) ≤ 1. P.5: Se A ⊂ B, então P(A) ≤ P(B). P.6: Para quaiquer dois eventos A e B, P(A ∪ B) = P(A) + P(B) − P(A ∩ B). Extensão: Sejam A1 , A2 , · · · , An eventos quaisquer. Então: à ! n [ P i=1 n = ∑ P(Ai ) − ∑ P(Ai ∩ A j ) + i=1 i< j ∑ i< j<k P(Ai ∩ A j ∩ Ak ) + · · · 1.2 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA 7 1.2 Probabilidade Condicional e Independência Exemplo 1.1. ε : Lançamento de um dado não-viciado ⇒ Ω = {1, 2, 3, 4, 5, 6}. Seja o evento A: resultado 6 ⇒ A = {6}. Como o espaço amostral é finito, com elementos equiprováveis, então: nA 1 = . P(A) = n 6 Seja, agora, o evento B: resultado par ⇒ B = {2, 4, 6}. A probabilidade de que o resultado seja 6, uma vez que se saiba que o resultado é par, é 16 . Definição 1.6. A probabilidade condicional de um evento A, dado um evento B, é: P(A | B) = P(A ∩ B) , P(B) se P(B) > 0. (1.1) No exemplo anterior, tem-se: P(A | B) = nA∩B n nB n = nA∩B 1 = , nB 6 pois (A ∩ B) = {6}. 1.2.1 Regra da Multiplicação De (1.1) tem-se, diretamente, que: P(A ∩ B) = P(B)P(A | B) = P(A)P(B | A) (1.2) 1.2.2 Regra da Probabilidade Total Definição 1.7. Uma coleção de eventos A1 , A2 , · · · , An forma uma partição do espaço amostral S Ω se os eventos Ai ‘s são disjuntos (Ai ∩ A j = 0, / i 6= j) e exaustivos ( ni=1 Ai = Ω). 8 1.2 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA Sejam A1 , A2 , · · · , An eventos formando uma partição do espaço amostral Ω e B um evento qualquer em Ω. Então: P(B) = P[{B ∩ A1 } ∪ {B ∩ A2 } ∪ · · · {B ∩ An }] disj. = P(B ∩ A1 ) + P(B ∩ A2 ) + · · · P(B ∩ An ) (1.2) = P(B | A1 )P(A1 ) + · · · + P(B | An )P(An ) (1.3) 1.2.3 Teorema de Bayes Sejam A1 , A2 , · · · , An eventos formando uma partição do espaço amostral Ω, B um evento qualquer em Ω e suponha conhecidas P(B | Ai ) e P(Ai ), i = 1, 2, · · · n. Então: P(A j | B) (1.1) = (1.2) = (1.3) = P(A j ∩ B) P(B) P(B | A j )P(A j ) P(B) P(B | A j )P(A j ) P(B | A1 )P(A1 ) + · · · + P(B | An )P(An ) (1.4) Exercício: Um certo item é produzido exclusivamente em uma das unidades de uma fábrica: I, II ou III. Sabe-se que o volume de produção da unidade I é o dobro da unidade II e que II e III têm volumes iguais de produção. Ainda, são defeituosos: 2% dos produtos fabricados na unidade I, 2% dos fabricados na unidade II e 4% dos fabricados na unidade III. Se todos os itens são armazenados em um depósito comum e seleciona-se um item ao acaso: (a) qual é a probabilidade de que seja defeituoso? (b) qual é a probabilidade de que tenha sido produzido na fábrica I, se é defeituoso? (c) qual é a probabilidade de que tenha sido produzido na fábrica I, se não é defeituoso? 1.2.4 Independência Definição 1.8. Dois eventos A e B são ditos independentes se P(A ∩ B) = P(A) · P(B). (1.5) 9 1.2 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA Observe-se que se A e B são independentes, então, de (1.1) tem-se que: P(A ∩ B) (1.5) P(A) · P(B) = = P(A) P(B) P(B) P(A ∩ B) (1.5) P(A) · P(B) P(B | A) = = = P(B) P(A) P(A) P(A | B) = (1.6) Exemplo 1.2. ε: Lançamento simultâneo de um dado e uma moeda, ambos não-viciados. ⇒ Ω = {(CA, 1)(CA, 2)(CA, 3)(CA, 4)(CA, 5)(CA, 6)(CO, 1)(CO, 2)(CO, 3)(CO, 4)(CO, 5) (CO, 6)}. Sejam os eventos: A : {(6,CA), (6,CO)}: resultado 6 B : {(2,CA), (2,CO), (4,CA), (4,CO), (6,CA), (6,CO)}: resultado par C : {(CO, 1), (CO, 2), (CO, 3), (CO, 4), (CO, 5), (CO, 6)}: resultado coroa. Como o espaço amostral é finito e com elementos equiprováveis, tem-se: P(A) = P(A | B) = nA 2 1 = = n 12 6 P(A ∩ B) = P(B) nA∩B n nB n = nA∩B 2 1 = = 6= P(A), nB 6 3 ⇒ A e B são dependentes. P(A | C) = P(A ∩C) = P(C) nA∩C n nC n = nA∩C 1 1 = = = P(A), nC 6 6 ⇒ A e C são independentes. Importante: Disjunção 6= Independência: Em geral, eventos disjuntos são it dependentes, a menos que a probabilidade de pelo menos um deles seja nula. Prova: Suponha que A e B sejam disjuntos. Então P(A ∩ B) = 0. Se, além de disjuntos, forem independentes, então P(A ∩ B) = P(A) · P(B), o que implica que P(A) = 0 ou P(B) = 0 ou ambas. 1.2 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA 10 Obs: A informação de independência entre eventos interfere no cálculo de probabilidades de interseções. A informação de disjunção entre eventos interfere na forma como são calculadas probabilidades de uniões Exemplo 1.3. Calculando probabilidades para eventos associados a espaços amostrais em que os elementos não são equiprováveis. ε : Selecionam-se, aleatoriamente, 4 pessoas e verifica-se a condição doente ou sadio para cada uma. Hipóteses: Assuma que haja independência entre os indivíduos e que a probabilidade de que qualquer indivíduo seja sadio é p. Seja o evento: A: Dois indivíduos, entre os 4 observados, são sadios. Denote-se por: S: indivíduo sadio ("sucesso") F: indivíduo doente ("fracasso"). Determine P(A). Espaço amostral e probabilidade associada a cada um de seus elementos: i wi P(wi ) ind 1 FFFF P(w1 ) = P(F1 ∩ F2 ∩ F3 ∩ F4 ) = P(F1 )P(F2 )P(F3 )P(F4 ) = (1 − p)4 2 SFFF P(w2 ) = P(S1 ∩ F2 ∩ F3 ∩ F4 ) = P(S1 )P(F2 )P(F3 )P(F4 ) = p(1 − p)3 3 FSFF P(w3 ) = P(F1 ∩ S2 ∩ F3 ∩ F4 ) = P(F1 )P(S2 )P(F3 )P(F4 ) = p(1 − p)3 4 FFSF P(w4 ) = P(F1 ∩ F2 ∩ S3 ∩ F4 ) = P(F1 )P(F2 )P(S3 )P(F4 ) = p(1 − p)3 5 FFFS P(w5 ) = P(F1 ∩ F2 ∩ F3 ∩ S4 ) = P(F1 )P(F2 )P(F3 )P(S4 ) = p(1 − p)3 6 SSFF P(w6 ) = P(S1 ∩ S2 ∩ F3 ∩ F4 ) = P(S1 )P(S2 )P(F3 )P(F4 ) = p2 (1 − p)2 7 SFSF P(w7 ) = P(S1 ∩ F2 ∩ F3 ∩ F4 ) = P(S1 )P(F2 )P(S3 )P(F4 ) = p2 (1 − p)2 8 SFFS P(w8 ) = P(S1 ∩ F2 ∩ F3 ∩ S4 ) = P(S1 )P(F2 )P(F3 )P(S4 ) = p2 (1 − p)2 9 FSSF P(w9 ) = P(F1 ∩ S2 ∩ S3 ∩ F4 ) = P(F1 )P(S2 )P(S3 )P(F4 ) = p2 (1 − p)2 10 FSFS P(w10 ) = P(F1 ∩ S2 ∩ F3 ∩ S4 ) = P(F1 )P(S2 )P(F3 )P(S4 ) = p2 (1 − p)2 11 FFSS P(w11 ) = P(F1 ∩ F2 ∩ S3 ∩ S4 ) = P(F1 )P(F2 )P(S3 )P(S4 ) = p2 (1 − p)2 12 FSSS P(w12 ) = P(F1 ∩ S2 ∩ S3 ∩ S4 ) = P(F1 )P(S2 )P(S3 )P(S4 ) = p3 (1 − p) 13 SFSS P(w13 ) = P(S1 ∩ F2 ∩ S3 ∩ S4 ) = P(S1 )P(F2 )P(S3 )P(S4 ) = p3 (1 − p) 14 SSFS P(w14 ) = P(S1 ∩ S2 ∩ F3 ∩ S4 ) = P(S1 )P(S2 )P(F3 )P(S4 ) = p3 (1 − p) 15 SSSF P(w15 ) = P(S1 ∩ S2 ∩ S3 ∩ F4 ) = P(S1 )P(S2 )P(S3 )P(F4 ) = p3 (1 − p) 16 SSSS P(w16 ) = P(S1 ∩ S2 ∩ S3 ∩ S4 ) = P(S1 )P(S2 )P(S3 )P(S4 ) = p4 ind ind ind ind ind ind ind ind ind ind ind ind ind ind ind 11 1.3 EXERCÍCIOS Finalmente, dis j. P(A) = P(w6 ∪ w7 ∪ w8 ∪ w9 ∪ w10 ∪ w11 ) = 11 ∑ P(wi) = 6p2(1 − p)2. i=6 Questão: E se desejássemos determinar P(A), mas agora com base em uma amostra de tamanho 50? Obviamente o espaço amostral Ω torna-se mais complexo e, portanto, o cálculo de probabilidades diretamente em Ω fica mais difícil. Muitas vezes, o espaço amostral sequer é finito!! Solução: Tratamento das quantidades de interesse em ε e reconhecimento de leis de formação no cálculo de probabilidades. 1.3 Exercícios 1. Determine um espaço amostral para cada um dos seguintes experimentos aleatórios: a) Investigam-se famílias com 4 crianças, anotando-se a configuração segundo o sexo. b) Numa entrevista telefônica com 250 assinantes, pergunta-se se o proprietário tem ou não máquina de secar roupa. c) Mede-se a duração de lâmpadas, deixanso-as acesas até que queimem. d) Um fichário com 10 nomes contém 3 nomes de mulheres. Seleciona-se ficha após ficha, até o último nome de mulher ser selecionado e anota-se o número de fichas selecionadas. e) De um grupo de 5 pessoas {A, B,C, D, E} sorteiam-se duas, uma após a outra, com reposição, e anota-se a configuração formada. f) Idem, considerando sorteio sem reposição. 2. Expresse em termos de operações entre eventos: a) A ocorre, mas B não ocorre. b) Exatamente um dos eventos A e B ocorre. c) Nenhum dos eventos A e B ocorrem. 3. Na figura 1 (ao final da lista), temos um sistema com três componentes funcionando independentemente, com confiabilidades (probabilidades de funcionamento) p1 , p2 e p3 . Obtenha a confiabilidade do sistema. 4. Na tabela a seguir, os números que aparecem são as probabilidades das interseções entre os eventos em questão. Verifique se A e B são independentes. 1.3 EXERCÍCIOS 12 5. Supondo que todos os componentes do sistema representado na figura 2 (ao final da lista) tenham confiabilidade p e funcionem independentemente, obtenha a confiabilidade do sistema. 6. Uma companhia produz circuitos integrados em três fábricas: I, II e III. A fábrica I produz 40% dos circuitos, enquanto a II e a III produzem 30% cada uma. As probabilidades de que um circuito integrado produzido por estas fábricas não funcione são 0, 01, 0, 04 e 0, 03, respectivamente. a) Escolhido um circuito na produção conjunta das três fábricas, qual é a probabilidade de não funcionar? b) Caso o circuito escolhido não funcione, qual é a probabilidade de ter sido fabricado por I? c) Caso o circuito escolhido funcione, qual é a probabilidade de ter sido fabricado por I? 7. Uma companhia de seguros analisou a freqüência com que 2000 segurados (1000 homens e 1000 mulheres) usaram hospital. Os resultados são apresentados na tabela a seguir: a) Qual a probabilidade de que uma pessoa segurada use o hospital? b) O uso do hospital independe do sexo do segurado? 8. Para se estudar o comportamento do mercado automobilístico, as marcas foram divididas em 3 categorias: marca F, marca W e as demais reunidas como marca X. Um estudo sobre os hábitos de mudança de marca mostrou o seguinte quadro de probabilidades: 1.3 EXERCÍCIOS 13 O primeiro carro que um indivíduo compra é da marca W com probabilidade 50 a) Qual é a probabilidade de que o terceiro carro de um indivíduo seja da marca W? b) Se o terceiro carro é da marca W, qual é a probabilidade de o primeiro também ter sido W? 9. Mostre que se A e B são eventos independentes, então: P(A ∩ Bc ) = P(A).P(Bc ) e P(Ac ∩ Bc ) = P(Ac ).P(Bc ). 10. Sejam A e B eventos tais que P(A) = 0, 4, P(A ∪ B) = 0, 7 e P(B) = p. a) Para qual valor de p A e B são disjuntos? b) Para qual valor de p A e B são independentes? 11. Suponha que nos sistemas representados nas figuras 3.a e 3.b, a probabilidade de que cada relé esteja fechado seja p e que a abertura ou fechamento de cada relé independa dos demais. Em cada caso, determine a probabilidade de que a corrente passe de L para R. C APÍTULO 2 Variáveis Aleatórias Discretas 2.1 Introdução Definição 2.1. Uma variável aleatória é uma função que confere um número real a cada resultado no espaço amostral de um experimento aleatório: X : Ω → RX ⊂ R w → X(w) Se o conjunto RX de valores possíveis de X for finito ou infinito enumerável, X é variável aleatória discreta. Caso contrário, X é variável aleatória contínua. Notação: Variáveis aleatórias são denotadas por letras maiúsculas. Realizações valores observados de variáveis aleatórias são denotados por letras minúsculas Exemplo 2.1. ε : Seleção aleatória de 100 pessoas. Defina as variáveis aleatórias: • X : número de pessoas, entre as 100, que possuem uma característica de interesse. RX = {0, 1, 2, 3, · · · , 100} → finito ⇒ X é v.a. discreta. • Y : proporção de pessoas, entre as 100, que possuem uma característica de interesse. 2 3 1 RY = {0, 100 , 100 , 100 , · · · , 1} → finito ⇒ Y é v.a. discreta. • Z : altura de cada uma das 100 pessoas. RZ = R+ → infinito, não enumerável ⇒ Z é v.a. contínua. • W : Número de pessoa selecionadas, com reposição, entre as 100, até que se encontre uma que tenha a característica de interesse RW = {1, 2, 3, · · · } → infinito, enumerável ⇒ W é v.a. discreta. Definição 2.2. A função de distribuição acumulada (f.d.a) de uma variável aleatória X é dada por: FX : R → [0, 1] x → FX (x) = P(X ≤ x). 14 (2.1) 2.1 INTRODUÇÃO 15 Definição 2.3. A função de probabilidade (f.p.) de uma variável aleatória discreta X é dada por: pX : R → [0, 1] x → pX (x) = P(X = x) (2.2) e satisfaz a: (i) pX (x) ≥ 0, ∀x (ii) ∑R pX (x) = 1. Se X é variável aleatória discreta, então sua f.d.a. á calculada da seguinte forma: FX (x) = P(X ≤ x) = ∑ pX (x j ). (2.3) x j ≤x A função de distribuição acumula, no caso discreto, tem a forma de função escada, como ilustra a figura 2.1, anulando-se quando x → −∞ e tendendo a 1 quando x → ∞. Ainda, apresenta saltos de magnitude pX (x) e os pontos de descontinuidade são os possíveis valores de X. Figura 2.1 Função de distribuição acumulada de uma variável aleatória discreta Assim como se pode obter a f.d.a. FX (x) a partir da f.p. pX (x), a recíproca também vale: pX (x) = FX (x) − FX (x−), FX (x−) = lim FX (x). x→x− (2.4) Definição 2.4. A coleção de pares [xi , pX (xi )] é denominada distribuição de probabilidades de X. 2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS 2.2 16 Alguns Modelos Probabilísticos para Variáveis Aleatórias Discretas Exemplo 2.2. Voltemos ao exemplo 1.3. Defina a variável aleatória: X → Número de pessoas sadias, entre as 4 selecionadas. Tem-se, então: i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 wi FFFF SFFF FSFF FFSF FFFS SSFF SFSF SFFS FSSF FSFS FFSS FSSS SFSS SSFS SSSF SSSS P(wi ) (1 − p)4 p(1 − p)3 p(1 − p)3 p(1 − p)3 p(1 − p)3 p2 (1 − p)2 p2 (1 − p)2 p2 (1 − p)2 p2 (1 − p)2 p2 (1 − p)2 p2 (1 − p)2 p3 (1 − p) p3 (1 − p) p3 (1 − p) p3 (1 − p) p4 x 0 1 1 1 1 2 2 2 2 2 2 3 3 3 3 4 Portanto, a distribuição de X é: pX (x) = P(X = x) µ 0 (1 − p)4 = µ 3 1 4p(1 − p) = µ 2 2 2 6p (1 − p) = µ 3 4p3 (1 − p) = µ 4 4 p = x Ou, resumidamente: µ pX (x) = = 0, 4 x 4 0 4 1 4 2 4 3 4 4 ¶ ¶ ¶ ¶ ¶ p0 (1 − p)4−0 p1 (1 − p)4−1 p2 (1 − p)4−2 p3 (1 − p)4−3 p4 (1 − p)4−4 ¶ px (1 − p)4−x , x = 0, 1, 2, 3, 4 para outros valores de X. 2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS 17 Observe que foi possível obter uma lei de formação ou fórmula fechada para ao cálculo das probabilidades associadas a quaisquer valores da variável aleatória X. Tem-se, então, um modelo probabilístico para X. Questão: Sob as mesmas condições anteriores, qual seria a distribuiçào de probabilidade da variável aleatória Y : número de sadios entre 100 pacientes selecionados? Passaremos a descrever, nas subseções a seguir, alguns dos modelos probabilísticos discretos mais usuais. 2.2.1 Uniforme Suponha um experimento aleatório ε determinado pela seleção aleatória de um valor, entre n valores possíveis, com espaço amostral Ω = {a1 , a2 , · · · , an }. Seja X a variável aleatória que indica o valor selecionado. X : Ω → RX = {x1 , x2 , · · · , xn } w → X(w) Note-se que, em geral, nesse caso, X é a função identidade, levando cada elemento do espaço amostral, ai , a xi = ai . Diz-se que a variável aleatória discreta X tem distribuição Uniforme se os n possíveis valores de X, RX = {x1 , x2 , · · · , xn } ocorrem todos com mesma probabilidade. Portanto, a função de probabilidade de X é: ½ 1 , x = x1 , x2 , · · · , xn (2.5) pX (x) = n 0, c.c. Notação: X ∼ U{x1 , x2 , · · · , xn } 2.2.2 Bernoulli(p) Suponha um experimento aleatório ε dado pela seleção aleatória de um elemento, que pode ser "sucesso" (S, com probabilidade p) ou "fracasso" (F, com probabilidade 1 − p, tendo-se, portanto, espaço amostral Ω = {S, F}. Seja X a variável aleatória indicadora de sucesso, isto é, ½ 1, se ocorre sucesso X= 0, c.c. . X : Ω → RX = {1, 0} w → X(w) 2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS 18 A função de probabilidade de X é: ½ pX (x) = px (1 − p)1−x , 0, c.c. x = 0, 1 (2.6) Notação: X ∼ Ber(p). 2.2.3 Binomial(n,p) Seja o experimento aleatório ε composto por n repetições de ensaios de Bernoulli independentes, todos com probabilidade de "sucesso" p, resultantes da seleção aleatória e com reposição de n elementos de uma população com tamanho qualquer. O espaço amostral associado a ε pode ser escrito como Ω = {a1 , a2 , · · · , an : ai = S ou F}. Denote por X variável aleatória que representa o número de sucessos observados nas n repetições. X : Ω → RX = {0, 1, 2, · · · , n} w → X(w) A função de probabilidade de X é: µ ¶ n px (1 − p)n−x , x pX (x) = 0, c.c. x = 0, 1, 2, · · · , n (2.7) Notação: X ∼ Bin(n, p) Obs: X ∼ Bin(1, p) ≡ X ∼ Ber(p) 2.2.4 Hipergeométrica(N,n,r) Adimita agora que o experimento aleatório de interesse, ε , seja composto por n repetições de ensaios de Bernoulli dependentes, todos com probabilidade de "sucesso" Nr , resultantes da seleção aleatória e sem reposição de uma amostra de tamanho n, a partir de uma população com N elementos, dos quais r são sucessos. Pode-se, então, representar o espaço amostral do experimento por: Ω = {a1 , a2 , · · · , an : ai = S ou F, ai 6= a j , i 6= j}. Seja X variável aleatória que registra o número de sucessos nas n repetições. X : Ω → RX = {0, 1, 2, · · · , min(n, r)} w → X(w) A função de probabilidade de X é: 2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS pX (x) = à 0, r x !à N −r n−x à ! N n c.c. 19 ! , x = 0, 1, 2, · · · , min(n, r) (2.8) Notação: X ∼ Hip(N, n, r) Aproximação da Hipergeométrica pela Binomial: As condições do experimento aleatório realizado no modelo Binomial diferem daquelas sob os quais vale o modelo Hipergeométrico apenas quanto à forma de seleção da amosta: com reposição ou sem reposição. Entretanto, se o tamanho da amostra for pequeno em relação à população, dificilmente um mesmo elemento será selecionado mais que uma vez e, portanto, a amostragem com reposição fornece resultados próximos aos da amostragem com¡reposição. ¢ Assim, se, no modelo Hipergeométrico, n < 0, 10N ⇒ X ∼ Hip(N, n, r) ≈ X ∼ Bin n, Nr . 2.2.5 Geométrica(p) Seja ε o experimento aleatório dado por repetições de ensaios de Bernoulli independentes, todos com probabilidade de "sucesso" p, resultantes da seleção aleatória e com reposição de elementos até obter sucesso, tendo, portanto, espaço amostral: Ω = {S, FS, FFS, · · · }. Defina X como a variável aleatória que representa o número de ensaios de Bernoulli até obter o 1o sucesso. X : Ω → RX = {1, 2, · · · } w → X(w) A função de probabilidade de X é: ½ pX (x) = Notação: X ∼ Geo(p) (1 − p)x−1 p, 0, c.c. x = 1, 2, · · · (2.9) 2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS 20 Propriedade de Falta de Memória da Geométrica: Se X ∼ Geo(p), então: P(X > t + s | X > t) = P(X > s) (2.10) Exercício: Demonstre a Propriedade de Falta de Memória da distribuição Geométrica. Dica: use a definição de probabilidade condicional e o fato de que a soma dos termos de uma P.G de razão q: a1 (1 − qn ) Sn = . 1−q 2.2.6 Pascal(r,p) ou Binomial Negativa(r,p) Seja o experimento aleatório ε composto por repetições de ensaios de Bernoulli independentes, todos com probabilidade de "sucesso" p, resultantes da seleção aleatória e com reposição de elementos até obter r sucessos. O espaço amostral é dado por Ω = {a1 , a2 , · · · , ak : ak = S e (r − 1)dos ai ’s são S, i < k, k ≥ r}. Defina X: a variável aleatória que registra o número de ensaios de Bernoulli até obter r sucessos. X : Ω → RX = {r, r + 1, · · · } w → X(w) A função de probabilidade de X é: µ ¶ x−1 pr (1 − p)n−r , r−1 pX (x) = 0, c.c. x = r, r + 1, · · · (2.11) Notação: X ∼ Pas(r, p) Obs: X ∼ Pas(1, p) ≡ X ∼ Geo(p) 2.2.7 Poisson(λ ) Definição 2.5. Um Processo de Poisson é definido pelas seguintes hipóteses: 1. Os números de ocorrências do processo durante intervalos de tempo não-sobrepostos constituem variáveis aleatórias independentes; 2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS 21 2. Se Xt é o número de ocorrências do processo no intervalo de [0,t) e Yt é o número de ocorrências do processo no intervalo de [t,t1 +t), para qualquer t1 > 0, então as variáveis aleatórias Xt e Yt têm a mesma distribuição de probabilidade; 3. Seja pn (t) = P(Xt = n). Então p1 (∆t) ≈ λ ∆t, se ∆t for suficientemente pequeno, onde λ é uma constante positiva; 4. Para ∆t suficientemente pequeno, ∑∞ k=2 pk (∆t) ≈ 0; 5. X0 = 0 ou, equivalentemente, p0 (0) = 1. O Modelo Poisson Seja um experimento aleatório ε satisfazendo as condições do Processo de Poisson e defina X∆t como a variável aleatória que denota o número de ocorrências do Processo de Poisson em um intervalo qualquer de comprimento ∆t. A função de probabilidade de X∆t é obtida resolvendo-se uma equação diferencial definida pelas hipóteses (a)-(e) (v. Paul Meyer para demonstração) e dada por: ( e−λ ∆t (λ ∆t)x x = 0, 1, · · · x! pX∆t (x) = (2.12) 0, c.c. Alguns exemplos usuais de Processos de Poisson são: • Número de chamadas chegando a uma central telefônica, durante um período de t instantes; • Número de estrelas encontradas em uma parte da Via Láctea com volume t; • Número de glóbulos sangüíneos visíveis em um microscópio, por unidade quadrada de área. Exemplo 2.3. Suponha que o número de ligações chegando a uma central telefônica tenha distribuição de Poisson com parâmetro λ = 5 ligações/minuto. Determine: (a) A probabilidade de ocorrerem mais que 2 ligações em 1 minuto (b) Idem, em 10 minutos. 2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS 22 Exemplo 2.4. Em um cruzamento com tráfego intenso, a probabilidade de um carro sofre acidente é bastante pequena e estimada como p = 0.0001. Durante certa parte do dia, por exemplo daàs 18:00h, um grande número de carros passa pelo cruzamento, algo como 10.000 carros. (a) Nessas condições, qual é a probabilidade de que 2 ou mais carros se acidem naquele período? (b) E se o número de carros passando pelo cruzamento for 100.000? (c) E se o número de carros passando pelo cruzamento for 500.000? Aproximação da Binomial(n,p) pela Poisson(np) Teorema 2.1. Seja X ∼ Bin(n, p). Então, quando n → ∞ e p → 0, de tal forma que np = λ , a distribuição de X aproxima-se da Poisson(λ = np) Demonstração: µ pX (x) = n x ¶ px (1 − p)n−x , x = 0, 1, 2, · · · , n = n! px (1 − p)n−x x!(n − x)! = n(n − 1)(n − 2) · · · (n − x + 1 x p (1 − p)n−x . x! (2.13) Façamos λ = np. ⇒ p = λn . µ ¶x µ ¶ n − λ n−x λ n n ³ ´n ³ n ´ µ n − 1 ¶ µ n − (x − 1) ¶ λ x n−n λ ³ ´ = ··· n n n x! n−λ x n(n − 1) · · · (n − (x − 1)) ⇒ pX (x) = x! n ³ ´ µ ¶ µ ¶ x n−λ n n 1 (x − 1) λ ³ ´ . = 1· 1− ··· 1− n n x! n−λ x n Agora, faça n → ∞, de tal forma que np = λ permaneça constante, o que implica que p → 0. µ ¶ λx 1 n lim pX (x) = lim 1 − n→∞ x! n→∞ n λ x e−λ = . ¤ x! 23 2.3 MOMENTOS DE VARIÁVEIS ALEATÓRIAS DISCRETAS Voltemos ao exemplo 2.4. Aplicando a aproximação, para n = 10.000, temos: a X ∼ Poisson(10.000 × 0.0001}) | {z 1 P(X ≥ 2) = 1 − P(X = 0) − P(X = 1) e−1 10 e−1 11 ≈ 1− − = 1 − 2e−1 = 0.26424. 0! 1! 2.3 Momentos de Variáveis Aleatórias Discretas Definição 2.6. O k-ésimo momento de uma variável aleatória X é dado por: µk = E[X k ] (2.14) Se X é variável aleatória discreta, então seu k-ésimo momento pode ser calculado por: µk = E[X k ] = ∑ xk pX (x) (2.15) x Em particular, • E[X] = µ1 • V [X] = E[X 2 ] − E 2 [X] = µ2 − µ12 A tabela a seguir resume o valor esperado e a variância de algumas variáveis aleatórias discretas. Distribuição de X E[X] V [X] Bernoulli(p) p p(1 − p) Binomial(n, p) np np(1 − p) Hipergeométrica(N, n, r) np N−n N−1 (p(1 − p), p = Nr Geométrica(p) 1 p (1−p) p2 Pascal(r, p) r p r(1−p) p2 Poisson(λ ) λ λ 2.4 EXERCÍCIOS 24 2.4 Exercícios 1. De um lote que contém 25 peças, das quais 5 são defeituosas, são escolhidas 4 ao acaso. Seja X o número de defeituosas encontradas. Estabeleça a distribuição de probabilidade de X, quando: a) As peças forem escolhidas com reposição; b) As peças forem escolhidas sem reposição. 2. Sabe-se que a v. a. X assume os valores 1, 2 e 3 e que sua f.d.a. F(x) é tal que: F(1) − F(1− ) = 1/3; F(2) − F(2− ) = 1/6; F(3) − F(3− ) = 1/2. Obtenha a distribuição de X, a f.d.a. F(x) de X e seus respectivos gráficos. Obs: F(l− ) é o limite de F(x) quando x tende a l pela esquerda. 3. Uma fábrica produz 10 recipientes de vidro por dia. Deve-se supor que exista uma probabilidade constante p = 0, 1 de produzir um recipiente defeituoso. Antes que esses recipientes sejam estocados, eles são inspecionados e e os defeituosos são separados. Admita que exista uma probabilidade constante r = 0, 1 de que um recpiente defeituoso seja mal classificado. Faça X igual ao número de recipientes classificados como defeituosos ao fim de um dia de produção. Admita que todos os recipientes fabricados em um dia sejam inspecionados naquele mesmo dia. a) Calcule P(X = 3) e P(X > 3). b) Obtenha a expressão de P(X = k) 4. Uma indústria fabrica peças, das quais 20% são defeituosas. Dois compradores, A e B, classificam as peças adquiridas em categorias I e II, pagando 1,20 u.m. e 0,80 u.m., respectivamente, para cada categoria. A classificação é feita de acordo com os seguintes critérios: Comprador A: Retira uma amostra aleatória de 5 peças. Se encontrar mais que uma defeituosa, classifica como II. Comprador B: Retira uma amostra aleatória de 10 peças. Se encontrar mais que duas defeituosa, classifica como II. a) Determine a função de probabilidade das variáveis aleatórias VA e VB . respectivamente os preços de venda aos compradores A e B. b) Determine a função de distribuição acumulada de VA e VB . c) Em média, qual dos compradores oferece maior lucro? d) Em uma situação de tomada de decisão real, o maior lucro médio (ou esperado) seria suficiente para definir a escolha? Que outros critérios poderiam ser levados em conta? 5. Uma companhia de seguros descobriu que somente cerca de 0,1% da população está incluída em certo tip de acidente a cada ano. Se seus 10.000 segurados são escolhidos, ao caso, na população; qual é a probabilidade de que não mais que 5 de seus clientes venham a estar incluídos em tal acidente no próximo ano? 2.4 EXERCÍCIOS 25 6. Uma fonte radioativa é observada por 7 intervalos de tempo, cada um com dez segundos de duração. O número de partículas emitidas durante cada período é contado. Suponha que o número de partículas emitidas, X, tenha distribuição de Poisson e que, em média, sejam emitidas 0,5 partículas por segundo. a) Qual é a probabiliadde de que, a cada um dos 7 intervalolos de tempo, 4 ou mais partículas sejam emitidas? b) Qual é a probabilidade de que, em ao menos 1 dos 7 intervalos, 4 ou mais partículas sejam emitidas? 7. A probabilidade de um bem sucedido lançamento de foguete é 0,8. Suponha que tentativas de lançamento sejam feitas até que tenham ocorrido 3 lançamentos bem sucedidos. a) Qual é a probabilidade de que exatamente 6 tentativas sejam necessárias? b) Qual é a probabilidade de que menos de 6 tentativas sejam necessárias? c) Se cada tentativa de lançamento custa 5.000 u.m. e se um lançamento falho custa 500 u.m. adicionais, determine o custo esperado da operação. d) Suponha agora que as tentativas sejam feitas até que três lançamentos consecutivos sejam bem sucedidos. Responda novamente as perguntas (a) e (b) nesse caso. 8. A probabilidade de que um bit seja transmitido com erro por um canal de transmissão digital é 0,1. Assuma que as transmissões sejam ensaios independentes. a) Seja X o número de bits transmitidos até que ocorra o primeiro erro. Determine a distribuição de X. b) Determine a probabilidade de se precisar observar mais que 5 ensaios de transmissão. c) Determine a probabilidade de se precisar observar mais que 5 ensaios de transmissão, após já se ter observado 3 ensaios, sem que ocorresse erro. d) Determine o número esperado e o coeficiente de variação do número de ensaios até o primeiro erro. O número esperado de ensaior é um bom preditor nesse caso? e) Seja Y o número de transmissões até a ocorrência do quarto erro. Determine a distribuição de Y . f) Determine a probabilidade de se precisar observar no máximo 6 ensaios de transmissão g) Determine o número esperado e o coeficiente de variação do número de ensaios até o quarto erro. 9. O número de navios petroleiros que chegam a uma certa refinaria, a cada dia, tem distribuição Poisson, com parâmetro λ = 2. As atuais instalações do porto podem atender a três petroleiros por dia. Se mais de três petroleiros aportarem por dia, os excedentes a três deverão seguir para outro porto. a) Em um dia, qual é a probabilidade de se ter de mandar petroleiros a outro porto? 2.4 EXERCÍCIOS 26 b) De quanto deverão as atuais instalações ser aumentadas para permitir manobrar todos os petroleiros, em aproximadamente 90% dos dias? c) Qual é o número esperado de petroleiros a chegarem por dia? d) Qual é o número mais provável de petroleiros a chegarem num dia? e) Qual é o número esperado de petroleiros atendidos diariamente? f) Qual é o número esperado de petroleiros que voltarão a outros portos diariamente? 10. Em uma fábrica, a produção de 850 peças resultou em 50 peças não-conformes. Duas peças são selecionadas ao acaso, sem reposição. Seja X o número de peças não-conformes. a) Determine a distribuição de X. b) Determine P(X ≤ 2), de forma exata. c) Determine E[X] e V [X]. d) Determine P(X ≤ 2), de forma aproximada. Justifique o uso da aproximação. 11. Seja X ∼ Bernoulli(p). Mostre que E[X] = p e V [X] = pq, q = 1 − p. 12. Seja X ∼ Binomial(n, p). Mostre que E[X] = np e V [X] = npq, q = 1 − p. Dica: Use o resultado da questão 10 e os seguintes fatos: "uma variável com distribuição Binomial(n, p) pode ser escrita como a soma de n variáveis aleatórias Bernoulli(p) independentes. "O valor esperado de uma soma finita de variáveis aleatórias é igual à soma dos valores esperados. "A variância de uma soma finita de variáveis aleatórias independentes é igual à soma das variâncias. 13. Mostre que se X ∼ Geomtrica(p), então E[X] = 1/p e V [X] = q/p2 . 14. Seja X ∼ Pascal(r, p). Mostre que E[X] = r/p e V [X] = rq/p2 , q = 1 − p. Dica: Use o resultado da questão 12 e os seguintes fatos: "uma variável com distribuição Pascal (r,p) pode ser escrita como a soma de r variáveis aleatórias Geométricas(p) independentes. "O valor esperado de uma soma finita de variáveis aleatórias é igual à soma dos valores esperados. "A variância de uma soma finita de variáveis aleatórias independentes é igual à soma das variâncias. 15. Mostre que se X ∼ Poisson(λ ), então E[X] = λ e V [X] = λ . xk x Dica: ∑∞ k=0 k! = e . 2.4 EXERCÍCIOS 27 16. Mostre que se X ∼ Hipergeomtrica(N, n, r), então E[X] = np, p = r/N e V [X] = npq(N − n)/(N − 1), q = 1 − r/N. Dica → Use os seguintes fatos: C APÍTULO 3 Variáveis Aleatórias Contínuas 3.1 Introdução Definição 3.1. Uma variável aleatória contínua X é uma função levando do espaço amostral à reta real: X : Ω → RX ⊂ R ω → X(ω ), em que RX é um conjunto não-enumerável. Definição 3.2. A função densidade de probabilidade (f.d.p.) de uma variável aleatória contínua X é a função fX (x) que satisfaz a: (i) fRX (x) ≥ 0, ∀x ∞ (ii) −∞ fX (x)dx = 1 R (iii) P(X ∈ B) = B fX (x)dx Obs: Note que, de (iii), decorre que se X é variável aleatória contínua, então P(X = a) = a f X (x)dx = 0, ∀a ∈ R. Se X é variável aleatória contínua, então sua função de distribuição acumulada, definida por (2.2), é calculada por: Ra FX (x) = P(X ≤ x) = Z x −∞ fX (u)du. (3.1) A função de distribuição acumulada, no caso contínuo, é uma função crescente e contínua, tendendo a 0 quando x → −∞ e tendendo a 1 quando x → ∞, como ilustra a figura 3.1. Assim como se pode obter a f.d.a. FX (x) a partir da f.d.p. fX (x), a recíproca também vale: fX (x) = dFX (x) dx 28 (3.2) 3.1 INTRODUÇÃO 29 Figura 3.1 Função de distribuição acumulada de uma variável aleatória discreta A coleção de pares [xi , fX (xi )] é denominada distribuição de X. Obs: Para se determinar o quantil 100γ % da v.a. X, xγ , basta fazer: P(X ≤ xγ ) = γ ⇒ FX (xγ ) = γ ⇒ xγ = FX−1 (xγ ). Exemplo 3.1. Suponha que X seja uma variável aleatória com densidade: ½ fX (x) = 5e−5x , x ≥ 0 0, c.c. a) Mostre que a função acima é, de fato, uma função densidade de probabilidade para X ; b) Determine a função de distribuição acumulada de X e utilize-a para determinar os quartis de X. Exemplo 3.2. Suponha que X seja uma variável aleatória com densidade: ½ fX (x) = k(1− | x |), 0, c.c. −1 ≤ x ≤ 1 a) Determine o valor de k; b) Determine P(−1/2 < X < 2/3) c) Determine P(−1/2 < X < 2/3 | X > 0) d) Determine a função de distribuição acumulada de X e utilize-a para determinar os quartis de X e o percentil 90 e) Determine a moda de X . 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 30 3.2 Alguns Modelos Probabilísticos para Variáveis Aleatórias Contínuas 3.2.1 Uniforme Contínua(a, b) Diz-se que X tem distribuição uniforme contínua no intervalo(a, b) (ou [a, b], indiferentemente), se sua função densidade de probabilidade é constante: fX (x) = k, a < x < b. Das condições (i) e (ii) sobre funções densidade de probabilidade, tem-se que k > 0 e: Z ∞ −∞ kdx = Z b kdx ⇒ k = a 1 . b−a Assim, ½ fX (x) = 1 b−a , 0, a<x<b c.c. (3.3) Exercício: Ônibus chegam a uma parada a cada 15 minutos, começando às 7:00h. Se um passageiro chega ao ponto em um instante aleatório entre 7:00h e 7:30h, qual é a probabilidade de que espere pelo ônibus por menos que 5 minutos? Exercício: Mostre que se X ∼ U(a, b) então sua distribuição acumulada é dada por: 0, FX (x) = x−a b−a , 1, x<0 a<x<b x≥1 (3.4) 3.2.2 Normal(µ , σ 2 ) Diz-se que X tem distribuição Normal(µ , σ 2 ) ou Gaussiana Normal(µ , σ 2 )se sua função densidade de probabilidade é: fX (x) = p 1 (2π )σ 2 ½ exp (x − µ )2 − 2σ 2 ¾ , −∞ < x < ∞. (3.5) A curva determinada pela expressão acima tem formato de sino e é simétrica em torno de µ , com dispersão controlada pelo parâmetro σ 2 , tornando-se mais concentrada em torno de µ quanto menor for σ 2 . A figura 3.2 ilustra uma curva normal para um valor específico do par (µ , σ 2 ). 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 31 Figura 3.2 Função de densidade de uma variável aleatória normal Pela propriedade (iii) de funções de densidade, para calcular P(a < X < b), deveríamos solucionar a seguinte integral: ¾ ½ Z b Z b 1 (x − µ )2 p fX (x)dx = dx. (3.6) P(a < X < b) = exp − 2σ 2 a a (2π )σ 2 A integral acima, entretanto, não pode ser obtida de forma exata, sendo necessário fazer uso de métodos numéricos para obtê-la aproximadamente. Observe, porém, que cada valor atribuío ao par (µ , σ 2 ) modifica a função a ser integrada, tornando inviável a tarefa de se fazer a avaliação numérica de cada uma dessas integrais. Fazemos uso então do seguinte fato: se X ∼ N(µ , σ 2 ), então X −µ ∼ N(0, 1) (3.7) σ e diz-se que Z tem distribuição normal padrão ou normal reduzida. Têm-se disponíveis, então, tabelas com aproximações numéricas de probabilidades associadas apenas a variáveis normais padronizadas, de tal sorte que, para calcular probabilidades associadas a uma distribuição N(µ , σ 2 ) qualquer, basta reduzi-la à N(0, 1) e, então, consultar as probabilidades desejadas nessas tabelas. Z= Exercício: O lucro na venda de determinada peça depende de seu comprimento, que tem distribuição normal com média 40cm e variância 16cm2 . Se o comprimento estiver entre 36cm e 44cm, o lucro é R$10, 00. Se tiver comprimento inferior a 36cm, a peça é descartada, geragndo prejuízo de R$10, 00. Se o diâmetro for superior a 44cm, a peça é retrabalhada e o lucro proveniente é R$7, 00. Determine o lucro esperado da venda de uma de tais peças. 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 32 3.2.3 Exponencial(λ ) Diz-se que X tem distribuição Exponencial(λ > 0) se sua função densidade de probabilidade é: ½ fX (x) = λ e −λ x , x ≥ 0 0, c.c. (3.8) A densidade acima é assim;étrica positiva e seu formato, para alguns valores de λ , é exibido na figura 3.3: assume valor λ quando x = 0 e tende a 0 quando x → ∞. O parâmetro lambda controla a velocidade do decaimento, que se torna mais rápido quanto maior for λ . Figura 3.3 Função de densidade de uma variável aleatória Exponencial A função de distribuição acumulada Exponencial, portanto, é dada por: (3.1) FX (x) = Z x 0 fX (u)du = 1 − e−λ x . (3.9) Exercício: Mostre que a função de distribuição acumulada da distribuição Exponencial (λ ) é dada pela expressão(3.9). Relação entre a Poisson e a Exponencial Teorema 3.1. Se o número de ocorrências de um processo de contagens segue a distribuição Poisson(λ ), então as variáveis aleatórias "Tempo até a primeira ocorrência" e "Tempo entre quaisquer ocorrências sucessivas" do referido processo têm distribuição Exp(λ ). Demonstração em aula 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 33 Exemplo 3.3. Suponha que tremores de terra ocorram na região oeste dos EUA a uma taxa média de λ tremores por semana, seguindo um Processo de Poisson. Seja T a variável aleatória que denota o tempo até o próximo tremor. Determine a densidade de T . Propriedade de Falta de Memória da Exponencial Se X ∼ Exp(λ ), então: P(X > t + s | X > t) = P(X > s) (3.10) Obs:Podemos pensar na Propriedade de Falta de Memória implicando qucomponente cuja duração T ∼ Exp(λ ) está sendo estudada funcione sempre como novo, ou seja, seu potencial para falha é constante. Assim, a distribuição exponencial presta-se à modelagem do período de vida útil de um componente, mas não de períodos de desgaste ou aperfeiçoamento. Exercício: Demostre a Propriedade de Falta de Memória da distribuição Exponencial. Exercício: Suponha que a duração de ligações telefônicas em certa empresa tenha distribuição exponencial e que, em média, cada ligação dure 10 minutos. Se apenas um telefone está disponível e alguém começa a usar o telefone imediatamente antes de você, determine a probabilidade de que você precise esperar: a) mais que 10 minutos b) entre 10 e 20 minutos c) mais que 12 minutos, uma vez que já esteja esperando há 7 minutos. 3.2.4 Gama(α , λ ) Diz-se que X tem distribuição Gama(α , λ ) se sua função densidade de probabilidade é: ( fX (x) = λ α −λ x α −1 x , Γ(α ) e 0, c.c. x≥0 , (3.11) a qual é ilustrada na figura 3.2.4. No primeiro gráfico, tem-se o parâmetro λ fixo e diferentes valores para o parâmetro de forma, α . Para α ≤ 1 a função é monótona. Observe que o caso α = 1 equivale à densidade Exponencial(λ ). No segundo ggráfico, fixou-se o parâmetro de forma e vaiou-se λ . Note que quanto maior o valor de λ , mais rapidamente a função de densidade tende a zero. 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 34 Figura 3.4 Função de densidade de uma variável aleatória Gama A constante Γ(α ) presente no denominador de (3.15) é a função Gama, dada por: Γ(α ) = Z ∞ e−u uα −1 du. (3.12) o Se α é inteiro, então, resolvendo-se a integral acima recursivamente por partes , obtém-se: Γ(α ) = (α − 1)Γ(α − 1) ⇒ Γ(α ) = (α − 1)! (3.13) Assim, a função Gama pode ser vista como uma extensão da função fatorial, permitindo argumentos não-inteiros. Casos Particulares da Densidade Gama: • Se α = 1 ⇒ X ∼ Gama(α , λ ) ≡ X ∼ Exponencial(λ ). • Se α é inteiro, ⇒ X ∼ Gama(α , λ ) ≡ X ∼ Erlang(α , λ ). • Se α = n/2, λ = 1/2 ⇒ X ∼ Gama(n/2, 1/2) ≡ X ∼ χ 2 (n). Relação entre as Distribuições Poisson e Gama Teorema 3.2. Se o número de ocorrências de um processo de contagens segue a distribuição Poisson(λ ), então a variável aleatória "Tempo até a n-ésima ocorrência" do referido processo tem distribuição Gama(n, λ ). 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 35 Demonstração em aula Exemplo 3.4. As falhas em CPU’s de computadores usualmente são modeladas por processos de Poisson. Isso porque, tipicamente, as falhas não são causadas por desgaste, mas por eventos externos ao sistema. Assuma que as unidades que falham sejam imediatamente reparadas e que o número médio de falhas por hora seja 0,0001. determine as probabilidades de que: (a) o tempo entre falhas sucessivas exceda 10.000 horas; (b) o tempo até a quarta falha exceda 40.000 horas; (c) ocorram mais qe 3 falhas em 20.000 horas. Exercício: O tempo entre chegadas de clientes a um caixa eletrônico segue a distribuição Exponencial com média 5 minutos. Determine a probabilidade de que: (a) mais que 3 clientes cheguem em 10 minutos; (b) o tempo até a chegada do quinto cliente seja inferior a 15 minutos; (c) o tempo entre chegadas sucessivas exceda 7 minutos, uma vez que já se tenham passado 5 minutos sem que chegassem clientes. 3.2.5 Qui-quadrado(n) Um importante caso particular da distribuição Gama(α , λ ) é a distribuição Qui-quadrado 2 e obtida ao se fazer, na distribuição Gama, α = n com n graus de liberdade, denotada por χ(n) 2 2 se sua função densidade de probabilidade é e λ = 12 . Assim diz-se que X tem distribuição χ(n) dada por: ( (3.15) fX (x) = 1 2n/2−1 e−x/2 , 2n/2 Γ(n/2) 0, c.c. x≥0 (3.14) Questão: Como calcular probabilidades associadas a uma variável aleatória com distribuição 2 ? χ(n) • Caso 1: n = 2m (n é par). 2 = χ2 No caso em que o número de graus de liberdade é par, então χ(n) (2m) ≡ Gama(m, 1/2), sendo m inteiro. Já vimos que se o número de ocorrências de um processo de contagens segue a distribuição Poisson(λ ), então a variável aleatória "Tempo até a m-ésima ocorrência"do referido processo tem distribuição Gama(m, λ ). Então, a variável aleatória 2 = χ2 com distribuição X ∼ χ(n) (2m) ≡ Gama(m, 1/2) pode ser pensada como uma variável aleatória representando o tempo até a m-ésima ocorrência de um Processo de Poisson(1/2). Assim, os eventos {X > x} e {Nx ≤ m − 1} são equivalentes, sendo Nx a v.a. que denota o número de ocorrências do processo de Poisson até o "instante"x. Sabendo-se que Nx ∼ Poisson(x · 1/2), pode-se calcular probabilidades associadas a X usando-se a distribuição de Poisson. Para maiores detalhes, ver exemplos discutidos em aula. 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 36 Figura 3.5 Função de densidade de uma variável aleatória Qui-quadrado • Caso 2: n é "grande"(par ou ímpar). 2 é obtida quando o número de graus de liberUma aproximação para a distribuição χ(n) √ √ a 2 , então para n suficientemente grande, 2X ∼ dade é grande: Se X ∼ χ(n) Normal( 2n − 1, 1). Exemplo 3.5. Calculando probabilidades para X ∼ χ 2 . (a) Seja X ∼ χ82 . Determine Determine P(X > 8). 2 . Determine Determine P(X > 32). (b) Seja X ∼ χ30 2 . • Caso 3: n não atende aos casos acima: pode-se utilizar a tabela χ(n) Exemplo 3.6. Seja X ∼ χ72 . (a) Determine Determine P(X > 7). (b) Determine o valor x tal que P(X < x) = 0, 975. (c) Determine o valor x tal que P(X < x) = 0, 95. 3.2.6 Beta(α , β ) Diz-se que X tem distribuição Beta(α , β ) se sua função densidade de probabilidade é: ( fX (x) = Γ(α +β ) α −1 (1 − x)β −1 , Γ(α )Γ(β ) x 0, c.c. 0≤x≤1 (3.15) 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 37 Note que a densidade acima está definida para valores de X entre 0 e 1. Se a < X < b então 0 < Y = X−a b−a < 1 e Y pode ser modelada pela densidade Beta. Se α = 1 e β = 1, então Beta(α , β ) ≡ Uni f (0, 1). Se α = β , então a densidade é simétrica em torno de 0.5, tornando-se mais concentrada à medida que α = β aumenta. Se α < β , a densidade é assimétrica positiva e, para α > β , assimétrica negativa. A figura 3.6 exibe os formatos da densidade beta para diferentes valores de seus parâmetros. Figura 3.6 Função de densidade de uma variável aleatória Beta Exemplo 3.7. Seja X uma valores entre 30 e 50 e assuma que Y = Beta(2,1). Determine P(X > 40) X−30 50−30 tenha distribuição 3.2.7 Weibull(α , λ ) Diz-se que X tem distribuição Weibull(α , λ ) se sua função de distribuição acumulada é: ½ FX (x) = α 1 − e−(λ x) , 0, c.c. x≥0 (3.16) Então, (3.2) fX (x) = ½ α αλ α e−(λ x) xα −1 , 0, c.c. x≥0 (3.17) A figura 3.7 exibe a densidade Weibull para diferentes valores do parâmetro de forma, α . 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 38 Figura 3.7 Função de densidade de uma variável aleatória Weibull Obs 1: Se α = 1 ⇒ X ∼ Weibull(α , λ ) ≡ X ∼ Exponencial(λ ). Obs 2: A distribuição Weibull é muito utilizada em análises de confiabilidade, devido à sua versatilidade para modelar tempos de vida de componentes com taxa de falha crescente (α > 1), decrescente (α < 1) ou constante (α = 1). Aplicação em confiabilidade Nas análises de confiabilidade, tem-se interesse na modelagem da variável aleatória T , tempo de vida ou duração de um componente ou sistema. Suponha-se então que T tenha função densidade de probabilidade fT (t) e função de distribuição acumulada FT (t) = P(T ≤ t), dada por (3.1). Definição 3.3. A função de confiabilidade do componente no instante t ( R(t), do termo em inglês reliability) é a probabilidade de que ele sobreviva ao instante t, dada por: R(t) = P(T > t) = 1 − P(T ≤ t) = 1 − FT (t). Definição 3.4. A função taxa de falha, λ (t), mede para cada instante t o potencial de falha do componente, dado que este não tenha falhado até aquele instante, e é dada por: λ (t) = = = = = P(T < t + ∆t|X > t) ∆t→0 ∆t P(t < T < t + ∆t) lim ∆t→0 P(X > t)∆t FT (t + ∆t) − FT (t) 1 lim P(X > t) ∆t→0 ∆t 1 dFT (t) R(t) dt fT (t) . R(t) lim (3.18) 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 39 Quando T ∼ Weibull(α , λ ), substituindo-se (3.16) e (3.17) em (3.18), a taxa de falha é dada por: λ (t) = αλ α t α −1 . (3.19) Pode-se mostrar (pelo estudo de suas derivadas), que a função taxa de falha Weibull dada por (3.19) tem os seguintes comportamentos: • para α = 1 (em que se tem a distribuição Exponencial), a taxa de falha é constante e, portanto, adequada à modelagem de tempos de vida de componentes em seu período de vida útil, quando as falhas são causadas por eventos externos ao componente; • para α > 1 a taxa de falha Weibull é crescente, indicando aumento do potencial de falha com o passar do tempo, situação a que estão sujeitos componentes que se desgastam; • para α < 1 a taxa de falha Weibull é decrescente, indicando diminuição do potencial de falha com o passar do tempo. Exemplo 3.8. O tempo (horas) até a falha de determinado componente é modelado pela distribuição Weibull(2, 0.0002). (a) Determine a probabilidade de que o mecanismo sobreviva por pelo menos 4.500 horas; (b) Determine o tempo de vida que se deve garantir de forma que somente 1% dos componentes fabricados falhem antes do tempo garantido; (c) De acordo com o modelo postulado para o tempo de vida, o componente falha por causas aleatórias, melhora com o passar do tempo ou sofre desgaste? 3.2.8 T de Student(k) Diz-se que X tem distribuição t de Student com k graus de liberdade se sua função densidade de probabilidade é dada por: ¡ ¢ µ ¶−(k+1)/2 Γ k+1 x2 2 ¡ ¢ 1+ fX (x) = √ , k kπ Γ 2k −∞ < x < ∞. (3.20) A figura 3.8 exibe os comportamentos da densidade acima, para diferentes graus de liberdade k. Como se pode constatar, a densidade é simétrica em torno de zero (sua moda), com formato de sino, semelhante a distribuições normais com média nula. Entretanto, as caudas da distribuição T são mais pesadas que as da normal, o que significa que, quando x → −∞ ou x → ∞, a densidade aproxima-se de zero mais lentamente que a normal. À medida em que o número de graus de liberdade, k, aumenta, a distribuição T torna-se mais concentrada. No limite, quando k → ∞, a densidade T converge para a normal-padrão. Assim, para valores grandes de k, a distribuição T pode ser aproximada pela normal-padrão. 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 40 Figura 3.8 Função de densidade de uma variável aleatória T de Student A distribuição T tem como caso particular a distribuição Cauchy, quando k = 1. Embora a distribuição T seja sempre simétrica em torno de zero, a média da distribuição Cauchy não existe, pois a integral necessária ao cálculo do valor esperado não converge. Para valores k > 1 a média existe e, claramente, é nula, em virtude da simetria em torno de zero. De forma geral, se X ∼ T(k) então são finitos seus momentos de ordem n < k. Probabilidades associadas à distribuição T podem ser encontradas em tabelas, nas quais a linha correspondente a infinitos graus de liberdade reporta quantis da distribuição normalpadrão. Exemplo 3.9. Seja X ∼ T(k) . Determine os percentis 95, 97,5 e 99 de X , para: (a) k = 10 (b) k = 150 Observação: Um resultado importante e bastante aplicado em Inferência é o fato de que se 2 , então Z ∼ N(0, 1) e é independente de Q ∼ χ(n) Z T = q ∼ T(n) . Q n 2 Daí decorre que se X1 , · · · , Xn formam p n uma amostra aleatória de X ∼ N(µ , σ ) e s é o desvio2 padrão amostral, dado, por s = ∑i=1 (xi − x̄) /(n − 1), então: T= X̄ − µ ∼ T(n−1) . s/n Os fatos acima poderão ser provados no curso de Cálculo das Probabilidades III. Exemplo 3.10. Em uma linha de produção, determinada peça deve ser fabricada, em média, com µ = 10cm de comprimento. Toma-se uma amostra de 22 peças, obtendo-se comprimento 3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS 41 médio amostral x̄ = 11, 2cm e desvio-padrão s = 1, 5cm. Você julga que os valores observados na amostra fornecem indícios de que as peças produzidas estejam acordo com as especificações da linha de produção? (Isso equivale a perguntar: o valor obsevado para a média amostral é um valor típico se µ = 10cm ou é um valor discrepante, isto é, posicionado na cauda da distribuição de X̄ ?). Assuma que o comprimento X das peças produzidas seja modelado adequadamente pela distribuição Normal. 3.2.9 F de Fisher-Snedcor(d1 , d2 ) Diz-se que a variável aleatória contínua X tem distribuição F com d1 e d2 graus de liberdade se sua função densidade de probabilidade é dada por: fX (x) = Γ ³ 0, ´ d /2 d /2 d1 +d2 d1 1 d2 2 2 ³ ´ ³ ´ d d Γ 21 Γ 22 x(d1 /2)−1 , (d1 x+d2 )(d1 +d2 )/2 x ≥ 0; (3.21) c.c. A figura exibe os gráficos das densidades F para alguns valores de seus graus de liberdade, d1 e d2 . A distribuição é assimétrica positivam, tendo moda em zero quando d1 = 1 ou d1 = 2; caso contrário, a moda ocorre em algum ponto maior que zero. Figura 3.9 Função de densidade de uma variável aleatória F de Student Percentis associados à distribuição F podem ser obtidos em tabelas, que, em geral, fornecem apenas quantis superiores associados à distribuição: usualmente, os percentis 95, 97,5 e 99. Para se obter percentis inferiores, pode-se usar a propriedade descrita a seguir. Denote-se por xd1 ,d2 ,p o p-ésimo percentil da distribuição F com d1 e d2 graus de liberdade, ou seja, o valor tal que: P(Fd1 ,d2 ≤ xd1 ,d2 ,p ) = p. 3.3 MOMENTOS DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 42 Então tem-se que: xd1 ,d2 ,p = 1/xd2 ,d1 ,1−p . Exemplo 3.11. Obtenha o quantil 5% da distribuição F com 6 e 8 graus de liberdade. Observação: Um resultado importante e bastante aplicado em Inferência é o fato de que se Q1 ∼ χd21 e é independente de Q2 ∼ χd22 , então Q1 /d1 ∼ Fd1 ,d2 . Q2 /d2 T= Daí decorre que se X11 , · · · , X1n1 formam uma amostra aleatória de X ∼ N(µ1 , σ 2 ) independente de uma segunda amostra aleatória X21 , · · · , X2n2 X ∼ N(µ2 , σ 2 ), denotando-se por s2j a variância da amostra j, dada, por s2j = ∑ni=1 j (x ji − x̄ j )2 /(n j − 1), j = 1, 2, então: F= s21 ∼ Fn1 −1,n2 −1 . s22 Os fatos acima poderão ser provados no curso de Cálculo das Probabilidades III. 3.3 Momentos de Variáveis Aleatórias Contínuas Definição 3.5. O k-ésimo momento de uma variável aleatória X é dado por (2.14). Se X é variável aleatória contínua, então seu k-ésimo momento pode ser calculado por: Z µk = E[X ] = k xk fX (x)dx. (3.22) Em particular, • E[X] = µ1 • V [X] = E[X 2 ] − E 2 [X] = µ2 − µ12 A tabela a seguir resume o valor esperado e a variância de algumas variáveis aleatórias contínuas. 43 3.4 EXERCÍCIOS Distribuição de X E[X] V [X] Uniforme(a, b) a+b 2 (b−a)2 12 Normal(µ , σ 2 ) µ σ2 Exponencial(λ ) 1 λ 1 λ2 Gama(α , λ ) α λ α λ2 χn2 n 2n Beta(α , β ) α α +β αβ (α +β )2 (α +β +1) Weibull(α , λ ) 1 1 λΓ α T(k) 0, se k > 1 k k−2 , F(d1 , d2 ) d2 d2 −2 , 2d22 (d1 +d2 −2) , d1 (d2 −2)2 (d2 −4) ¡ +1 ¢ se d2 > 2 3.4 ¡ 1 Γ α2 λ2 ¢ £ ¡ ¢¤2 + 1 − λ12 Γ α2 + 1 se k > 2 se d2 > 4 Exercícios 1. A demanda diária de arroz em um supermercado em centenas de quilos, é uma v.a. X com funçào densidade de probabilidade: 2x 3, 0<x<1 fX (x) = 1 − 3x , 1 < x < 3 0, c.c. a) Mostre que fx (x) é uma função densidade de probabilidade para a demanda de arroz. b) Qual é a probabilidade de, em um dia escolhido ao acaso, se vender mais que 150kg de arroz? c) Em 30 dias, quanto o gerente do supermercado espera vender? d) Determine a função de distribuição acumulada de X. e) Qual é a quantidade de arroz que deve ser deixada à disposição do público diariamente para que não falte arroz com 95% de probabilidade? 3.4 EXERCÍCIOS 44 f) Qual é a demanda mediana de arroz? g) E a demanda modal? 2. A temperatura T de destilação do petróleo é crucial na determinação da qualidade final do produto. Suponha que T seja considerada uma v.a. com distribuição uniforme no intervalo de 150 a 300. Suponha que o custo para produzir um galão de petróleo seja C1 u.m. Se o óleo é destilado a uma temperatura inferior a 2000, o produto obtido é vendido a C2 u.m; se a temperatura for superior a 2000, o produto é vendido a C3 u.m. a) Fazer o gráfico da f.d.p de T. b) Qual o lucro esperado por galão? 3. O diâmetro X de rolamentos de esferas fabricados por certa fábrica tem distribuição N(0, 6140; (0, 0025)2 ). O lucro T de cada esfera depende de seu diâmetro e • T = 0, 10 se a esfera é boa (0, 6100 < X < 0, 6180) • T = 0, 05 se a esfera é recuperável (0, 6080 < X < 0, 6100) ou (0, 6180 < X < 0, 6200) • T = −0, 10 se a esfera é defeituosa (X < 0, 6080 ou X > 0, 6200). Determine E[T ]. 4. Em uma determinada localidade, a renda em 1000 u.m. é uma v.a. X com função densidade de probabilidade: fX (x) = x+1 10 , 0 < x < 2 1 − 18−3x 40 , 2 < x < 6 0, c.c. a) Mostre que fX (x) é uma função densidade de probabilidade para X. b) Determine a função de distribuição acumulada de X. c) Escolhida uma pessoa ao acaso, qual é a probabilidade de sua renda exceder 3.000u.m.? d) Determine a renda média nessa localidade. e) Determine a renda mediana nessa localidade. f) Determine o 1o e o 3o quartis da variável renda. 5. As notas de Estatística Econômica dos alunos de determinada universidade seguem a distribuição normal, com média 6,4 e desvio-padrão 0,8. O professor atribui graus A, B e C, da seguinte forma: • C, para notas inferiores a 5 • B, para notas entre 5 a 7,5 3.4 EXERCÍCIOS 45 • A, para notas entre 7,5 e 10. Em uma classe com 80 alunos, qual é o número esperado de alunos com grau A? B? C? 6. Suponha que o número de milhas que um carro percorre antes que sua bateria sofra desgaste tenha distribuição Exponencial com média 10.000 milhas. Se uma pessoa deseja fazer uma viagem de 5.000 milhas com uma bateria já usada por 8.000 milhas, qual é a probabilidade de terminar a viagem sem ter que trocar a bateria? 7. O tempo de vida dos pneus de certo fabricante tem distribuição Exponencial, com duração média de 50.000 km. a) Determine a probabilidade de que um pneu deste fabricante dure mais que 50.000 km. b) Qual é o tempo de vida que o fabricante deve garantir de forma que, no máximo, 1% dos compradores utilizem a garantia? c) Você acha que a distribuição exponencial é adequada a esta situação? Justifique. 8. O número de clientes chegando a um certo estabelecimento comercial segue a distribuição de Poisson. Em média, chegam 10 clientes a cada hora. a) Determine a probabilidade de que o tempo até a chegada do primeiro cliente exceda 5 minutos. b) Determine a probabilidade de que o tempo entre chegadas sucessivas de dois clientes quaisquer exceda 5 minutos. c) Determine a probabilidade de que o tempo até a chegada do quinto cliente exceda 30 minutos. d) Determine a probabilidade de que chegue algum cliente nos próximos 30 minutos, uma vez que nenhum cliente chegou na última hora. e) Determine o tempo médio entre chegas sucessivas. Este é um bom valor preditivo? f) Determine o tempo mediano entre chegadas sucessivas. g) Determine o tempo médio até a chegada do quinto cliente. Este é um bom valor preditivo? 9. Suponha-se que um fusível tenha uma duração de vida X, a qual pode ser considerada uma variável aleatória contínua com distribuição Exponencial. Existem dois processos pelos quais o fusível pode ser fabricado. O processo I apresenta uma duração de vida esperada de 100 horas, enquanto o processo II apresenta uma duração de vida esperada de 150 horas. Suponha-se que o processo II seja duas vezes mais custoso que o processo I, que custa 3,00 u.m. por fusível. Admita-se, além disso, que se um fusível durar menos que 200 horas, uma multa de 20 u.m. seja lançada sobre o fabricante. Qual proceslrfso deve ser empregado de forma a se minimizar o custo esperado? 3.4 EXERCÍCIOS 46 10. Seja X uma v. a. com distribuição Qui-quadrado com: a) 10 graus de liberdade. Determine, de forma exata, P(X>9). b) 120 graus de liberdade. Determine uma aproximação para P(X>140). 11. Determine os quantis 1%, 2,5%, 5%, 95%, 97,5% e 99% das seguintes distribuições: a) T9 b) T130 c) F8,9 . 12. Seja X uma variável aleatória com distribuição Beta(3,2). a) Determine a função de distribuição acumulada de X. b) Determine P(X>1/2). 13. Seja X uma variável aleatória com distribuição Weibull(3,0.005). a) Determine os quartis de X b) Suponha que X represente o tempo de vida (em de um componente. Determine a confiabilidade desse componente para 50 horas. c) Determine a probabilidade de que o componente dure mais que 250 horas, uma vez que já esteja em funcionamento por 200 horas. d) Determine a duração esperada do componente. O valor esperado é um bom preditor para essa variável aleatória? Use os seguintes fatos: Γ(1/3) = 2, 678939 e Γ(2/3) = 1, 354118. 14. Mostre que se X é uma variável aleatória contínua, com distribuição Uni f orme(a, b), então: (b−a)2 E[X] = a+b 2 e V [X] = 12 . 15. Mostre que se X ∼ Exponencial(λ ), então: E[X] = λ1 e V [X] = λ12 . 16. Mostre que se X ∼ Exponencial(λ ), então P(X > t + s|X > t) = P(X > s), ou seja, a distribuição Exponencial goza da propriedade de "Falta de Memória". 17. Mostre que se X ∼ Gama(α , λ ), então: E[X] = αλ e V [X] = λα2 . 18. Mostre que se X ∼ Weibull(α , λ ), então: ¢ ¢¤2 ¡ £ ¡ V [X] = λ12 Γ α2 + 1 − λ12 Γ α2 + 1 . C APÍTULO 4 Funções de Variáveis Aleatórias 4.1 Distribuição de Y = h(X) Muitas vezes, o modelo probabilístico para uma variável aleatória X é conhecido, mas se deseja obter a distribuição de probabilidade de uma segunda variável aleátória, Y , relacionada a X segundo: Y = h(X), h uma função real. 4.1.1 Caso1: X é variável aleatória discreta e Y = h(X) é variável aleatória discreta Se X é variável aleatória discreta com função de probabilidade conhecida pX (x) = P(X = x) e Y = h(X) é uma transformação biunívoca no conjunto de possíveis valores de X, RX . Então tem-se, a cada ponto y associado um único ponto X e a função de probabilidade de Y é dada por: pY (y) = pX [h−1 (y)], (4.1) em que h−1 denota a inversa da função h. Exemplo 4.1. Seja X uma variável aleatória com distribuição Geométrica ( p). Determine a distribuição de Y = h(X) = X 2 . Sob as mesmas condições anteriores, suponha-se, agora, que a transformação h não seja biunívoca, sendo o ponto Y = y associado a x1 , x2 , · · · , xk , isto é: y = h(x1 ) = h(x2 ) = · · · h(xk ). Nesse caso, a função de probabilidade de Y é dada por: pY (y) = ∑ pX (xi ). (4.2) xi :h(xi )=y Exemplo 4.2. Seja X a variável aleatória que denota o resultado do lançamento de um dado não-viciado. Determine a distribuição de Y , a variável indicadora de resultado par. 47 4.1 DISTRIBUIÇÃO DE Y = h(X) 48 4.1.2 Caso2: X é variável aleatória contínua e Y = h(X) é variável aleatória discreta Seja X uma variável aleatória contínua com função densidade de probabilidade conhecida fX (x) e suponha que Y = h(X) seja uma variável aleatória discreta. A função de probabilidade de Y é dada por: Z pY (y) = x:h(x)=y fX (x)dx. (4.3) Exemplo 4.3. O diâmetro X de rolamentos de esferas fabricados por certa fábrica tem distribuição N(0, 6140; (0, 0025)2 ). O lucro Y de cada esfera depende de seu diâmetro e • Y = 0, 10 se a esfera é boa (0, 6100 < X < 0, 6180) • Y = 0, 05 se a esfera é recuperável (0, 6080 < X < 0, 6100) ou (0, 6180 < X < 0, 6200) • Y = −0, 10 se a esfera é defeituosa (X < 0, 6080 ou X > 0, 6200). Determine a distribuição de Y . 4.1.3 Caso3: X é variável aleatória contínua e Y = h(X) é variável aleatória contínua Seja X uma variável aleatória contínua com função densidade de probabilidade conhecida fX (x) e suponha que Y = h(X) seja uma variável aleatória contínua. A função densidade de probabilidade de Y pode ser obtida da seguinte forma: 1. Parte-se da definição da distribuição acumulada de Y : FY (y) = P(Y ≤ y); 2. Escreve-se, na expressão acima, Y em função de X; 3. Isola-se X e obtém-se uma expressão para FY (y) em função de Fx e de y; 4. Usa-se o fato de que fY (y) = cadeia. dFY (y) dy , sendo a derivada obtida aplicando-se a regra da Exemplo 4.4. Seja X ∼ U(−1, 1). Determine a função densidade de probabilidade de Y = h(X) = X 2 . Exemplo 4.5. Seja X ∼ Exponencial(λ ). Determine a função densidade de probabilidade de Y = h(X) = X 2 . Os resultados acima podem ser resumidos no seguinte teorema: 4.2 ESPERANÇA DE Y = h(X) 49 Teorema 4.1. (Teorema do Jacobiano - versão univariada) Seja X função densidade de probabilidade conhecida fX (x) e defina Y = h(X), h uma função diferenciável e monótona (crescente ou decrescente) no conjunto de possíveis valores de X , RX . Então h é inversível em RX e a função densidade de probabilidade de Y é dada por: ¯ ¯ ¯ dx ¯ fY (y) = fX (x) ¯¯ ¯¯ dy ¯ −1 ¯ ¯ dh (y) ¯ −1 ¯. (4.4) = fX [h (y)] ¯¯ dy ¯ Demonstração em aula Exercício: Volte aos exemplos 4.4 e 4.5, verifique - em cada caso - se as condições do teorema 4.1 são válidas e, em caso afirmativo, utilize o teorema para determinar a função densidade de probabilidade de Y = h(X). Caso a função Y = h(X) não satisfaça as condições para aplicação do teorema 4.1 em RX , pode-se proceder da seguinte forma: 1. Obtém-se uma partição de RX tal que, em cada pedaço da partição, Y = h(X) é função monótona e diferenciável de X. Suponha que tal partição seja dada por: (R1 , · · · , Rk ), isto é: RX = R1 ∪ · · · ∪ Rk e Ri ∩ R j =, i 6= j; 2. Aplica-se o teorema do jacobiano a cada um dos pedaços da partição, obtendo-se, para cada pedaço, fi (y) por meio da equação (4.4); 3. Finalmente, a função densidade de probabilidade de Y é obtida: k fY (y) = ∑ fi (y). (4.5) i=1 Exercício: Volte ao exemplo 4.4 e determine a função densidade de probabilidade de Y . Esperança de Y = h(X) 4.2 Teorema 4.2. Para qualquer que seja a variável aleatória Y , tem-se: E[Y ] = Z ∞ 0 P(Y > y)dy − Z ∞ 0 P(Y < −y)dy. (4.6) 4.2 ESPERANÇA DE Y = h(X) 50 Demonstração:(caso contínuo - a demonstração do caso discreto é análoga) Z ∞ 0 P(Y > y)dy − Z ∞ P(Y < −y)dy = 0 Z ∞Z ∞ 0 = y fY (u)dudy − Z ∞ Z −y 0 Z 0 Z ∞Z u −∞ Z −u fY (u)dudy fY (u)dydu − fY (u)dydu −∞ 0 Z ∞ µZ u ¶ Z 0 µZ −u ¶ = dy fY (u)du − dy fY (u)du 0 0 0 = Z ∞ 0 = Z ∞ 0 0 u fY (u)du − u fY (u)du + = E[Y ]. Z 0 −∞ Z 0 −∞ −∞ 0 −u fY (u)du u fY (u)du ¤ Teorema 4.3. Seja X uma variável aleatória discreta (com função de probabilidade conhecida pX (x)) ou contínua (com função densidade de probabilidade conhecida fX (x)) e defina Y = h(X). Então: ½ ∑ h(x)pX (x), se X é discreta E[Y ] = E[h(X)] = R x (4.7) h(x) fX (x)dx, se X é contínua Demonstração: (caso contínuo - a demonstração do caso discreto é análoga) Aplicando o teorema 4.2, temos que: E[Y ] = E[h(X)] = Z ∞ Z ∞ P(h(X) > y)dy − P(h(X) < −y)dy 0 µ ¶ Z ∞ Z Z ∞ µZ = fX (x)dx dy − 0 fX (x)dx x:h(x)<−y Z Z Z −h(x) fX (x)dydx − fX (x)dydx x:h(x)>0 0 x:h(x)<0 0 Z Z h(x) Z Z −h(x) dy fX (x)dx − dy fX (x)dx x:h(x)>0 0 x:h(x)<0 0 0 = = x:h(x)>y Z h(x) Z x:h(x)>0 h(x) fX (x)dx − Z = x:h(x)>0 Z ∞ −∞ 0 Z = = ¶ x:h(x)<0 −h(x) fX (x)dx Z h(x) fX (x)dx + h(x) fX (x)dx. x:h(x)<0 h(x) fX (x)dx ¤ Exemplo 4.6. Utilize o teorema 4.3 para determinar E[Y ] nos exemplos 4.4 e 4.5. dy 4.3 EXERCÍCIOS 51 4.3 Exercícios 1. Suponha que X seja uniformemente distribuída sobre (-1, 1). Seja Y = 4 − X 2 . Determine a função densidade de probabilidade de Y , faça seu gráfico e verifique, também, que é a função densidade de probabilidade adequada. 2. Suponha que X seja uniformemente distribuída sobre (1, 3). Determina a função densidade de probabilidade das seguintes variáveis aleatórias, verificando, em cada caso, que a função obtida é função densidade de probabilidade e esboçando seu gráfico. a) Y = 3X + 4 b) Z = eX 3. Suponha que a v. a. contínua X tenha função densidade de probabilidade fX (x) = e−x , x > 0. Determine a função densidade de probabilidade das seguintes variáveis aleatórias: a) Y = X 3 b) Z = 3/(X + 1)2 4. Suponha que a v. a. discreta X tome os valores 1, 2 e 3 com igual probabilidade. Ache a distribuição de probabilidade de Y = 2X + 3. 5. Suponha que X seja uniformemente distribuída sobre (0, 1). Determine a função densidade de probabilidade das seguintes variáveis aleatórias: a) Y = X 2 + 1 b) Z = 1/(X + 1) 6. Suponha que X seja uniformemente distribuída sobre (-1, 1). Determine a função densidade de probabilidade das seguintes variáveis aleatórias: a) Y = Sen(π X/2) b) Z = Cos(π X/2) c) W = |X|. 7. Suponha que o raio de uma esfera seja uma variável aleatória contínua. Em virtude de imprecisões no processo de fabricação, os raios das diferentes esferas podem ser diferentes. Suponha que o raio R tenha distribuição Beta(2,2). Determine a função densidade de probabilidade do volume V e da área superficial da esfera, A, bem como seus valores esperados. 8. Uma corrente elétrica oscilante I pode ser considerada uma v. a. uniformemente distribuída no intervalo (9, 11). Se essa corrente passar em um resistor de 2ohms, qual será a função densidade de probabilidade da potência P = 2I 2 ? E o valor esperado da potência? 4.3 EXERCÍCIOS 52 9. A velocidade de uma molécula em um gás uniforme em equilíbrio é uma v. a. V , cuja 2 função densidade de probabilidade é fV (v) = av2 e−bv , v > 0, b = m/2KT , k, T e m denotando, respectivamente, a constante de Boltzman, a temperatura absoluta e a massa da molécula. Determine a função densidade de probabilidade da energia cinética da molécula, W = mV 2 /2. Alguns resultados importantes: 2 2 10. Mostre que √ se X ∼ N(0, 1) então Y = h(X) = X ∼ χ1 . Γ(1/2) = π . Obs: Use o fato de que 11. Seja X uma variável aleatória qualquer e FX (x) = P(X ≤ x) sua função de distribuição acumulada. Note que FX (x) é função de X. Mostre que FX (x) tem distribuição Uniforme(0,1). 12. Seja X uma variável aleatória com distribuição Normal(µ , σ 2 ). Determine a distribuição de Y = eX . (Diz-se que Y tem distribuição lognormal com parâmetros µ e σ 2 ). 13. Seja X uma variável aleatória qualquer. Defina Y = a + bX (a e b constantes quaisquer). Use o teorema 4.3 para mostrar que E[Y ] = a + bE[X] e V [Y ] = b2V [X]. C APÍTULO 5 Funções Geratrizes de Momentos 5.1 Introdução Neste capítulo, trataremos de funções geratrizes de momentos, as quais, como o próprio nome revela, podem ser utilizadas para se determinar os momentos µk , k = 1, 2, · · · de uma variável aleatória. Além disso, como será visto, devido à propriedade de unicidade, as funções geratrizes podem ser utilizadas para identificar a distribuição de uma variável aleatória, assim como as funções de probabilidade, densidade de probabilidade ou de distribuição acumulada identificam. Uma outra utilidade das funções geratrizes, será a obtenção de propriedades reprodutivas, como descrito na seção 5.4. Definição 5.1. A função geratriz de momentos de uma variável aleatória X, MX (t), é dada por: £ ¤ MX (t) = E etX (5.1) e está definida ∀t ∈ R tal que a esperança acima seja finita. O cálculo de (5.1) depende da natureza da variável aleatória X: ½ £ tX ¤ teo4.3 ∑x etx pX (x), se X é discreta; R tx MX (t) = E e = e fX (x)dx, se X é contínua. 5.2 (5.2) Uso de MX (t) para determinação dos momentos de X A questão inicial a ser é: como utilizar a função geratriz MX (t) para obter o k-ésimo £ tratada ¤ k momento de X, µk = E X ? Observe que: d MX (t) dt d £ tX ¤ = E e dt· ¸ d tX e = E dt £ ¤ = E XetX , MX0 (t) = 53 (5.3) 5.2 USO DE MX (t) PARA DETERMINAÇÃO DOS MOMENTOS DE X 54 onde assumimos que podemos inverter as posições entre a derivada e o valor esperado, ou seja, que: · ¸ · ¸ d d tx tx e pX (x) = ∑ e pX (x) , se X é discreta; dt ∑ x x dt ·Z ¸ Z · ¸ d d tx tx e fX (x)dx = e fX (x)dx , se X é contínua. dt dt Essa operação pode ser justificada quase sempre e, nos modelos probabilísticos mais usuais, ela é válida. Voltemos agora a (5.3). Temos que: £ ¤ MX0 (0) = E Xe0 = E[X]. (5.4) Derivando novamente a função geratriz de momentos, temos: MX00 (t) = = (5.3) = = = ⇒ d2 MX (t) dt 2 d 0 M (t) dt X d £ tX ¤ E Xe dt· ¸ d tX E (Xe ) dt £ ¤ E X 2 etX , £ ¤ MX00 (0) = E X 2 e0 = E[X 2 ]. (5.5) De forma geral, tem-se: h i d (k) (k) µk = E X k = MX (0) = k MX (t)|t=0 , dt k = 1, 2, · · · . (5.6) Exemplo 5.1. Seja X ∼Binomial(n, p). Determine a função geratriz de momentos de X e utilize-a para obter E[X] e V [X]. Exemplo 5.2. Seja Z ∼Normal(0, 1). Determine a função geratriz de momentos de X e utilize-a para obter E[Z] e V [Z]. 55 5.3 PROPRIEDADES DA FUNÇÃO GERATRIZ DE MOMENTOS 5.3 Propriedades da Função Geratriz de Momentos 1. Unicidade A função geratriz de momentos de uma variável aleatória, quando existe (isto é, se (5.1) é finita), é única, de modo que se tivermos duas variáveis aleatórias X e Y com funções geratrizes de momentos MX (t) e MY (t), então se MX (t) = MY (t) ∀t, X e Y têm a mesma distribuição de probabilidades. Ainda, devido à propriedade de unicidade, a função gert2 atriz de momentos identifica a distribuição de X. Por exemplo, se MX (t) = e 2 (veja a solução do exemplo 5.2), então sabe-se que X ∼ N(0, 1). 2. Função Geratriz de Momentos de uma Função Linear de X Seja X uma variável aleatória com função geratriz de momentos conhecida, MX (t) e defina Y = a + bX, a e b constantes quaisquer. Então: MY (t) = eat MX (bt). (5.7) Demonstração em aula 3. Função Geratriz de Momentos da Soma de Variáveis Independentes Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes1 . Defina Y = X1 + X2 + · · · + Xn . Então2 : MY (t) = MX1 (t)MX2 (t) · · · MXn (t). (5.8) µ Exemplo 5.3. Sabemos que se X ∼ N(µ , σ 2 ), então Z = X− σ ∼ N(0, 1). Reciprocamente, pode-se escrever qualquer variável aleatória X ∼ N(µ , σ 2 ) como: X = µ + σ Z , Z ∼ N(0, 1). a) Utilize este fato, junto à propriedade (2) para determinar a função geratriz de momentos de X . (Lembre-se de que a função geratriz de momentos de Z já foi determinada no exemplo 5.2). b) Utilize a função geratriz de momentos de X para mostrar que E[X] = µ e V [X] = σ 2 . 1A 2A definição formal de independência entre variáveis aleatórias será dada no capítulo 6. demonstração desta propriedade poderá ser feita usando elementos disponíveis no capítulo 6. 5.4 USO DE FUNÇÕES GERATRIZES DE MOMENTOS PARA A DETERMINAÇÃO DE PROPRIEDADES REPRODUTIVAS 56 5.4 Uso de Funções Geratrizes de Momentos para a Determinação de Propriedades Reprodutivas A propriedade (3) pode ser usada, aliada à propriedade (1), para se determinar propriedades reprodutivas de variáveis aleatórias. Diz-se que determinada distribuição de probabilidades possui propriedade reprodutiva se, uma vez que duas (ou mais) variáveis aleatórias independentes (X1 , X2 , · · · , Xn ) seguindo tal distribuição sejam somadas, a variável aleatória Y = X1 + X2 + · · · + Xn siga a mesma distribuição de probabilidade em questão. Teorema 5.1. (Propriedade Reprodutiva da Distribuição Poisson) Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição Poisson(λi ), i=1,2,· · · , n. Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ Poisson(λ ), λ = ∑ni=1 λi . Teorema 5.2. (Propriedade Reprodutiva da Distribuição Binomial) Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição Binomial(ni , p), i=1,2,· · · , n. Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ Binomial(n, p), n = ∑ni=1 ni . Teorema 5.3. (Propriedade Reprodutiva da Distribuição Normal) Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada distribuição N(µi , σi2 ), ¡ n uma com ¢ 1, 2, · · · , n. Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ N ∑i=1 µi , ∑ni=1 σi2 . Teorema 5.4. (Propriedade Reprodutiva da Distribuição Qui-Quadrado) Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição χni , Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ χn , n = ∑ni=1 ni . i= i=1,2,· · · , n. Corolário: (Soma dos Quadrados de Normais Independentes) Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição N(0, 1). Defina Y = X12 + X22 + · · · Xn2 . Então Y ∼ χn2 . Embora a distribuição Exponencial não tenha propriedade reprodutiva, pode-se mostrar o seguinte resultado: Teorema 5.5. (Distribuição da Soma de Exponenciais Independentes) Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição Exponencial(λ , i=1,2,· · · , n. Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ Gama(n, λ ). 57 5.5 EXERCÍCIOS 5.5 Exercícios 1. Seja X ∼ Exp(λ ). a) Determine a f.g.m de X. b) Utilize a função obtida em (a) e determine: E[X] e V [X]. 2. X ∼ Poisson(λ ) y a) Mostre que a f.g.m de X é MX (t) = exp{λ (et − 1)}. Dica: ey = ∑∞ k=0 k! k b) Utilize a função obtida em (a) para determinar E[X] e V [X]. 3. Seja X Geo(p) Determine a f.g.m de X. 4. Seja Z ∼ N(0, 1). Mostre que a f.g.m de Z é MZ (t) = exp{t 2 /2}. 5. Seja X N(µ , σ 2 ). Então Z = Z. X−µ σ ∼ N(0, 1). Portanto, X pode ser escrita em função de a) Determine Mx (t). Dica: Use a função geratriz de momentos de Z. b) Use MX (t) para mostrar que: *E[X] = µ ; *V [X] = σ 2 ; * Se X1 , X2 , · · · , Xn são v.a’s independentes, cada uma com distribuição N(µ , σ 2 ) , então X1 + X2 + · · · + Xn ∼ N(nµ , nσ 2 ) (Teorema 5.3). Ainda, mostre que X̄ = (X1 + X2 + · · · + Xn )/n ∼ N(µ , σ 2 /n). 6. Um circuito é formado por 2 componentes que funcionam independentemente, com duração modelada pela exponencial. A duração média é 100 horas e se o primeiro componente falha , o segundo passa imediatamente a funcionar. Sejam T1 e T2 as v.a’s que representam, respectivamente as durações dos componentes 1 e 2. a) Determine as f.g.m’s de T1 e T2 b) Seja T o tempo de vida do circuito, use as funções obtidas em (a) para mostrar que T tem distribuição Gama c) Determine P(T > 200h). 7. Seja X ∼ Gama(α , λ ). a) Mostre que Mx(t) = ³ λ λ −t ´α , t < λ. b) Utilize a função obtida em (a) e determine: E[X] e V [X]. 8. Demontre o teorema 5.1. 9. Demontre o teorema 5.4 e seu corolário (dica: para o corolário, reveja o exercício 10 do capítulo 4). 10. Demontre o teorema 5.5.