UNIVERSIDADE FEDERAL DA BAHIA INSTITUTO DE MATEMÁTICA - DEPARTAMENTO DE ESTATÍSTICA MAT 027 - ESTATISTICA IV 450 400 350 No of obs 300 250 200 150 100 50 0 0 5 10 15 20 25 30 35 40 Upper Boundaries (x <= boundary) A P O S T I L A 2: P R O B A I L I D A D E 1 Expected Normal 1 INTRODUÇÃO Os estudos apresentados até o momento incidiram sobre a finalidade descritiva, isto é, visaram descrever as características de amostras efetivamente observadas. A partir de agora, passa-se ao estudo da inferência ou indução estatística, isto é, a generalização para o universo ou população correspondente às conclusões obtidas a partir da amostra. Nesse sentido, o cálculo das probabilidades é fundamental, razão pela qual iremos conhecer noções básicas sobre a teoria das probabilidades. O estudo da probabilidade teve sua origem ligada aos jogos de azar, que implicam em ações como girar uma roleta, lançar um dado ou uma moeda, retirar uma carta do baralho, etc. A estes jogos podemos associar duas características: a primeira é a da incerteza dos resultados em determinada tentativa; a segunda refere-se a regularidade que é observada a longo prazo. Na ciência experimental existe um tipo semelhante de incerteza e de regularidade a longo prazo. Por isso, nós nos utilizaremos destas experiências mais simples para gradativamente generalizar para o experimento desejado. Inicialmente precisaremos também introduzir alguns conceitos gerais, indispensáveis para o entendimento do leitor. 1.1 1.1.1 Tipos de Modelos Matemáticos: Determinísticos: ocorrem quando, dadas as condições de experimentação, pode-se determinar ou predizer com certeza o resultado final do experimento. Ex: Formulações matemáticas e físicas para comprovação de teorias, como a lei da queda e movimentos dos corpos. 1.1.2 Não-determinísticos (ou probabilísticos): ocorrem quando não é possível predizer, com certeza, o resultado antes da realização do experimento. Ex: Investigação sobre o efeito de um novo tratamento em pacientes. Ou o efeito de um fertilizante químico no solo. 1.2 Objetivo Geral da Teoria das Probabilidades Definição de um modelo matemático não-determinístico, que seja conveniente à descrição e interpretação dos fenômenos aleatórios. Algumas definições importantes: 1.2.1 Fenômenos ou Experimentos Aleatórios (E) São aqueles em que o processo de experimentação está sujeito a incertezas. Logo não é possível controlar as circunstâncias relevantes, não sendo possível prever com exatidão o resultado das manifestações individuais. Características de um experimento aleatório: 1. Cada experimento poderá ser repetido um grande número de vezes sob as mesmas condições; 2. Não podemos afirmar que resultado particular ocorrerá, porém podemos descrever o conjunto de todos os resultados possíveis do experimento - as possibilidades de resultado. 3. Quando o experimento é repetido um grande número de vezes, surgirá uma regularidade nos resultados. Esta regularidade, chamada de regularidade estatística, é que torna possível construir um modelo matemático preciso com o qual se analisará o experimento. 2 1.2.2 Espaço Amostral (Ω) Refere-se ao conjunto de todos os resultados possíveis de um experimento aleatório. Exemplo: 1. E: Lançamento de um dado e observação dos resultados Ω = {1, 2, 3, 4, 5, 6} 2. E: Utilização de um novo medicamento para uma dada doença em três pacientes e observação de cura ou não. Ω = {(C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C)}, onde C = representa o paciente curado e C = representa o paciente não curado. 1.2.3 Evento Refere-se a um resultado particular de um experimento. Utilizaremos letras maiúsculas para representar os eventos. Exemplos: em relação aos dois experimentos citados anteriormente teríamos: 1. Um evento possível seria: a ocorrência de números pares no lançamento de um dado. A = {2, 4, 6} 2. Um outro evento podederia ser: a observação de dois pacientes curados no segundo exemplo: D = {(C, C, C); (C, C, C); (C, C, C)} 1.2.4 Ponto Amostral Refere-se a um elemento qualquer de um evento, por exemplo o elemento (C, C, C) do último exemplo. Costuma-se definir um evento como qualquer subconjunto de um espaço amostral. Neste sentido, veremos agora uma pequena revisão da teoria de conjuntos, direcionada aos espaços amostrais e eventos. Operações entre eventos Entre eventos em um mesmo espaço amostral são permitidas todas as operações relativas aos conjuntos contidos num mesmo conjunto universo, como: união (∪), interseção (∩), diferença (−) ou diferença simétrica (4). Maiores detalhes com seu professor em sala de aula. Tipos de Eventos 1. Evento simples ou elementar É o evento formado por um único ponto amostral. Exemplo: D = {(C, C, C)} 2. Evento certo É o evento formado por todos os pontos amostrais. Exemplo: no exemplo do dado, temos F = {1, 2, 3, 4, 5, 6} = Ω é um evento certo. 3. Evento impossível É o evento que não possui elementos em Ω. Exemplo: ainda no exemplo do dado, seja G =“sair face 7”, G = ∅. 3 Relação entre Eventos 1. Eventos mutuamente exclusivos: Dizemos que dois eventos são mutuamente exclusivos quando a ocorrência de um impossibilita a ocorrência do outro, ou seja, se A e B são eventos mutuamente exclusivos então A ∩ B = ∅ Ex.: E : Lançamento de um dado =⇒ Ω = {1, 2, 3, 4, 5, 6} Evento A = {2, 4, 6}- ocorrência de números pares Evento B = {1, 3, 5} - ocorrência de números ímpares A e B são eventos mutuamente exclusivos. 2. Eventos complementares Dizemos que dois eventos são complementares, se a união entre eles resulta no espaço amostral e se a interseção resultado num evento impossível, ou seja, se A e B são eventos complementares então A ∩ B =∅eA∪B=Ω Ex.: O evento C = {1, 2, 4} é o complementar do evento D = {3, 5, 6}, ou C = D. Ou ainda os eventos A e B do exemplo anterior são eventos cmplementares. 2 PROBABILIDADE Se conhecemos todos os resultados possíveis (Ω) de um experimento E então podemos determinar qual a chance de ocorrência de cada evento, ou seja, a probabilidade de ocorrência do evento. A probabilidade de ocorrência de um evento A será definida por P (A), que será: P (A) = número de casos favoráveis ao evento A número de casos possíveis em Ω Exemplos: 1. E: Lançamento de uma moeda Ω = {Cara, Coroa} A = “Aparecimento da face cara” =⇒ A = {Cara} n(A) 1 número de casos favoráveis ao evento A = = P (A) = número de casos possíveis em Ω n(Ω) 2 Então, concluímos que a probabilidade de se obter o resultado cara ao lançarmos uma moeda honesta é 1 de ou 50%. 2 2. E: Uma droga é lançada no mercado para tratamento de verminose em bois, e para testar sua ação foram utilizadas em três animais. Ω = {(C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C)}, onde C representa a cura e seu complementar C representa a não cura. (a) Seja A o evento que expressa três curas, então A = {(C, C, C)} número de casos favoráveis ao evento A n(A) 1 P (A) = = = número de casos possíveis em Ω n(Ω) 8 (b) Seja B o evento que expressa, pelo menos uma cura, então B = {(C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C); (C, C, C)} 7 n(B) = P (B) = n(Ω) 8 4 2.1 Axiomas de Probabilidade Sejam A e B eventos em um mesmo espaço amostral Ω. Dizemos que um número real p, que pode ser P (A) ou P (B), representa uma probabilidade, se e somente se, p satisfizer às seguintes condições: 1. 0 < p < 1 2. P (Ω) = 1 3. Se A e B são mutuamente exclusivos, P (A ∪ B) = P (A) + P (B), pois queP (A ∩ B) = 0 2.1.1 Teoremas: 1. Se φ é um evento impossível, então P (φ) = 0 2. Se A é o complementar de A, então P (A) = 1 − P (A) 3. Se A e B são eventos quaisquer em Ω, então: P (A ∪ B) = P (A) + P (B) − P (A ∩ B) Exemplo: Numa sala de aula há 5 alunos que pesam entre 54 e 60 Kg; e 26 alunos com peso entre 61 e 70 Kg. Ao selecionarmos um aluno ao acaso, qual a probabilidade de um aluno pesar entre 61 e 70 Kg? Considere a categorização 1. peso entre 54 e 60 quilos 2. peso entre 61 e 70 quilos Então Ω será formado por 5 pessoas da categoria 1 e 26 pessoas da categoria 2. Seja A o evento que engloba as pessoas com peso entre 61 e 70 quilos, portanto na categoria 2. Logo: 26 P (A) = = 0, 838 7 31 Podemos dizer portanto, que a probabilidade de selecionarmos um aluno com peso entre 61 e 70 quilos nesta sala de aula é de aproximadamente 83, 87%. 3 PROBABILIDADE CONDICIONAL Muitas vezes, dois eventos relacionam-se entre si de tal modo que a probabilidade de um ocorrer depende da ocorrência ou não do outro. Suponha que temos o resumo das informações de um levantamento de 100 idosos residentes em dez asilos da Grande Belo Horizonte. Na tabela a seguir, encontra-se a distribuição dos idosos segundo o peso e a pressão arterial. Tabela 1: distribuição dos idosos segundo o peso e a pressão arterial. Pressão Arterial Elevada Normal TOTAL Excessivo 10 15 25 PESO Normal 8 45 53 5 TOTAL Deficiente 2 20 22 20 80 100 Queremos a probalidade de selecionarmos ao acaso um idoso com pressão arterial elevada, sabendo-se que o indivíduo tem peso normal. Resolução: E: Selecionar um idoso Sejam os seguintes eventos: P: o indivíduo tem peso normal =>np = 53 C: o indivíduo apresenta pressão arterial elevada => nc = 20 Q: o indivíduo simultaneamente tem peso normal e pressão arterial elevada. Q = P ∩ C => nP ∩ C = 8 Assim: nQ = 8 Usando a definição de probabilidade, queremos calcular: 8 no .de casos favoráveis ao evento = = P (“ter pressão elevada, sabendo que tem peso normal”) = ∗ o n . de casos possíveis em Ω 53 o 0, 1509, pois que o n . total de idosos com peso normal é 53, dentre os quais 8 são tem pressão elevada. Note que há aqui uma redução do espaço amostral Ω, à qual chamamos de Ω∗ . Note ainda que Ω∗ representa apenas a porção de Ω referente à informação a priori que nos foi fornecia: “sabendo-se que o indivíduo tem peso normal ” Sabemos ainda que se dividirmos o numerador e o denominador de uma fração pelo mesmo número, ele não se altera. Assim, vamos dividí-los pelo tamanho do espaço amostral Ω (n = 100). Temos portanto: nP 8 nP ∩ C = = np 53 ∩C n np n = 8 100 53 100 = P (P ∩ C) = 0, 1509 P (P ) Então podemos verificar que a probabilidade de selecionarmos um idoso com pressão elevada, ao acaso, sabendo a priori que este indivíduo tem peso normal é o mesmo que calcularmos a probabilidade de ocorrência simultânea dos eventos ter pressão elevada e peso normal dividido pela probabilidade de ter peso normal. DEFINIÇÃO: Dados dois eventos A e B associados a um mesmo espaço amostral Ω, sendo P (A) > 0 e P (B) > 0, a probabilidade de ocorrência do evento B, condicionada à ocorrência do evento A (ou probabilidade de B dado A), é definida por: P (B|A) = P (A ∩ B) ; P (A) P (A ∩ B) P (B) Observe que no cálculo da probabilidade condicional ocorre uma redução do espaço amostral. A restrição é deefinida pelo “dado B” ou “dado A”, de acordo com a situação. e a probabilidade de A dado B é: Exemlo: Com os dados do exemplo anterior, calcule a probabilidade do idoso selecionado ter peso normal, dado que tem pressão arterial elevada? 8 P (P ∩ C) 8 2 = 100 P (P |C) = 20 = 20 = 5 = 0, 40 P (C) 100 3.1 Teorema do Produto (ou da Multiplicação) Muitas vezes queremos determinar a probabilidade de ocorrem dois eventos ao mesmo tempo ou um em seguida do outro. Consideremos para exemplificar que uma urna contém 3 bolas brancas e 2 bolas azuis. Uma bola será retirada da urna ao acaso e, em seguida, uma segunda bola será retirada também ao acaso, sem que a primeira tenha sido recolocada. Qual é a probabilidade de serem retiradas, primeiro uma bola azul e em seguida uma bola branca? 6 Como a urna contém 5 bolas: 3B e 2A, então a probabilidade da primeira bola ser azul é: 2 no . casos favoráveis = o n . casos possíveis 5 Devemos considerar agora que, se foi retirada uma bola azul, ficariam na urna 4 bolas: 3B e 1A. Então, a probabilidade de ser retirada uma bola branca da urna, dado que é retirada uma bola azul é: no . casos favoráveis 3 = no . casos possíveis 4 Para obtermos a probabilidade de ser retirada uma bola azul e, em seguida, uma bola branca, multiplicamos a probabilidade de ser retirada uma bola azul pela probabilidade de ser retirada uma bola branca, dado que a primeira bola retirada era azul. Então, faremos: 2 3 6 3 5 × 4 = 20 = 10 Poderíamos então enunciar o teorema do produto. 3.1.1 Teorema: Se A e B são dois eventos quaisquer associados ao mesmo espaço amostral, com probabilidades positivas, então a probabilidade de ocorrência simultânea de A e B, P (A ∩ B) é dada por: P (A ∩ B) = P (A).P (B|A) = P (B).P (A|B) P (A ∩ B) => P (A ∩ B) = P (A).P (B|A) P (B|A) = P (A) Exemplo: Em lote de 12 peças, 4 são defeituosas. Retira-se 2 peças do lote, uma após a outra, sem reposição. Qual a probabilidade de que ambas sejam boas? Resp: A = {primeira peça é boa} B = {segunda peça é boa} 8 7 56 14 × 11 = 132 = 28 P (A ∩ B) = P (A).P (B/A) = 12 66 = 33 = 0, 4242 3.2 INDEPENDÊNCIA ESTATÍSTICA Dizemos que dois eventos são estatisticamente independentes quando a ocorrência de um não interfere na ocorrência do outro. Se o evento A é estatisticamente independente do evento B,então P (A|B) = P (A). Assim como P (B|A) = P (B) Vimos, pelo teorema do Produto que: P (A ∩ B) = P (A).P (B|A) = P (B).P (A|B). Agora podemos reescrever esta expressão da seguinte forma para eventos independentes: P (A ∩ B) = P (A).P (B) = P (B).P (A) P (A).P (B) P (A ∩ B) = = P (A). Ou seja, a ocorrência de A não depende de B. Se B P (B) P (B) ocorre (dado B), isto não afetará a ocorrência de A. Assim, dados “n” eventos A1 , A2 , ..., An , diremos que eles são independentes se eles forem independentes 2 a 2, 3 a 3,..., n a n. Isto é, se as igualdades abaixo forem verificadas: P (A1 ∩ A2 ) = P (A1 )P (A2 ); ........; P (An−1 ∩ An) = P (An−1 ).P (An ) P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 ).P (A3 ); ...; P (An−2 ∩ An−1 ∩ An ) = P (An−2 )P (An−1 )P (An )... P (A1 ∩ A2 ∩ ... ∩ An ) = P (A1 ).P (A2 ).P (A3 ).....P (An ) Prova:P (A|B) = Exemplo: 7 Em uma caixa temos 10 peças, das quais 4 são defeituosas. São retiradas 2 peças da caixa, uma após a outra, com reposição. Calcular a probabilidade de que: 1. ambas sejam boas; 2. a primeira seja defeituosa e a segunda seja boa. Resp: O fato de tirar a primeira peça boa ou não, não irá influenciar na qualidade da segunda devido à reposição. Ou seja, as retiradas são independentes. Sejam então os eventos: 6 = 0, 6 A1 = {“a primeira bola é boa” } => P (A1 ) = 10 6 A2 = {“a segunda bola é boa”} => P (A2 ) = 10 = 0, 6 4 = 0, 4 B1 = {“a primeira bola é defeituosa”} => P (B1 ) = 10 Assim, dedvido à independência, teremos: 1. P (A1 ∩ A2 ) = 6 10 × 6 10 = 36 100 = 9 25 2. P (B1 ∩ A2 ) = 4 10 × 6 10 = 24 100 = 0, 24 = 0, 36 Obs.: Como já foi visto anteriormente nos teoremas de probabilidade: P (A ∪ B) = P (A) + P (B) − P (A ∩ B). Portanto, se A e B são independentes, então P (A ∪ B) = P (A) + P (B) − P (A).P (B). Este resultado costuma ser chamado de Teorema da Soma. Exemplo: Queremos obter a probabilidade de sair pelo menos uma cara, quando se joga uma moeda duas vezes. Resp: seja E= lançar uma moeda duas vezes. Ω = {(C, C), (C, C), (C, C), (C, C} A= {“sair cara no primeiro lance”} =⇒ A = {(C, C), (C, C)} B= {“sair cara no segundo lance”} =⇒ B = {(C, C), (C, C)} Queremos P (A ∪ B). Como são eventos independentes, temos: P (A ∪ B) = P (A) + P (B) − P (A).P (B) = 24 + 24 − 14 = 34 = 0, 75. Por outro lado, utilizando o fato de que A ∩ B = {(C, C)}, obteríamos a mesma probabilidade: P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 24 + 24 − 14 = 0, 75 3.3 LEMA DA PROBABILIDADE TOTAL Considere que o espaço amostral Ω possa ser dividido em eventos mutuamente exclusivos, por exemplo, A e A, sendo que A representa o complementar de A, com AUA = Ω e A ∩ A = ∅. Obs.: dizemos que os eventos A e A acima formam uma partição do espaço amostral Ω. Sejam B, C e D eventos quaisquer contidos em Ω, como na figura a seguir. A A B C D 8 Dessa forma podemos encontrar as probabilidades associadas aos eventos B, C e D, da seguinte forma: P (B) = P (B/A).P (A) + P (B/A).P (A) P (C) = P (C/A).P (A) + P (C/A).P (A) P (D) = P (D/A).P (A) + P (D/A).P (A) Exemplo: Considere que estejamos interessados em verificar a reação de um teste laboratorial para certa enfermidade. Sejam então os eventos a seguir: A = “não ter essa enfermidade” A = “ter uma certa enfermidade” =⇒ B = “apresentar reação positiva no teste laboratorial para a referida enfermidade”. Suponhamos que: P (B/A) = 0, 60; P (B/A) = 0, 30 P (A) = 0, 20; P (A) = 0, 80; De acordo com a expressão anterior, teremos: P (B) = P (B/A).P (A)+P (B/A).P (A) ⇐⇒ (0, 60).(0, 20)+ (0, 30).(0, 80) = 0, 36 A princípio teríamos P (A) = 0, 20, que permite ao investigador dizer que há 20% de probabilidade de um indivíduo tomado ao acaso desta população ter a enfermidade. Agora calculando P (B), obteremos o resultado que mostra que o conhecimento de que a reação foi positiva permite dizer com maior probabilidade de que o indivíduo selecionado ao acaso de uma população tenha a enfermidade em questão. Ou seja, o grau de incerteza diminuiu. De modo geral, se supusermos a seguinte partição de Ω: A1 , A2 , ..., An , tal que P (Ai ) 6= 0, para i = 1, 2, ..., n; e sendo F um evento qualquer de Ω, então: F ∩ A2 , F ∩ A3 , ..., F ∩ An é uma partição de F tal que: F ∩ A1 , P (F ) = n X i=1 P (F ∩ Ai ) = n X P (Ai ).P (F/Ai ), i=1 que constitui a expressão geral da probabilidade total. Exemplo: Suponha que temos dois dados, um azul e um vermelho. O dado vermelho tem duas faces “um” e quatro faces “dois”. O dado azul tem quatro faces “um” e duas faces “dois”. Escolha um dado ao acaso, jogue-o e observe a face superior. Qual é a probabilidade de sair a face “dois”? A = “escolher o dado azul” Resp: Seja A o evento “escolher dado vermelho” =⇒ Só teremos estas duas possibilidades, ou escolheremos o dado azul ou dado vermelho. As duas escolhas juntas formam o Ω e têm interseção vazia, ou seja, formam uma partição de Ω. Seja B o evento “sair face ‘dois”’. Assim P (B) irá depender de qual dado foi escolhido, logo: 4 2 6 + 12 = 12 = 12 será a probabilidade de P (B) = P (B/A).P (A) + P (B/A).P (A) = 46 × 12 + 26 × 12 = 12 sair a face “dois”. 3.4 REGRA DE BAYES Considere novamente o espaço amostrtal Ω, com a partição representada na figura abaixo: A1 A2 A4 A3 A6 An B A5 A1 , A2 , A3 , ..., An , são n eventos mutuamente exclusivos, tais que A1 ∪ A2 ∪ A3 ∪ ... ∪ An = Ω. 9 Sejam P (Ai ) as probabilidades conhecidas dos eventos da partição, e seja B um evento qualquer de Ω tal que conhecemos todas as probabilidades condicionais P (B/Ai ). Então, para cada “i” teremos: P (Ai /B) = P (Ai ).P (B/Ai ) , P (A1 ).P (B/A1 ) + P (A2 )..P (B/A2 ) + ..... + P (An ).P (B/An ) que constitui a Regra de Bayes. Podemos pensar que os Ai ’s são possíveis causas para B acontecer, e B seria a consequência. Digamos então que queiramos saber qual a probabilidade de Ak ser a causa que provoca B, ou seja: P (Ak /B), para algum k. Exemplo: Consideremos a seguinte configuração: Tabela 2: Distribuição das cores das bolas segundo as urnas. Cores Urnas u1 u2 u3 P retas 3 4 2 Brancas 1 3 3 V ermelhas 5 2 3 Escolheu-se uma urna ao acaso e dela extraiu-se uma bola ao acaso, verificando-se que a bola é branca. Qual a probabilidade da bola ter vindo da urna 2? E da urna 3? Solução: Sejam os eventos: u1 =“a urna 1 é a escolhida” u2 =“a urna 2 é a escolhida” u3 =“a urna 3 é a escolhida” br = “a bola estraída é branca”. 1 Assim: P (u1 ) = 3 ; P (u2 ) = 13 ; P (u3 ) = 13 . A probabilidade de ser escolhida qualquer uma das três urnas é a mesma. Além disso: P (br/u1 ) = 19 ; P (br/u2 ) = 39 = 13 ; P (br/u3 ) = 38 Queremos calcular: P (u2 /br) e P (u3 /br). Aplicando o Teorema de Bayes, teremos: 11 P (u2 )P (br/u2 ) = 1 1 31 13 1 1 = 24 P (u2 /br) = 59 P (u1 )P (br/u1 ) + P (u2 )P (br/u2 ) + P (u3 )P (br/u3 ) 39 + 33 + 38 P (u3 /br) = 3.4.1 P (u3 ).P (br/u3 ) = P (u1 ).P (br/u1 ) + P (u2 ).P (br/u2 ) + P (u3 ).P (br/u3 ) 11 39 + 13 38 11 33 + 11 38 = 27 59 APLICAÇÕES DA REGRA DE BAYES EM SAÚDE A principal aplicação da regra de Bayes em saúde está associada a testes diagnósticos. Vejamos as seguintes definições: 1. Valor preditivo positivo (VP+) de um teste diagnóstico é a probabilidade de que a pessoa tenha a doença, dado que o teste foi positivo, ou seja: VP+ = P(ter doença/teste +). 10 2. Valor preditivo negativo (VP−) de um teste diagnóstico é a probabilidade que a pessoa não tenha a doença, dado que o teste foi negativo, ou seja: VP− = P(não ter a doença/ teste −). Exemplo: Encontre os valores preditivos positivo e negativo para o teste cutâneo de diagnóstico da tuberculose. Suponha que 1, em cada 10.000 das pessoas que apresentaram teste cutâneo negativo para a tuberculose, tem a doença; e 1 pessoa, em 100 das que apresentaram resultado positivo do teste cutâneo para tuberculose, de fato apresentam a doença. Solução: Considere os eventos: B = ter a doença A = teste dar positivo =⇒ A = teste dar negativo. Definidos estes eventos e, de acordo com as suposições acima, temos P (B/A) = 0, 0001 e P (B/A) = 0, 01 ou seja, V P + = P (B/A) = 0, 01; V P − = P (B/A) = 1 − P (B/A) = 0, 9999 Assim, se o teste cutâneo é negativo, a pessoa muito provavelmente não terá a doença (V P − ≈ 1), enquanto que se o teste cutâneo for positivo a pessoa tem apenas uma pequena chance de ter a doença (V P + = 0, 01). Quanto maior o valor preditivo de um teste diagnóstico, mais válido será este teste. Idealmente gostaríamos de encontrar tanto o VP+ quanto o VP− iguais a 1. Desta forma teríamos um diagnóstico preciso da doença. Médicos frequentemente não podem medir diretamente o valor preditivo de um conjunto de sintomas. Contudo, eles podem mensurar a frequência com a qual alguns sintomas específicos ocorrem em pessoas doentes e normais. Estas medidas são definidas da seguinte forma: 3. Sensibilidade de um sintoma (ou conjunto de sintomas ou de um teste diagnóstico) é a probabilidade de que um sintoma esteja presente dado que a pessoa tenha a doença. 4. Especificidade de um sintoma (ou conjunto de sintomas ou de um teste diagnóstico) é a probabilidade que o sintoma não esteja presente dado que a pessoa não tem a doença. 5. Um falso negativo ocorre quando a pessoa, cujo resultado do teste aponta negativo, é de fato portadora da doença. 6. Um falso positivo ocorre quando a pessoa, cujo resultado do teste aponta positivo, efetivamente NÃO é portadora da doença. É importante que tanto a sensibilidade quanto a especificidade sejam altas para que um sintoma seja efetivamente preditivo para a doença. Exemplo: Suponha que a doença é o câncer de pulmão e o sintoma é o hábito de fumar. Se assumirmos que 90% das pessoas com câncer de pulmão e 50% das pessoas sem câncer de pulmão são fumantes, então a sensibilidade e a especificidade são 0, 9 e 0, 5, respectivamente. Obviamente o hábito de fumar não pode ser usado como ferramenta diagnóstica para prever casos de câncer de pulmão porque haverá muitos falsos positivos (pessoas normais que fumam). 3.4.2 Relação entre valor preditivo e sensibilidade/especificidade: Através da Regra de Bayes, pode-se encontrar facilmente uma relação entre a sensibilidade, a especificidade, e os valores preditivos positivo e negativo. Seja o evento A indicativo da ocorrência de dado sintoma e o evento B indicativo da ocorrência da doença. Assim temos: V P + = P (B/A), 11 pela Regra de Bayes: V P + = P (B/A) = P (A).P (B/A) , P (A/B).P (B) + P (A/B).P (B) onde P (A/B) é a sensibilidade, e P (A/B) é a especificidade. De maneira análoga, pode-se encontrar a relação entre o valor preditivo negativo e sensibilidade e especificidade. 4 VARIÁVEIS ALEATÓRIAS 4.1 CONCEITO DE VARIÁVEL ALEATÓRIA Sejam Ω o espaço amostral; A, B, C, D, etc. eventos de Ω e os respectivos pontos amostrais que formam Ω. No caso do tratamento de três pacientes com uma nova droga, temos todos os resultados possíveis, em relação à eficácia da droga, que serão: Ω = {(C, C, C), (C, C, C), (C, C, C), (C, C, C), (C, C, C), (C, C, C), (C, C, C), (C, C, C)} onde C = droga curou paciente C = droga não curou paciente O ponto amostral (C, C, C) representa 3 curas. O ponto amostral (C, C, C), assim como (C, C, C) e (C, C, C) representam duas curas; (C, C, C), (C, C, C), (C, C, C) representam uma cura e (C, C, C) representa nenhuma (zero) cura. Se estivéssemos interessados em determinar uma variável qualquer, digamos Y , que representasse o número de curas, Y poderia ser: y = 3 (três curas)− > P (ter três curas) = P (Y = 3) y = 2 (duas curas)− > P (ter duas curas) = P (Y = 2) y = 1 (uma cura)− > P (ter uma cura) = P (Y = 1) y = 0 (nenhuma cura)− > P (nenhuma cura) = P (Y = 0) 4.1.1 DEFINIÇÃO: Variável aleatória (v.a.) é uma função que associa a cada ponto amostral de Ω, um valor real. Ω ω1 R X ω2 x1 x2 x3 ω3 x4 ω4 ... Exemplo: Seja Y a variável aleatória que conta o número de curas no tratamento de três pacientes com uma nova droga. Se RY representa o conjunto de todos os valores que Y pode assumir, então RY = {0, 1, 2, 3}. ω (C, C, C) (C, C, C) (C, C, C) (C, C, C) (C, C, C) (C, C, C) (C, C, C) (C, C, C) 12 y 3 2 2 2 1 1 1 0 4.2 Função de Probabilidade É uma função matemática que associa probabilidades a valores assumidos pela variável aleatória X. Iremos diferenciar esta função para o caso em que a variável aleatória em estudo for discreta ou contínua. Cada um desses conceitos está a seguir. 5 Variável Aleatória Discreta A variável aleatória X é uma variável aleatória discreta, se o conjunto de valores que X pode assumir é um conjunto finito de valores ou um conjunto infinito enumerável. Exemplo: X = {0, 1, 2, 3, 4} X = {1, 2, 3, ...} 5.1 Função de Probabilidade para Variáveis Aleatórias Discretas A probabilidade de que a v.a. X assuma o valor x é uma função de X, que representamos por P (X = x) ou simplesmente px . A função P (X = x) determina a distribuição de probabilidades da v.a. X. Os valores assumidos por X, e suas probabilidades associadas, podem ser expressas por uma regra ou uma relação, que é chamada de função de probabilidade, referida também como distribuição de probabilidade da v.a. X. Exemplos: 1. Seja E o experimento: Lançamento de duas moedas, e sejam: X = no de caras obtidas Ω = {(C, C), (C, C), (C, C), (C, C)} Expressando em tabelas a distribuição de probabilidade P (X = x), temos: x P (X = x) 0 1 2 1 4 2 4 1 4 P(x) Graficamente teremos: 1/ 2 1/ 4 0 1 2 X ( 1 , x = 0, 1, 2 Ou ainda por fórmula temos: P (X = x) = . 4 0, caso contrário 2. Suponha que um médico concorda em usar uma nova droga anti-hipertensiva em um experimento com 4 pessoas, antes de adotar a droga para uso rotineiro. Seja X = no de pacientes entre os 4 que tiveram sucesso com a droga. Então X = 0, 1, 2, 3, 4. Suponha ainda que neste estudo ele encontre que a probabilidade de que nenhum paciente, dentre os 4, fique sob controle é de 0,08; de que apenas 1 paciente destes 4 é de 0,076; de que 2 deles é de 0,265; de que 3 deles 4 é 0,411, e de que todos os 4 pacientes é 0,240. Então, a distribuição de probabilidade desta variável será: x P (X = x) 0 0, 008 1 0, 076 13 2 0, 265 3 0, 411 4 0, 240 5.2 Função de Distribuição Acumulada (para variáveis aleatórias discretas) A função de distribuição acumulada de uma v.a. X num ponto x, é definida como sendo a probabilidade de que a v.a. X assuma um valor menor ou igual a x, isto é: F (x) = P (X ≤ x) 5.2.1 Propriedades: P 1. F (x) = P (xi ) 2. F (−∞) = 0 3. F (+∞) = 1 4. P (a < X ≤ b) = F (b) − F (a) Exemplo: Suponhamos que a v.a X assuma os valores 0, 1, 2 com probabilidades x P (X = x) 0 1/3 1 1/6 1 1 1 ; ; , respectivamente. Então: 3 6 12 2 1/2 F(x) 1 0, se x < 0 1/3, se 0 ≤ x < 1 F (x) = P (X ≤ x) = 1/2, se 1 ≤ x <≤ 2 1, se x ≤ 2 1/ 2 1/ 3 0 1 2 3 X A distribuição de probabilidade é uma boa maneira de se verificar o comportamento dos dados, fazendose uma analogia às distribuições de frequência. No entanto, se existem muitos números com probabilidade positiva, então esta distribuição deixa de ser uma medida de verificação do comportamento sumário dos dados. Assim, medidas de posição e de variação podem ser desenvolvidas para variáveis aleatórias de maneira análoga à que foi anteriormente verificada. • A média aritmética de X é referida como o valor esperado de uma v.a, ou média populacional e é denotada por E(X) ou µ. O valor esperado representa o valor médio da v.a, que é obtido da seguinte forma, para v.a. discretas: X xi P (X = xi ) µ = E(X) = i Exemplo: Usando os dados do exemplo de hipertensão, tem-se que: E(X) = 0 × (0, 008) + 1 × (0, 076) + 2 × (0, 265) + 3 × (0, 411) + 4 × (0, 240) = = 0 + 0, 076 + 0, 53 + 1, 233 + 0, 96 = 2, 799 ≈ 3 • A variância, análoga à σ2 , para uma v.a. é denotada por V ar(X) e representa a dispersão dos valores em relação ao valor esperado. A variância para uma v.a. discreta X é obtida da seguinte maneira: X (xi − µ)2 P (X = xi ) V ar(X) = i Consequentemente, σ, o desvio padrão de X será: σ = rP p V ar(X) = (xi − µ)2 P (X = xi ) i 14 5.3 PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADE (caso discreto) Algumas variáveis aleatórias merecem atenção especial no nosso estudo devido à sua importência e aplicabilidade. Algumas delas serão vistas agora. 5.3.1 DISTRIBUIÇÃO DE BERNOULLI Na vida real é freqüente nos depararmos com situações em que, mesmo que inconscientemente, utilizamos a Distribuição de Bernoulli. Esta distribuição é aplicada a variáveis que apresentam apenas duas possibilidades de resultados, que são chamadas de variáveis dicotômicas. Exemplos: 1. Observar se um domicílio possui ou não televisão 2. Observar se um estabelecimento agrícola possui ou não trator 3. Verificar se um paciente apresenta ou não determinado sintoma. Seja E um experimento aleatório. Ao resultado que nos interessa estudar vamos chamar de SUCESSO e qualquer outro resultado de FRACASSO ou INSUCESSO. Ao sucesso associamos o valor “um” e ao fracasso o valor “zero”. Além disso, considere que uma v.a. Y seja construída da seguinte forma: Se o resultado for sucesso então y = 1. Se não tivermos suceeso (ou seja, se o resultado for fracasso) então y = 0. Assim, P (ocorrer sucesso) = P (y = 1) = p P (ocorrer fracasso) = P (y = 0) = 1 − p = q ½ p, se y = 1 . Note que p é a probabilidade de ocorrer o sucesso. P (Y = y) = 1 − p, se y = 0 Exemplo: Seja E o lançamento de um dado. Considere como Sucesso ocorrer a face 5. Podemos definir a variável aleatória X da seguinte forma: ½ 1, se sair face 5 X= 0, se sair qualquer das faces 1,2,3,4 ou 6 1 no de eventos favoráveis = o n de eventos possíveis 6 1 1 6−1 5 P (X = 0) = é o complementar de = 1 − = = 6 6 6 6 Desse modo, P (X = 1) = P (de sair face5) = Média e Variância da Distribuição de Bernoulli • Se X tem distribuição de Bernoulli, então sua média µX será: E(X) = p • Se X tem distribuição de Bernoulli, então sua variância σ2X será: V ar(X) = pq =⇒ σX = 5.3.2 √ pq DISTRIBUIÇÃO BINOMIAL É definida quando se tem n ensaios independentes e se deseja contar quantos sucessos foram obtidos nas n tentativas. O modelo binomial é definido por: µ ¶ n P (X = x) = px (1 − p)n−x , para x = 0, 1, 2, ..., n x 15 onde n e p são chamados de parâmetros da distribuição. Notação: X ∼ B(n, p). Lê-se: “X tem distribuição Binommial com parâmetros n e p” Através do modelo binomial pretende-se calcular a probabilidade de ocorrência de x sucessos em n repetições independentes de um experimento. µ ¶ n(n − 1)...1 n! n = Lembremos que = x x!(n − x)! (n − x)(n − x − 1)...1 × x(x − 1)...1 Exemplos: Se a probabilidade de um estabelecimento possuir trator é 0,4; e se pesquisarmos 5 estabelecimentos, qual a probabilidade de: 1. exatamente dois possuírem trator? Solução: p = 0, 4 7−→ probabilidade de ter trator, ou seja, a probabilidade. de sucesso. (a) Entre os 5 estabelecimentos, ou seja, n = 5, a probabilidade de 2 terem tratores é: µ ¶ 5! 5 (0, 4)2 (0, 6)3 = P (X = 2) = (0, 4)2 (1 − 0, 4)5−2 = 2 (5 − 2)!2! 5.4.3.2.1 5! = = 10 = 10.(0, 4)2 .(0, 6)3 = 10.(0, 16).0, 216 = 0, 3456, pois (5 − 2)!2! 3.2.1.2.1 2. no máximo dois possuírem trator? Solução: Isto é representado por: P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) µ ¶ 5 5 !.1.(0, 6)5 = 0, 0778 P (X = 0) = p0 q 5 = 0 0!5! µ ¶ 5 P (X = 1) = p1 q 4 = 5.(0, 4).(0, 6)4 = 0, 2592 1 µ ¶ 5 P (X = 2) = p2 q 3 = 0, 3456 2 P (X ≤ 2) = 0, 0778 + 0, 2592 + 0, 3456 = 0, 6826 Outra solução: P (X ≤ 2) = 1 − P (X > 2) = 1 − [P (X = 3) + P (X = 4) + P (X = 5)] (...) 3. no mínimo três possuírem trator P (X ≥ 3) = P (X = 3) + P (X = 4) + P (X = 5) ou P (X ≥ 3) = 1 − P (X < 3) –> Muito usado quando queremos achar o máximo Como P (X < 3) = P (X ≤ 2) então: P (X ≥ 3) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)] = 1 − 0, 6826 = 0, 3174 Média e Variância da Distribuição Binomial • Se X tem distribuição binomial de parâmetros n e p, então a média ou valor esperado de X é: E(X) = np • Se X tem distribuição binomial de parâmetros n e p, então a varância de X, σ2X será: V ar(X) = npq. √ Logo o desvio padrão será: σX = npq Exemplo: Com os dados do exemplo anterior, calcule o número esperado de estabelecimentos agrícolas com trator, a variância e o desvio-padrão. E(X) = np = 5.(0, 4) = 2 estabelecimentos V (X) = npq = 5.(0, 4).(0, √ 6) = 1, 2 estabelecimentos √ D.P. = σ = npq = 1, 2 = 1, 0954 estabelecimentos 16 5.3.3 DISTRIBUIÇÃO DE POISSON A distribuição de Poisson é largamente empregada quando se deseja contar o número de eventos de um certo tipo, que ocorrem em um intervalo de tempo, ou superfície ou volume, tais como: 1. número de chamadas telefônicas recebidas por um PABX durante um intervalo pequeno de tempo; 2. número de falhas de um computador em um dia de operação; 3. número de relatórios de acidentes enviados a uma companhia de seguros em uma semana; 4. número de pacientes atendidos por plantão. Em muitos casos conhecemos o número de sucessos, porém se torna difícil e, às vezes, sem sentido, determinarmos o número de fracassos ou o número total de provas. De modo geral, dizemos que uma v.a. X tem uma distribuição de Poisson, com parâmetro λ > 0, se: P (X = x) = e−λ λx , x = 0, 1, 2, ... x! Notação: X ∼ P (λ). Lê-se: “X tem distribuição de Poisson com parâmetro λ” Embora a distribuição de Poisson tenha outras aplicações, aqui ela nos proporciona uma boa aproximação da distribuição binomial para n grande desde que p seja pequeno, caso em que λ = np. Média e Variância da Distribuição de Poisson Se X tem distribuição de Poisson com parâmetro λ, então a média e a variância de X serão iguais a λ : E(X) = V ar(X) = λ Exemplo: Uma central PABX recebe em média de 5 chamadas por minuto. Supondo que as chamadas que chegam constituam uma distribuição de Poisson, obtenha a probabilidade de que o PABX não receba chamadas durante o intervalo de um minuto. Solução: λ = 5 (chamadas por minuto) e−5 50 = e−5 = 0, 0067 P (X = 0) = 0! 6 Variável Aleatória Contínua A variável aleatória X é uma variável aleatória contínua, se o conjunto de valores que X pode assumir é um conjunto é um intervalo da reta real, como por exemplo: X ∈ (−∞, +∞); X ∈ [0, +∞), etc.. 6.1 A Distribuição Normal A distribuição Normal é uma das distribuições de probabilidade mais importantes na análise de fenômenos reais e de grande utilidade na Inferência Estatística e em Amostragem. Dizemos que uma variável aleatória X tem distribuição normal com média (esperança) µ e variância σ2 se sua função de probabilidade é dada por: 1 1 f (x) = √ exp{− 2 (x − µ)2 } ; −∞ < x < +∞. 2σ σ 2π com µ ∈ R e σ2 > 0. Notação: X ∼ N(µ, σ2 ). Lê-se: “X tem distribuição Normal com média µ e variância σ2 ” 17 6.1.1 Representação Gráfica da Curva Normal: f( x) Note que a curva é simétrica em torno da média. x µ Para calcularmos uma probabilidade qualquer, a partir da distribuição normal, devemos trabalhar com intervalos, pois a distribuição é contínua. Se queremos, por exemplo, P (a < X < b) ou P (X ≥ a) ou P (X ≤ b), devemos procurar pelas seguintes áreas, respectivamente: P (x) P (a < X < b) a x b 0 P(x) P (X ≥ a) P (X ≤ b) 0 a Para calcular tais áreas teríamos que usar o cálculo de Integrais. Como é complicado, esse cálculo foi feito para todas as áreas possíveis e foi tabelado. Mas o cálculo só foi feito para a Distribuição Normal com média = 0 e variância = 1. Essa Normal é chamada de Normal Padrão, e a variável aleatória é, em geral, representada pela letra Z. Pela notação anterior, temos: Z ∼ N(0, 1) que lemos: “Z tem distribuição Normal Padrão”. 6.1.2 Como transformar uma Normal qualquer em Normal Padrão Se a v.a. X é tal que X ∼ N(µ, σ2 ), entao a variável Z é obtida como uma transformação linear da v.a X da seguinte forma: Z= X −µ , σ 18 e dizemos que a v.a. Z tem distribuição normal com média 0 e variância 1: Z ∼ N(0, 1). A curva normal padrão é também conhecida como normal reduzida ou normal “zero-um”. A vantagem de transformarmos uma curva N(µ, σ2 ) em uma curva N(0, 1) está no fato de encontrarmos, na forma de tabela, todas as probabilidades referentes à curva normal-padrão. Na definição da v.a. Z, quando fazemos (X − µ) estamos mudando a origem da v.a X para a sua média; e quando dividimos pelo desvio-padrão de X, σ, estamos mudando a escala, ou seja, a diferença entre a v.a. X e a sua média passa a ser medida em unidades do desvio-padrão de X. 6.1.3 USO DA TABELA DA DISTRIBUIÇÃO NORMAL REDUZIDA Normalmente as tabelas sobre a curva normal-padrão informam apenas a área sob a função (ou a probabilidade) definida por um intervalo de zero a um valor zo qualquer positivo. Iremos trabalhar com esse tipo de tabela no nosso curso (ver tabela em anexo). Há vários tipos de tabelas que nos fornecem as áreas (probabilidades) sob a curva normal. O tipo mais frequente é a tabela da Faixa Central, sendo justamente dela que faremos uso. Os elementos dessa tabela estão a seguir: • A primeira coluna da tabela refere-se ao valor da abcissa de Z, considerando-se a parte inteira de zo , e à sua primeira casa decimal; • A primeira linha da tabela refere-se à segunda casa decimal do valor de zo ; • As probabilidades são encontradas no cruzamento das linhas com as colunas. Graficamente, a probabilidade fornecida pela tabela é a seguinte: f( x) 0 z 0 x A área sombreada no gráfico corresponde à seguinte probabilidade: P (0 < z < zo ) = Como a curva normal é uma função simétrica em relação à sua média: f (zo ) = entre −zo e zero serão iguais às probabilidades entre 0 e zo . Isto é: Rz0 0 f(−zo ), f(zo )dz as probabilidades P (−zo < Z < 0) = P (0 < Z < zo ) A área total sob a curva vale “um”, pois esta área representa a soma das probabilidades. Como a curva é simétrica, cada metade vale 0, 5, ou seja, P (zo > 0) = P (zo < 0) = 0, 5. 0 19 6.1.4 Alguns Exemplos: ÁREAS SIMPLES • P (0 ≤ Z ≤ 0, 51) = 0, 1950 0 0 ,5 1 • P (−2, 35 ≤ Z ≤ 0) = P (0 ≤ Z ≤ 2, 35) = 0, 4906 - 2 ,3 5 0 ÁREAS DUPLAS • P (−1 ≤ Z ≤ 1) A área que representa esta probabilidade é: -1 0 1 Esta área pode ser separada em duas sub-áreas, que são: + -1 0 0 1 P (−1 ≤ Z ≤ 1) = P (−1 ≤ Z ≤ 0) + P (0 ≤ Z ≤ 1) = 0, 3412 + 0, 3412 = 0, 6824 20 ÁREAS COMPLEMENTARES • P (Z ≥ 1, 62) A área que representa esta probabilidade é: 0 1 ,6 2 Esta área pode ser pensada da seguinte forma: _ 0 0 1 ,6 2 P (Z ≥ 1, 62) = 0, 5 − P (0 ≤ Z ≤ 1, 62) = 0, 5 − 0, 4474 = 0, 05226 ÁREAS INTERMEDIÁRIAS • P (1, 03 ≤ Z ≤ 2, 01) A área que representa esta probabilidade é: 0 1, 03 2, 01 Esta área pode ser pensada da seguinte forma: _ 0 2,01 0 1,03 P (1, 03 ≤ Z ≤ 2, 01) = P (0 ≤ Z ≤ 2, 01) − P (0 ≤ Z ≤ 1, 03) 21 DETERMINAÇÃO DO PONTO • P (0 ≤ Z ≤ zo ) = 0, 395 0 Z0 Para encontrar o ponto z0 , que corresponda à probabilidade P (0 ≤ Z ≤ z0 ) = 0, 395, vamos procurar no meio da tabela da curva normal-padrão o valor da área exata ou o mais próximo possível da requerida. Neste caso, o ponto que dá origem a esta área é 1, 25. Logo, z0 = 1, 25. 6.1.5 Cálculo de probabilidades sob uma curva NORMAL QUALQUER Considere a seguinte situação: X ∼ N(µ, σ 2 ), com µ 6= 0 e σ2 6= 1. Dada uma v.a. X com distribuição N(µ, σ2 ), para calcularmos uma probabilidade referente a esta distribuição, basta procedermos à redução da v.a. X para a v.a. Z. A área definida sob a curva normal-padrão será idêntica à área definida sob a curva N(µ, σ2 ), isto é, as probabilidade serão as mesmas. Exemplos: 1. Se X ∼ N(1; 0, 16) X −µ 1, 8 − µ 1, 8 − 1 0, 2 − µ 0, 2 − 1 ≤ ≤ ≤ Z ≤ ) = P( ) = σ σ σ 0, 4 0, 4 = P (−2 ≤ Z ≤ 2) = 0, 4772 + 0, 4772 = 0, 9544 P (0, 2 ≤ X ≤ 1, 8) = P ( 2. A altura de uma determinada classe é uma variável aleatória normal com média 175 cm e variância 225 cm2 . Qual a probabilidade de encontrarmos alunos com altura entre 165 e 187 cm? P (165 < X < 187) =? Para utilizarmos os valores das áreas (probabilidades) tabeladas, precisamos então padronizar a v. a. X, ou seja, se X ∼ N(175, 225), então: Z= X − 175 √ 225 Efetuando a trrasformação acima, temos: X −µ 187 − 175 165 − 175 < < ) = P (−0, 67 < Z < 0, 8) = P (165 < X < 187) = P ( 15 σ 15 = 0, 24860 + 0, 2881 = 0, 5367 Dizemos então que a probabilidade de um aluno desta classe medir entre 167 cm e 185 cm é de 53, 67%. 22 7 EXERCÍCIOS DE FIXAÇÃO 1. Quais as possíveis sequências dos sexos de recém-nascidos em três nascimentos ocorridos durante uma hora em certo hospital, denotando-se por M masculino e por F feminino? 2. Sendo Ω = {10, 20, 30, 40, 50, 60, 70, 80, 90, 100}, listar cada um dos subconjuntos de Ω: (a) A = { a | a é exatamente divisível por 3}; (b) B = { b | b é exatamente divisível por 4}; (c) AUB; (d) A ∩ B; (e) A ∩ B; (f) B − A; (g) A − B. 3. Um homem heterozigótico, do grupo sanguíneo A, casa-se com uma mulher homozigótica do grupo sanguíneo B. Descreva o espaço amostral F dos fenótipos dos descendentes e o espaço amostral G dos genótipos. 4. Um número inteiro é escolhido aleatoriamente dentre o números 1, 2, ....50. Qual a probabilidade de: (a) o número ser divisível por 5; (b) terminar em 3; (c) ser primo; (d) ser divisível por 6 ou por 8. 5. Numa urna são misturadas dez bolas numeradas de 1 a 10. Duas bolas são retiradas (a , b) sem reposição. Qual a probabilidade de a + b = 10? 6. Levantou-se dados relativos ao sistema sanguíneo Rh em uma amostra de 820 indivíduos residentes em São José do Rio Preto-SP. Obteve-se 737 indivíduos Rh+ e 83 com Rh−. Qual a probabilidade de um indivíduo pertencer à categoria Rh+? E à categoria Rh−? 7. Para verificar a regularidade estatística que encontramos quando repetimos um experimento um grande número de vezes, realize o seguinte experimento: Lance uma moeda k vezes e ao final do experimento calcule a probabilidade de se obter o resultado cara. Faça k = 5, 10, 20, 50 e 100. 8. No lançamento de dado, qual a probabilidade de sair uma face menor ou igual a 3, dado que o número é ímpar? 9. Um grupo de 100 pessoas apresenta, de acordo com o sexo e a filiação partidária, a seguinte posição: SEXO Homens Mulheres T OT AL PT 39 26 65 P MDB 21 14 35 T OT AL 60 40 100 Calcular: (a) a probabilidade de ser escolhido um homem; (b) a probabilidade de ser sorteado um homem filiado ao PT; 23 (c) se o sorteado for PT, qual a probabilidade de ser mulher; (d) se o sorteado for homem, qual a probabilidade de ser do PMDB. 10. Uma urna contém fichas numeradas de 1 a 4. Retira-se uma ficha da urna ao acaso e anota-se o número. Essa ficha então é recolocada na urna e retira-se novamente uma ficha, ao acaso, da urna. Qual a probabilidade de ter saído a ficha com número 1, na primeira retirada, e de ser 5 a soma dos números das duas fichas retiradas? 11. Considere uma urna contendo 3 bolas pretas e cinco bolas vermelhas. Retire duas bolas da urna, sem reposição. Calcule as probabilidades de se obter: (a) bola preta na primeira e segunda extrações; (b) bola vermelha na primeira e bola preta na segunda extração; 12. Sendo Ω = {1, 2, 3, 4} um espaço-amostral equiprovável e A = {1, 2}, B = {1, 3} e C = {1, 4}, três eventos de Ω. Verificar se os eventos A, B e C são independentes: 13. Queremos obter a probabilidade de uma carta, retirada de um baralho, ser um ás ou carta de espadas. 14. Uma caixa contém 10 bolas numeradas de 1 a 10. Tira-se uma bola da caixa, ao acaso. Anotamos o número da bola e a recolocamos na caixa. Fazemos uma nova retirada. Qual a probabilidade que a primeira ou a segunda bola tenham sido a de número 5? 15. Exemplo das urnas. Na figura abaixo, sejam: A = azul e B = branca. Vamos escolher uma bola da urna I e colocarmos na urna II. A seguir, vamos selecionar uma bola da urna II. B B A A B B B A A URNA I A A URNA II Queremos saber a probabilidade da segunda bola selecionada ser azul. 16. Um estudante sabe responder 50% das questões de um teste de escolha múltipla. As questões que não sabe resolver recebem uma resposta “à sorte” dentre as 5 alternativas. Dado que respondeu corretamente uma questão, qual a probabilidade de ter “adivinhado”? 17. Suponha que 84% dos hipertensos e 23% dos indivíduos normotensos são classificados como apresentando pressão alta por uma máquina automátiva de pressão sanguínea. Quais os valores preditivos positivo e negativo desta máquina, assumindo que 20% da população adulta é hipertensa? 18. Em otorrinolaringologia, estudos sobre a ocorrência de otite em crianças menores de 2 anos apontam para a seguinte distribuição de probabilidade: x P (X = x) 0 0, 129 1 0, 264 2 0, 271 3 0, 185 onde X representa o no de episódios de otite nos dois primeiros anos de vida. Encontre o número esperado de episódios de otite em crianças menores de 2 anos e sua dispersão. 19. Sabe-se que 90% das pessoas de uma amostra estudada são alérgicas a um novo medicamento. Escolhe-se 100 pessoas ao acaso entre o grupo estudado, qual a probabilidade de que pelo menos 80 sejam alérgicas? 24 20. Suponha que 300 erros de impressão sejam distribuídos aleatoriamente em um livro de 500 páginas. Encontre a probabilidade de uma determinada página conter: (a) exatamente 2 erros; (b) 2 ou mais erros. 21. Determine: (a) P (0 ≤ Z ≤ 0, 83); (b) P (−2, 01 ≤ Z ≤ 0); (c) P (−0, 43 ≤ Z ≤ 1, 24); (d) P (Z ≤ 1, 69); (e) P (Z > 2, 4); (f) P (Z > −0, 03); (g) P (Z < −1, 94); (h) P (1, 09 ≤ Z < 2, 45); (i) P (−2, 37 ≤ Z ≤ −0, 01); (j) zo tal que P (0 ≤ Z < zo ) = 0, 49010; (k) zo tal que P (Z < −zo) = 0, 2932. 22. Os depósitos efetuados em determinado Banco durante o mês de janeiro último são distribuídos normalmente, com média de 10.000 u.m. e desvio padrão de 1.500 u.m. Um depósito é selecionado, ao acaso, dos depósitos referentes ao mês em questão. Encontrar a probabilidade de que o depósito seja: (a) 10.000 ou menos; (b) pelo menos 10.000; (c) um valor entre 12.000 e 15.000; 23. O tempo gasto na produção de certa peça é normalmente distribuído. A Empresa A apresenta um tempo médio de produção de 27 dias e desvio padrão de 5 dias; na Empresa B a média é de 30 dias e desvio padrão de 2 dias. Qual a empresa que devo contratar para produzir a peça se a peça deve estar pronta em 30 dias, no máximo? 24. Com os mesmos dados da questão anterior, pergunta-se: E no prazo máximo de 34 dias? 25 Áreas sob a curva da distribuição Normal Padrão - P(0 < Z < z) z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 4.0 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 0.00 0.000000 0.039828 0.079260 0.117911 0.155422 0.191462 0.225747 0.258036 0.288145 0.315940 0.341345 0.364334 0.384930 0.403199 0.419243 0.433193 0.445201 0.455435 0.464070 0.471284 0.477250 0.482136 0.486097 0.489276 0.491802 0.493790 0.495339 0.496533 0.497445 0.498134 0.498650 0.499032 0.499313 0.499517 0.499663 0.499767 0.499841 0.499892 0.499928 0.499952 0.499968 0.499979 0.499987 0.499991 0.499995 0.499997 0.499998 0.499999 0.499999 0.01 0.003989 0.043795 0.083166 0.121719 0.159097 0.194974 0.229069 0.261148 0.291030 0.318589 0.343752 0.366500 0.386860 0.404902 0.420730 0.434478 0.446301 0.456367 0.464852 0.471933 0.477784 0.482571 0.486447 0.489556 0.492024 0.493963 0.495473 0.496636 0.497523 0.498193 0.498694 0.499064 0.499336 0.499533 0.499675 0.499776 0.499847 0.499896 0.499930 0.499954 0.499970 0.499980 0.499987 0.499992 0.499995 0.499997 0.499998 0.499999 0.499999 0.02 0.007978 0.047758 0.087064 0.125516 0.162757 0.198468 0.232371 0.264238 0.293892 0.321214 0.346136 0.368643 0.388767 0.406582 0.422196 0.435744 0.447384 0.457284 0.465621 0.472571 0.478308 0.482997 0.486791 0.489830 0.492240 0.494132 0.495603 0.496736 0.497599 0.498250 0.498736 0.499096 0.499359 0.499550 0.499687 0.499784 0.499853 0.499900 0.499933 0.499956 0.499971 0.499981 0.499988 0.499992 0.499995 0.499997 0.499998 0.499999 0.499999 0.03 0.011967 0.051717 0.090954 0.129300 0.166402 0.201944 0.235653 0.267305 0.296731 0.323814 0.348495 0.370762 0.390651 0.408241 0.423641 0.436992 0.448449 0.458185 0.466375 0.473197 0.478822 0.483414 0.487126 0.490097 0.492451 0.494297 0.495731 0.496833 0.497673 0.498305 0.498777 0.499126 0.499381 0.499566 0.499698 0.499792 0.499858 0.499904 0.499936 0.499958 0.499972 0.499982 0.499988 0.499993 0.499995 0.499997 0.499998 0.499999 0.499999 0.04 0.015953 0.055670 0.094835 0.133072 0.170031 0.205402 0.238914 0.270350 0.299546 0.326391 0.350830 0.372857 0.392512 0.409877 0.425066 0.438220 0.449497 0.459071 0.467116 0.473810 0.479325 0.483823 0.487455 0.490358 0.492656 0.494457 0.495855 0.496928 0.497744 0.498359 0.498817 0.499155 0.499402 0.499581 0.499709 0.499800 0.499864 0.499908 0.499938 0.499959 0.499973 0.499983 0.499989 0.499993 0.499995 0.499997 0.499998 0.499999 0.499999 26 0.05 0.019939 0.059618 0.098706 0.136831 0.173645 0.208840 0.242154 0.273373 0.302338 0.328944 0.353141 0.374928 0.394350 0.411492 0.426471 0.439429 0.450529 0.459941 0.467843 0.474412 0.479818 0.484222 0.487776 0.490613 0.492857 0.494614 0.495975 0.497020 0.497814 0.498411 0.498856 0.499184 0.499423 0.499596 0.499720 0.499807 0.499869 0.499912 0.499941 0.499961 0.499974 0.499983 0.499989 0.499993 0.499996 0.499997 0.499998 0.499999 0.499999 0.06 0.023922 0.063559 0.102568 0.140576 0.177242 0.212260 0.245373 0.276373 0.305106 0.331472 0.355428 0.376976 0.396165 0.413085 0.427855 0.440620 0.451543 0.460796 0.468557 0.475002 0.480301 0.484614 0.488089 0.490863 0.493053 0.494766 0.496093 0.497110 0.497882 0.498462 0.498893 0.499211 0.499443 0.499610 0.499730 0.499815 0.499874 0.499915 0.499943 0.499963 0.499975 0.499984 0.499990 0.499993 0.499996 0.499997 0.499998 0.499999 0.499999 0.07 0.027903 0.067495 0.106420 0.144309 0.180822 0.215661 0.248571 0.279350 0.307850 0.333977 0.357690 0.378999 0.397958 0.414656 0.429219 0.441792 0.452540 0.461636 0.469258 0.475581 0.480774 0.484997 0.488396 0.491106 0.493244 0.494915 0.496207 0.497197 0.497948 0.498511 0.498930 0.499238 0.499462 0.499624 0.499740 0.499821 0.499879 0.499918 0.499946 0.499964 0.499976 0.499985 0.499990 0.499994 0.499996 0.499998 0.499998 0.499999 0.499999 0.08 0.031881 0.071424 0.110261 0.148027 0.184386 0.219043 0.251748 0.282305 0.310570 0.336457 0.359929 0.381000 0.399727 0.416207 0.430563 0.442947 0.453521 0.462462 0.469946 0.476148 0.481237 0.485371 0.488696 0.491344 0.493431 0.495060 0.496319 0.497282 0.498012 0.498559 0.498965 0.499264 0.499481 0.499638 0.499749 0.499828 0.499883 0.499922 0.499948 0.499966 0.499977 0.499985 0.499991 0.499994 0.499996 0.499998 0.499999 0.499999 0.499999 0.09 0.035856 0.075345 0.114092 0.151732 0.187933 0.222405 0.254903 0.285236 0.313267 0.338913 0.362143 0.382977 0.401475 0.417736 0.431888 0.444083 0.454486 0.463273 0.470621 0.476705 0.481691 0.485738 0.488989 0.491576 0.493613 0.495201 0.496427 0.497365 0.498074 0.498605 0.498999 0.499289 0.499499 0.499650 0.499758 0.499835 0.499888 0.499925 0.499950 0.499967 0.499978 0.499986 0.499991 0.499994 0.499996 0.499998 0.499999 0.499999 0.499999