Estatística Capítulo 4: Distribuições Teóricas de Probabilidades de Variáveis Aleatórias Discretas Professor Fernando Porto Capítulo 4 • Baseado no Capítulo 4 do livro texto, Distribuições Teóricas de Probabilidades de Variáveis Aleatórias Discretas. Distribuição de Bernoulli Na área de teoria das probabilidades e estatística, a distribuição de Bernoulli, nome em homenagem ao cientista suíço Jakob Bernoulli, é a distribuição discreta de espaço amostral {0, 1}, que tem valor 1 com a probabilidade de sucesso p e valor 0 com a probabilidade de falha q = 1 p. Neste caso a variável aleatória X tem distribuição de Bernoulli e sua função de probabilidade é dada por: P(X = x) = px . q1-x X P(X) X . P(X) X2 . P(X) 0 q 0 0 1 p p p 1 p p Esperança: E(X) = p Variância: VAR(X) = p – p2 = p . (1 – q) = p . q Exemplo: Uma urna tem 30 bolas brancas e 20 verdes. Retira-se uma bola dessa urna. Sendo X o número de bolas verdes, calcular E(X) e VAR(X) e determinar P(X). Distribuição Geométrica A distribuição geométrica é constituída por duas funções de probabilidade discretas: a) a distribuição de probabilidade do número X de tentativas de Bernoulli necessárias para alcançar um sucesso, suportadas pelo conjunto { 1, 2, 3, ... }, ou b) a distribuição de probabilidade do número Y = X 1 de insucessos antes do primeiro sucesso, suportadas pelo conjunto { 0, 1, 2, 3, ... }. Se a probabilidade de sucesso de cada tentativa é p, então a probabilidade de n tentativas serem necessárias para ocorrer um sucesso é P(X = n) = (1 – p)n-1 . p para n = 1, 2, 3, .... De forma equivalente, a probabilidade de serem necessários n insucessos antes do primeiro sucesso é P(Y = n) = (1 – p)n . p para n = 0, 1, 2, 3, .... Em qualquer caso, a sequência de probabilidades é uma progressão geométrica. Média: E(X) = Variância: VAR(X) = Demonstrações no livro texto. Exemplo: A probabilidade de se encontrar aberto o sinal de trânsito numa esquina é 0,20. Qual a probabilidade de que seja necessário passar pelo local 5 vezes, para encontrar o sinal aberto pela primeira vez? X: número de vezes necessárias para encontrar o sinal aberto. p = 0,20; q = 0,80 P(X = 5) = (0,80)4 – (0,20) = 0,08192 = 8,192% Distribuição de Pascal A distribuição de Pascal ou distribuição binomial negativa indica o número de tentativas necessárias para obter r sucessos de igual probabilidade p ao fim de x experimentos de Bernoulli, sendo a última tentativa um sucesso. A sua função de probabilidade é dada por: x = r, r + 1, ... X é o número de repetições necessárias para que ocorram r sucessos. Importante: A distribuição Geométrica e fortemente relacionada com a Binomial negativa. Na Geométrica queremos o número de tentativas para obter o primeiro sucesso, ou seja, o tempo de espera até que se tenha o evento de importância ou sucesso. Média: E(X) = Variância: VAR(X) = Exemplo: Numa linha de montagem, 10% das peças são defeituosas. Qual a probabilidade de que a quinta peça analisada seja a segunda defeituosa? Assim, x = 5; p = 10% ou 0,10; r = 2; q = 0,9 Distribuição Hipergeométrica A distribuição hipergeométrica descreve a probabilidade de se retirar k elementos do tipo A numa sequência de n extrações de uma população finita de tamanho N, com r elementos do tipo A e N-r elementos do tipo B, sem reposição. Seja um conjunto com N elementos tal que existem r elementos do tipo A e N-r elementos do tipo B. Um conjunto de n elementos é selecionado, aleatoriamente e sem reposição, do conjunto de N elementos. A variável aleatória X denota o número de elementos tipo A. Então, X tem distribuição hipergeométrica e onde k = 0,1,2,..., min(r, n) e onde refere-se ao coeficiente binomial, o número de combinações possíveis ao selecionar b elementos de um total a. O valor esperado da variável aleatória X é dado por E(X) = n.p e a sua variância Quando o tamanho da população é muito maior do que a amostra (isto é, N é muito maior que n) a distribuição hipergeométrica é razoavelmente bem aproximada pela distribuição binomial com parâmetros n (número de tentativas) e p = K / N (probabilidade de sucesso numa tentativa única). Exemplo: Pequenos motores são guardados em caixas de 50 unidades. Um inspetor de qualidade examina cada caixa, antes da posterior remessa, testando 5 motores. Se nenhum motor for defeituoso, a caixa é aceita. Se pelo menos um for defeituoso, todos os 50 são testados. Há 6 motores defeituosos numa caixa. Qual a probabilidade de que seja necessário examinar todos os motores dessa caixa? X: número de motores defeituosos da amostra. N = 50; r = 6; n = 5. Distribuição Binomial É a distribuição de probabilidade discreta do número de sucessos numa sequência de n tentativas tais que: 1. Cada tentativa tem exclusivamente como resultado duas possibilidades, sucesso ou fracasso; 2. Cada tentativa é independente das demais; 3. A probabilidade de sucesso p a cada tentativa permanece constante independente das demais; 4. A variável de interesse é o número de sucessos k nas n tentativas. A variável aleatória X é o número de tentativas que resultam em sucesso. A probabilidade de ter exatamente k sucessos é dado pela função de probabilidade: Esperança: E(X) = n . p Variância: VAR(X) = n . p . (1 – p) Demonstrações no livro texto. Exemplo: Uma moeda é lançada 20 vezes. Qual a probabilidade de saírem 8 caras? X: número de sucessos (caras) X = 0, 1, 2, ..., 20 Probabilidades de cara em um lançamento: p = 0,5 Portanto k = 8; n = 20; p = 0,5 Exemplo: Uma prova tipo teste tem 50 questões independentes. Cada questão tem 5 alternativas. Apenas uma das alternativas é a correta. Se um aluno resolve a prova respondendo a esmo as questões, qual a probabilidade de acertar metade das questões? X: número de acertos X: 0, 1, 2, ..., 50 Probabilidades de acerto de 1 questão: p = 1/5 = 0,2 Portanto k = 25; n = 50; p = 0,2 Exemplo: Achar a média e a variância da variável aleatória Y = 3X + 2, sendo X com n = 20; p = 0,3 E(X) = n ´ p = 20 ´ 0,3 = 6 VAR(X) = n ´ p ´ q = 20 ´ 0,3 ´ 0,7 = 4,2 Logo E(Y) = E(3X + 2) = 3 ´ E(X) + 2 = 3 ´ 6 + 2 = 20 VAR(Y) = VAR(3X + 2) = 9 ´ VAR(X) = 9 ´ 4,2 = 37,8 Distribuição Multinomial A distribuição multinomial ou polinomial é uma generalização da distribuição binomial. Assim consideremos a possibilidade de k alternativas, isto é repartirmos o espaço amostral em k eventos X1, X2, X3, ..., Xk mutuamente exclusivos, com probabilidades p1, p2, p3, ..., pk, tais que p1 + p2 + p3 + ... + pk = 1 Então em k eventos a probabilidade de que X1 ocorra n1 vezes, X2 ocorra n2 vezes, X3 ocorra n3 vezes ... Xk ocorra nk vezes, é dado por: Esperança: E(Xi) = ni . pi Variância: VAR(Xi) = ni . pi . (1 – pi) sendo i = 1, 2, ... k Demonstrações no livro texto. Exemplo: Uma urna tem 6 bolas brancas, 4 pretas e 5 azuis. Retiram-se 8 bolas com reposição. Qual a probabilidade de sair 4 bolas brancas, 2 pretas e 2 azuis? X1: saída de 4 bolas brancas X2: saída de 2 bolas pretas X3: saída de 2 bolas azuis X1 + X2 + X3 = 8 Distribuição de Poisson A distribuição de Poisson expressa a probabilidade de uma série de eventos ocorrer num certo período de tempo se estes eventos ocorrem independentemente de quando ocorreu o último evento. A distribuição foi descoberta por Siméon-Denis Poisson (17811840) e publicada, conjuntamente com a sua teoria da probabilidade, em 1838 no seu trabalho Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Inquérito sobre a probabilidade em julgamentos sobre matérias criminais e civis"). O trabalho focava-se em variáveis aleatórias N que contavam, entre outras coisas, o número de ocorrências discretas de um certo fenômeno durante um intervalo de tempo de determinada duração. A probabilidade de que existam exatamente k ocorrências (k sendo um inteiro não negativo, k = 0, 1, 2, ...) é onde • e é base do logaritmo natural (e = 2,718281828...), • λ é um número real, igual ao número esperado de ocorrências que ocorrem num dado intervalo de tempo. Por exemplo, se o evento ocorre a uma média de 4 minutos, e estamos interessados no número de eventos que ocorrem num intervalo de 10 minutos, usaríamos como modelo a distribuição de Poisson com λ = 10/4 = 2,5. Esperança: E(X) = l Variância: VAR(X) = l Demonstrações no livro texto. Exemplo: A probabilidade de uma lâmpada se queimar ao ser ligada é de 1/100. Numa instalação com 100 lâmpadas, qual a probabilidade de 2 lâmpadas se queimarem ao serem ligadas, usando Poisson? l = n . p = 100 ´ 0,01 = 1 Exemplo: Numa central telefônica chegam 300 telefonemas por hora. Qual a probabilidade de que: a) Num minuto não haja nenhum chamado. b) Em 2 minutos haja 2 chamados. c) Em t minutos não haja chamados. a) X: número de chamadas por minuto ® l = 5 b) Dois minutos ® l = 10 c) Tempo de t minutos ® l = 5t • A distribuição de Poisson representa um modelo probabilístico adequado para o estudo de um grande número de fenômenos observáveis. Eis alguns exemplos: • • • • Chamadas telefônicas por unidade de tempo; Defeitos por unidade de área; Acidentes por unidade de tempo; Chegada de clientes a um supermercado por unidade de tempo; • Número de glóbulos sanguíneos visíveis ao microscópio por unidade de área; • Número de partículas emitidas por uma fonte de material radioativo por unidade de tempo. • Estatística Básica • Luiz Gonzaga Morettin • Pearson Prentice Hall, 2010. Páginas da Wikipédia referentes à: • Distribuição de Bernoulli; • Distribuição Geométrica; • Distribuição Hipergeométrica; • Distribuição de Pascal; • Distribuição Binomial; • Distribuição Multinomial; • Distribuição de Poisson.