distribuições discretas de probabilidade

Propaganda
CAPÍTULO 6
DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE
1. Introdução
Existem muitas relações, tais como a exponencial, a quadrática, a linear, a
parabólica, que são usadas para descrever a funcionalidade entre as variáveis
determinísticas. No caso das variáveis aleatórias, certas distribuições de probabilidade
são usadas com mais frequência para descrever a grande maioria dos fenômenos
físicos.
As distribuições de probabilidade, para variáveis aleatórias discretas, mais
comumente usadas em engenharia e que desenvolvem um papel importante na
metodologia estatística são: Binomial, Poisson, Geométrica, Pascal e
Hipergeométrica.
2. Distribuição Binomial
A distribuição binomial é aplicada frequentemente para descrever controle
estatístico de qualidade de uma população. Tem-se interesse principalmente em duas
categorias: item defeituoso ou insatisfatório versus item bom ou satisfatório e sucesso
e falha que tenham ocorrido em uma amostra de tamanho fixo.
A distribuição binomial é aplicada a eventos provenientes de uma série de
experimentos aleatórios, que constituem o chamado Processo de Bernoulli.
2.1. Processo de Bernoulli
Este processo é análogo àquele de jogar uma moeda. As seguintes suposições
se aplicam:
a) Cada experimento é dito ser uma tentativa. Existe uma série de tentativas,
cada uma tendo dois resultados: sucesso ou falha;
b) A probabilidade de sucesso é igual a algum valor constante para todas as
tentativas;
c) Os resultados sucessivos são estatisticamente independentes. A
probabilidade de sucesso na próxima tentativa não pode variar, não
importando quantos sucessos ou falhas tenham sido obtidos.
O processo de Bernoulli é comumente utilizado em aplicações de engenharia
envolvendo controle de qualidade. Cada novo item criado no processo de produção
pode ser considerado como uma tentativa resultando em uma unidade com ou sem
1
defeito. Este processo não se limita a objetos; podendo ser usado em pesquisas
eleitorais e de preferências dos consumidores por determinados produtos.
2.2. Probabilidades Binomiais
A distribuição binomial está relacionada ao número de sucessos encontrados
em um número específico de tentativas de um processo de Bernoulli. Ela é
caracterizada por dois parâmetros:  (0   1), a probabilidade de sucesso, e n o
número de tentativas (número positivo).
No exemplo das meninas, dado anteriormente, construiu-se uma árvore de
probabilidade, onde 3 tentativas (nascimentos) foram feitas com o objetivo do casal
ter uma menina. Imagine agora a enorme árvore (aproximadamente 6 metros de
altura) que se teria que construir se fossem feitas 10 tentativas ! De modo a evitar isto,
a equação abaixo é usada para descrever a probabilidade de uma variável aleatória X,
que denota o número de sucessos em n tentativas do processo de Bernoulli, utilizando
k itens.
n
(1)
P( X  k )  b(k ; n,  )  p( x)    k (1   ) n k para k=0,1,2,...,n
k 
P( X  k )  0 para caso contrário
(2)
onde
n
n!
  
(3)
 k  k!(n  k )!
Exemplo 1: Calcular novamente as probabilidades do casal ter meninas em três
nascimentos.
Solução:
a) k=0; =0.48; n=3
P( X  0) 
3 * 2 *1
* 0.48 0 * (1  0.48) 30  0.14
1 * (3  0)!
(4)
3 * 2 *1
* 0.48 * (1  0.48) 31  0.39
1 * (3  1)!
(5)
3 * 2 *1
* 0.48 2 * (1  0.48) 32  0.36
2 *1 * (3  2)!
(6)
3 * 2 *1
* 0.483 * (1  0.48) 33  0.11
3 * 2 *1 * (3  3)!
(7)
b) k=1; =0.48; n=3
P( X  1) 
c) k=2; =0.48; n=3
P( X  2) 
d) ) k=3; =0.48; n=3
P( X  3) 
2
A Figura 6.1 apresenta 3 distribuições binomiais, onde se observa que à
medida que o número de tentativas cresce, as probabilidades vão diminuindo e
ficando menos concentradas, tendo a distribuição um formato de sino, independente
do parâmetro , a probabilidade de sucesso.
P(X=k)
P(X=k)
n=5
=0.30
n=10
=0.30
k
(a)
k
(b)
P(X=k)
n=20
=0.30
k
Figura 6.1 – Distribuições Binomiais
A Figura 6.2 mostra como a distribuição binomial é influenciada pela
probabilidade de sucesso, . Percebe-se que os pares p(x)=0.05;0.95, 0.20;0.80 e
0.40;0.60 (cuja soma é igual a 1) fornecem distribuições de probabilidade que são
imagens no espelho.
ndividuais, aplicáveis a todos os níveis da variável aleatória que estão em ou abaixo
2.3. Valor Esperado e Variância
O valor esperado e a variância da variável aleatória X, quantos sucessos
obtidos em um certo número de tentativas, são dados, respectivamente, por:
E ( X )  n
Var ( X )  n (1   )
(8)
(9)
3
Figura 6.2
2.4. Probabilidade Cumulativa
O cálculo das probabilidades binomiais é árduo para valores altos de tentativas
(n). Assim, existe uma tabela com os valores das probabilidades binomiais
cumulativas, que por sua vez são obtidas através da soma das probabilidades
individuais, aplicáveis a todos os níveis da variável aleatória que estão em ou abaixo
um ponto especificado. Em resumo, a probabilidade binomial cumulativa
(representada pela letra maiúscula B) é definida pela equação abaixo.
k
P( X  k )  B(k ; n,  )   P( X  j )
(10)
j 0
Para o Exemplo 1, fica-se com a Tabela 6.1.
No caso de se querer a probabilidade cumulativa para 2 meninas ou menos,
tem-se o seguinte:
P( X  2)  P( X  0)  P( X  1)  P( X  2)  0.89
(11)
4
Tabela 6.1 – Probabilidades Binomiais Cumulativas
Número de Meninas
Probabilidade Individual
k
P(X=k)
0
1
2
3
Probabilidade
Cumulativa
P(Xk)
0.14
0.53
0.89
1.00
0.14
0.39
0.36
0.11
Estes resultados podem ser colocados em forma gráfica, como apresentados
nas Figuras 6.3 e 6.4 abaixo:
P(k)
k
Figura 6.3 – Distribuição Individual de Probabilidade
P(Xk)
1.00
0.89
0.11
0.36
0.53
0.39
0.14
k
0
1
2
3
Figura 6.4 – Distribuição Cumulativa de Probabilidade
A Figura 6.4 tem formato de uma escada em que a diferença entre os
patamares representa a probabilidade para um determinado valor de k.
As tabelas existentes da probabilidade binomial são dadas em anexo.
Exemplo 2: Como exemplo, considere uma amostra com 100 pessoas que são
escolhidas aleatoriamente. Elas devem escolher entre dois tipos de carro: clássico ou
5
esporte. Assuma que 40% da população escolheu o tipo clássico de carro e considere
esta probabilidade como sendo igual a de sucesso, . Pela tabela em anexo, vê-se que
a probabilidade de que 35% ou menos da população escolha o modelo clássico é:
P( X  35)  0.1795
(12)
Para o caso de no mínimo 50% da população preferir o modelo clássico, temse:
P( X  50)  1  P( X  49)  1  0.9729
(13)
A probabilidade que entre 40% e 50%, inclusive, prefira o modelo clássico é:
P(40  X  50)  P( X  50)  P( X  39)  0.9832  0.4621  .5211
(14)
A probabilidade de que exatos 38% respondam a favor do modelo clássico é
dada por:
P( X  38)  P( X  38)  P( X  37)  0.3822  0.3068  0.0754
(15)
Para probabilidades de sucesso maiores que 50%, a tabela de probabilidade
binomial cumulativa deve ser usada como imagem no espelho da probabilidade que
realmente se quer calcular.
Exemplo 3: Qual é a probabilidade de se conseguir pelo menos 15 caras, se uma
moeda assimétrica, com probabilidade de sucesso igual a 60%, for arremessada 20
vezes ? Neste caso, define-se sucesso o evento oposto; isto é, a obtenção de coroa, que
tem obviamente a probabilidade de sucesso igual a 40%. Calcula-se então a
probabilidade de se obter no máximo 5 coroas que será igual à probabilidade de se ter
pelo menos 15 caras.
P(no min imo 15 caras )  P( X  5 coroas )  0.1256
(16)
3. Distribuição de Poisson
A distribuição de Poisson é uma das mais usadas para variáveis aleatórias
discretas. Sua aplicação mais comum é na descrição de dados sobre, por exemplo,
número diário de telefonemas a uma central telefônica, número de carros que passam
por um cruzamento (ou uma cabine de pedágio) durante um certo período de tempo e
em análises de confiança em uma linha de produção (saber probabilidades de falhas).
Os eventos devem ocorrer em um certo intervalo de tempo ou espaço.
3.1. Processo de Poisson
Imagine que se está interessado em saber o número de lâmpadas queimadas
em uma rua, durante 12 dias do mês de agosto. Cada lâmpada queimada é considerada
um evento. Obtém-se o seguinte resultado, tendo-se uma taxa média de =1 (uma
lâmpada queimada diariamente).
6
01
02
03
04
05
06
07
08
09
10
11
12
tempo
Todo o processo de Poisson tem as seguintes propriedades:
a) O número de eventos ocorrendo em um segmento de tempo ou espaço é
independente do número de eventos ocorridos no segmento anterior; o
processo de Poisson não tem memória;
b) A taxa média do processo, , deve permanecer constante durante o período
de tempo e espaço considerados;
c) Quanto menor o segmento de tempo e espaço, menor a probabilidade de
ocorrer mais de um evento naquele segmento. A probabilidade de
ocorrência de 2 ou mais eventos se aproxima de zero, quando o tamanho
do segmento se aproxima de zero.
3.2. Probabilidades de Poisson
A distribuição de Poisson é dada por:
p( x;  , t )  P( X  x) 
(t ) x e  t
x!
para x=0,1,2,...
(17)
em que os parâmteros  e t são a taxa média do processo e o intervalo de
tempo/espaço, respectivamente.
Exemplo 4: Considere o horário de pico do uso da ponte Rio-Niterói (saída para
feriadão, por exemplo). Suponha que 600 carros por hora passem pelo pedágio. Estáse interessado no número de carros que chegam, variável X, durante um período de 12
segundos. Assim, tem-se =600 e t=1/300 h. As unidades de  e t devem ser as
mesmas. As probabilidades de X são dadas abaixo:
7
P( X
P( X
P( X
P( X
2 0 e 2
 0)  p(0 : 600,1 / 300) 
 0.1353
0!
21 e  2
 1)  p(1 : 600,1 / 300) 
 0.2707
1!
2 2 e 2
 2)  p(2 : 600,1 / 300) 
 0.2707
2!
2 3 e 2
 3)  p(3 : 600,1 / 300) 
 0.0361
3!
(18)

P( X  10)  p (10 : 600,1 / 300) 
210 e  2
 0.0000382
10!
Observa-se que à medida que X aumenta, as probabilidades de Poisson tendem
rapidamente a zero. Os resultados anteriores mudam completamente se os valores dos
parâmteros  e t forem alterados.
Embora 2 ou mais carros possam chegar à ponte em um intervalo de tempo
muito curto, a probabilidade deles chegarem ao mesmo tempo é considerada zero.
Mesmo havendo alguns exemplos práticos em que os carros cheguem ao mesmo
tempo, a distribuição de Poisson é um modelo teórico que satisfaz plenamente.
3.3. Função Distribuição de Poisson
A função distribuição de Poisson ou probabilidade cumulativa de Poisson é
dada por:
x
P( x;  , t )  P( X  x)   p( j;  , t )
(19)
j 0
As probabilidades cumulativas de Poisson são dadas nas tabelas em anexo.
Exemplo 5: Calcule o número de ruídos encontrados em um vídeo, que tem =0.1 por
pé, em um segmento de fita igual a 200 ft de comprimento.
Solução: t=0.1*200=20. Pela Tabela 6.2, tem-se que a probabilidade de se encontrar
menos de 15 vezes este defeito é igual a:
P(14;0.1,200)  P( X  15)  0.1049
(20)
A probabilidade de que mais de 20 defeitos sejam encontrados é dada por:
P( X  20)  1  P(20)  1  0.5591  0.4409
(21)
A probabilidade de se encontrar exatamente 20 defeitos é igual a:
P( X  20)  P(20)  P(19)  0.5591  0.4703  0.0888
(22)
8
3.4. Valor Esperado e Variância
O valor esperado e a variância de uma distribuição de Poisson são iguais a:
E ( X )  t
Var ( X )  t
(23)
(24)
Assim, vê-se que o valor esperado de carros passando pelo pedágio deve
dobrar se dobramos o tempo de observação, o mesmo acontecendo com a variância.
3.5. Aproximação da Distribuição de Binomial pela Distribuição de Poisson
As distribuições de Poisson e binomial estão relacionadas entre si, através da
seguinte consideração: divida o intervalo de tempo em muitos segmentos de
comprimento t e suponha que cada um seja uma tentativa, tendo dois possíveis
resultados: ocorrência ou não de um evento relevante. Mostra-se que:
 t

lim b x; , t   p( x;  , t )
 t

t 0
;
(25)
ou seja, a distribuição binomial se aproxima da distribuição de Poisson. Esta
aproximação é usada quando os cálculos com uma distribuição é mais difícil que com
a outra. Por exemplo, quando a probabilidade de sucesso  é pequena e n é um
número grande, as duas distribuções podem ser aproximadas, fazendo t=n. Assim:
(n ) x e  n
b( x; n,  ) 
x!
para x=0,1,2,...,n
(26)
A Tabela 6.2 apresenta uma comparação entre as duas distribuições, para
n=100 e =0.01; ou seja, t=100*0.01=1
Tabela 6.2 – Comparação entre as Distribuições Binomial e de Poisson
Número de Sucessos
x
0
1
2
3
4
5
Binomial Exata
b(x;100,0.01)
0.3660
0.3698
0.1848
0.0610
0.0150
0.0029
Aproximada por Poisson
0.3679
0.3679
0.1839
0.0613
0.0153
0.0031
9
4. Distribuição Hipergeométrica
A distribuição hipergeométrica é uma das mais importantes distribuições de
probabilidade para variáveis discretas usadas em amostragem estatística. Ela fornece
probabilidades para o número de observações amostrais de uma categoria particular
que pode ser obtida. A diferença básica entre esta distribuição e a binomial é que esta
última requer independência entre as tentativas, o que torna impraticável sua
utilização na avaliação de investigações amostrais de populações pequenas, a menos
que a amostragem seja feita com reposição. Por exemplo, em controle de qualidade de
equipamentos eletrônicos, testes são feitos com a destruição da amostra, não podendo
pois haver reposição.
A distribuição hipergeométrica pode ser melhor entendida através do seguinte
exemplo:
Exemplo 6: Considere um carregamento de 25 transformadores, dos quais uma
amostra de 4 deles será testada do ponto de vista ambiental. Cada transformador do
carregamento será considerado satisfatório (S) ou defeituoso (D). A Figura 6.4
apresenta a árvore de probabilidade, supondo que 20% dos transformadores são
defeituosos (o que representa 5 transformadores do total). Naturalmente, este fato é
desconhecido do setor de testes, que deve aceitar ou rejeitar o carregamento com base
no número de itens defeituosos encontrados na amostra.
Figura 6.4 – Árvore de Probabilidade para o Exemplo 6
10
Solução: Utilizando-se as informações da árvore, percebe-se que existem 4
possibilidades de se obter um item defeituoso; são elas: S1S2S3D4, S1S2D3S4, S1D2S3S4
e D1S2S3S4. Assim, a probabilidade de existir pelo menos um item defeituoso é dada
por:
34200
P( X  1)  4 *
 0.45
(27)
303600
4.1. Probabilidades Hipergeométricas
De modo a evitar a construção da enorme árvore de probabilidade, utiliza-se a
Equação (28):
C kN C n(1k ) N
para k=0,1,...n ou N
(28)
P( X  k )  h(k ; n,  , N ) 
C nN
em que
b!
C ab 
ou
(29)
a! (b  a)!
 b  a 1 b
C ab  
C a 1
a


,
(30)
N representa o tamanho da população a ser amostrada, n é o tamanho da amostra e  é
a proporção de sucessos na população.
Então, no caso dos transformadores, tem-se: N=25, n=4 e =0.2. A
probabilidade de se ter transformador defeituoso é:
P( X  0)  h(0;4,0.2,25) 
P( X  1)  h(1;4,0.2,25) 
5
0
C C
C 425
5
1
20
4
20
3
25
4
C C
C
P( X  2)  h(2;4,0.2,25) 
5
2
C C
C 425
 5!   20! 



0! 5!   4! 16! 


 0.3830
 25! 


 4! 21! 
 5!   20! 



1! 4!   3! 17! 


 0.4506
 25! 


 4! 21! 
20
2
 5!   20! 



2! 3!   2! 18! 


 0.1502
 25! 


 4! 21! 
(31)
(32)
(33)
11
P( X  3)  h(3;4,0.2,25) 
P( X  4)  h(4;4,0.2,25) 
5
3
20
1
25
4
5
4
20
0
C C
C
C C
C 425
 5!   20! 



3! 2!   1! 19! 


 0.01581
 25! 


 4! 21! 
(34)
 5!   20! 



4! 1!   0! 20! 


 0.00040
 25! 


 4! 21! 
(35)
Uma outra forma de calcular essas probabilidades seria:

n  k 1
 N  k  1 
 P( X  k  1)
P( X  k )  

k

 (1   ) N  n  k 
(36)
A função distribuição de probabilidade hipergeométrica cumulativa é dada
por:
k
F (k )  P( X  k )   h( j; n,  , N )
(37)
j 0
Considerando o exemplo anterior, tem-se que:
F (3)  P( X  3)  0.383  0.45059  0.15020  0.01581  0.99960
(38)
4.2. Valor Esperado e Variância
O valor esperado e a variância são dados por:
E ( X )  n
(39)
 N n
Var ( X )  n (1   )

 N 1 
(40)
A diferença entre a Equação (40) e aquela que calcula a variância para a
distribuição binomial está no termo (N-n)/(N-1). Esta quantidade é chamada de fator
de correção para uma população finita. Note que quando o tamanho da amostra, n,
for próximo do tamanho da população, N, este termo é consideravelmente menor que
um, indicando que a variância da distribuição hipergeométrica é bem menor que a da
distribuição binomial. O significado prático deste fator de correção ficará mais
evidente, quando a distribuição hipergeométrica for aproximada pela distribuição
normal.
12
4.3. Aproximação da Distribuição Hipergeométrica para a Distribuição Binomial
Devido ao fato da distribuição binomial ser mais fácil de ser calculada e dispor
de tabelas, pode-se usar esta distribuição como uma aproximação para a distribuição
hipergeométrica, mesmo quando não há reposição dos itens. A aproximação é tanto
melhor quanto maior for o tamanho de N em relação a n. A Tabela 6.4 apresenta uma
comparação entre os valores calculados para as duas distribuições, no caso do
exemplo dos transformadores, com n=4 e =0.40. Estes parâmetros não alteram muito
a aproximação.
Tabela 6.4 – Comparação entre as Distribuições Binomial e Hipergeométrica
Número Possível
de Defeitos
k
0
1
2
3
Probabilidade
Binomial
b(k;n;)
0.4096
0.4096
0.1536
0.0016
Probabilidade Hipergeométrica
h(k;n, ,N)
N=25
N=100
0.38300
0.40333
0.45059
0.41905
.01581
0.02326
0.00040
0.00124
5. Distribuição Geométrica
A distribuição geométrica é a menos usada dentre as distribuições. Ela está
relacionada ao número de tentativas de um processo de Bernoulli, antes do primeiro
sucesso ser obtido. Em problemas de confiabilidade, este fato passa a ser algo
importante, que deve ser considerado. Por exemplo: a célula de potência de um
satélite pode durar indefinidamente até que haja uma colisão com um micro meteoro.
Cada dia é considerado como uma tentativa no processo de Bernoulli.
A expressão matemática para esta distribuição é dada abaixo:
p(k )  P( X  k )   (1   ) k 1
para k=1,2,3,...
,
(41)
sendo X o número de tentativas no processo de Bernoulli até que o primeiro suceeso
seja atingido e  a probabilidade de sucesso.
Exemplo 7: Cada dia, há uma probabilidade de =0.01 que um satélite seja
danificado em uma colisão. A probabilidade de sobrevivência diária é
consequentemente igual a 1-=0.99. Calcule a probabilidade de que o satélite seja
danificado exatamente no vigésimo e centésimo dias de operação.
Solução:
P( X  20)  p(20)  0.01* (0.99)19  0.0083
P( X  100)  p(100)  0.01* (0.99) 99  0.0037
(42)
(43)
A função de distribuição de probabilidade geométrica expressa a
probabilidade cumulativa de que o primeiro sucesso ocorra em ou antes da k-ésima
tentativa.
13
k
F (k )  P( X  k )   p( x)  1  (1   ) k
(44)
x 1
5.1. Valor Esperado e Variância
O valor esperado e a variância são dados por:
E( X ) 
1
(45)

Var ( X ) 
1
2
(46)
14
Download