Cálculo das Probabilidades II

Propaganda
Universidade do Estado do Rio de Janeiro
Instituto de Matemática e Estatística
Departamento de Estatística
Cálculo das Probabilidades II
Prof: Mariane Branco Alves
©2006 Mariane Branco Alves - Todos os direitos reservados.
Reserve tempo à reflexão. O menor detalhe pode ser o mais essencial.
— SHERLOCK HOLMES (trecho de "A Aventura do Círculo Vermelho",
Sir Arthur Connan Doyle)
Sumário
1
Revisão de Conceitos Fundamentais em Probabilidade
1.1 Interpretações de Probabilidade e Definição Axiomática
1.1.1 Definição Axiomática
1.2 Probabilidade Condicional e Independência
1.2.1 Regra da Multiplicação
1.2.2 Regra da Probabilidade Total
1.2.3 Teorema de Bayes
1.2.4 Independência
1.3 Exercícios
5
5
6
7
7
7
8
8
11
2
Variáveis Aleatórias Discretas
2.1 Introdução
2.2 Alguns Modelos Probabilísticos para Variáveis Aleatórias Discretas
2.2.1 Uniforme
2.2.2 Bernoulli(p)
2.2.3 Binomial(n,p)
2.2.4 Hipergeométrica(N,n,r)
2.2.5 Geométrica(p)
2.2.6 Pascal(r,p) ou Binomial Negativa(r,p)
2.2.7 Poisson(λ )
2.3 Momentos de Variáveis Aleatórias Discretas
2.4 Exercícios
14
14
16
17
17
18
18
19
20
20
23
24
3
Variáveis Aleatórias Contínuas
3.1 Introdução
3.2 Alguns Modelos Probabilísticos para Variáveis Aleatórias Contínuas
3.2.1 Uniforme Contínua(a, b)
3.2.2 Normal(µ , σ 2 )
3.2.3 Exponencial(λ )
3.2.4 Gama(α , λ )
3.2.5 Qui-quadrado(n)
3.2.6 Beta(α , β )
3.2.7 Weibull(α , λ )
3.2.8 T de Student(k)
3.2.9 F de Fisher-Snedcor(d1 , d2 )
28
28
30
30
30
32
33
35
36
37
39
41
3
SUMÁRIO
3.3
3.4
4
5
Momentos de Variáveis Aleatórias Contínuas
Exercícios
4
42
43
Funções de Variáveis Aleatórias
4.1 Distribuição de Y = h(X)
4.1.1 Caso1: X é variável aleatória discreta e Y = h(X) é variável aleatória
discreta
4.1.2 Caso2: X é variável aleatória contínua e Y = h(X) é variável aleatória
discreta
4.1.3 Caso3: X é variável aleatória contínua e Y = h(X) é variável aleatória
contínua
4.2 Esperança de Y = h(X)
4.3 Exercícios
47
47
Funções Geratrizes de Momentos
5.1 Introdução
5.2 Uso de MX (t) para determinação dos momentos de X
5.3 Propriedades da Função Geratriz de Momentos
5.4 Uso de Funções Geratrizes de Momentos para a Determinação de Propriedades
Reprodutivas
5.5 Exercícios
53
53
53
55
47
48
48
49
51
56
57
C APÍTULO 1
Revisão de Conceitos Fundamentais em
Probabilidade
1.1 Interpretações de Probabilidade e Definição Axiomática
Definição 1.1. : Um experimento que pode fornecer diferentes resultados, se repetido essencialmene sob as mesmas condições, é dito experimento aleatório. Notação: ε
Definição 1.2. O conjunto de todos os possíveis resultados de um experimento aleatório ε é
denominado espaço amostral de ε . Notação: Ω
Definição 1.3. Um evento é um subconjunto do espaço amostral de um experimento aleatório.
Notação: letras maiúsculas.
Definição 1.4. Dois evento A e B são disjuntos ou mutuamente exclusivos ou mutuamente
excludentes se A ∩ B = 0.
/
Objetivo: Atribuir um número real a cada evento o qual avaliará quão verossímil será
a ocorrência de A quando o experimento for realizado. Este número será a probabilidade
associada ao evento A.
• Freqüentista: A probabilidade associada a um evento é dada pela freqüência relativa
com que tal evento ocorreria, caso o experimento aleatório fosse repetido um grande
número de vezes, sob as mesmas condições.
Críticas:
→ Quão grande deve ser o número de repetições do experimento aleatórios?
→ Na prática, só seria aplicável a experimentos dos quais se possa fazer um grande
número de repetições.
• Clássica: Se um espaço amostral Ω é composto por n resultados igualmente verossímeis,
então a probabilidade associada a cada resultado é 1/n. Se o evento A é formado por nA
resultados, então P(A) = nnA .
Críticas:
→ A definição é circular
→ Como calcular probabilidades o espaçamostral não é finito ou não tem elementos
equiprováveis?
5
1.1 INTERPRETAÇÕES DE PROBABILIDADE E DEFINIÇÃO AXIOMÁTICA
6
• Subjetiva: A probabilidade que cada pessoa atribui a um evento é uma representação
de suas crenças sobre o processo estudado, baseado em sua informação prévia sobre este
processo.
Críticas:
→ Garantir a consistência e ausência de contradições nas atribuições subjetivas para
problemas complexos é difícil.
→ Pessoas diferentes podem fazer atribuições diferentes.
1.1.1 Definição Axiomática
Definição 1.5. Seja ε um experimento aleatório e Ω o espaço amostral associado a ε . A distribuição de probabilidades ou, simplesmente, probabilidade em Ω é uma especificação de
números P(.) que satisfazem a:
(i) Para qualquer evento A, P(A) ≥ 0
(ii) P(Ω) = 1
(iii) Para qualquer seqüência de eventos disjuntos A1 , A2 , · · · ,
à !
∞
[
P
i=1
∞
= ∑ P(Ai ).
i=1
Decorrem dos axiomas (i), (ii) e (iii) as seguintes propriedades (demonstrar!):
P.1: P(0)
/ = 0.
P.2: Para qualquer seqüência de n eventos disjuntos A1 , A2 , · · · , An :
à !
n
[
P
i=1
n
= ∑ P(Ai ).
i=1
P.3: Se Ac é o evento complementar a A, então P(Ac ) = 1 − P(A), ∀A.
P.4: ∀A, 0 ≤ P(A) ≤ 1.
P.5: Se A ⊂ B, então P(A) ≤ P(B).
P.6: Para quaiquer dois eventos A e B, P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Extensão: Sejam A1 , A2 , · · · , An eventos quaisquer. Então:
à !
n
[
P
i=1
n
= ∑ P(Ai ) − ∑ P(Ai ∩ A j ) +
i=1
i< j
∑
i< j<k
P(Ai ∩ A j ∩ Ak ) + · · ·
1.2 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA
7
1.2 Probabilidade Condicional e Independência
Exemplo 1.1. ε : Lançamento de um dado não-viciado
⇒ Ω = {1, 2, 3, 4, 5, 6}.
Seja o evento A: resultado 6 ⇒ A = {6}. Como o espaço amostral é finito, com elementos
equiprováveis, então:
nA 1
= .
P(A) =
n
6
Seja, agora, o evento B: resultado par ⇒ B = {2, 4, 6}. A probabilidade de que o resultado seja
6, uma vez que se saiba que o resultado é par, é 16 .
Definição 1.6. A probabilidade condicional de um evento A, dado um evento B, é:
P(A | B) =
P(A ∩ B)
,
P(B)
se P(B) > 0.
(1.1)
No exemplo anterior, tem-se:
P(A | B) =
nA∩B
n
nB
n
=
nA∩B 1
= ,
nB
6
pois (A ∩ B) = {6}.
1.2.1 Regra da Multiplicação
De (1.1) tem-se, diretamente, que:
P(A ∩ B) = P(B)P(A | B) = P(A)P(B | A)
(1.2)
1.2.2 Regra da Probabilidade Total
Definição 1.7. Uma coleção de eventos A1 , A2 , · · · , An forma uma partição do espaço amostral
S
Ω se os eventos Ai ‘s são disjuntos (Ai ∩ A j = 0,
/ i 6= j) e exaustivos ( ni=1 Ai = Ω).
8
1.2 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA
Sejam A1 , A2 , · · · , An eventos formando uma partição do espaço amostral Ω e B um evento
qualquer em Ω. Então:
P(B)
= P[{B ∩ A1 } ∪ {B ∩ A2 } ∪ · · · {B ∩ An }]
disj.
= P(B ∩ A1 ) + P(B ∩ A2 ) + · · · P(B ∩ An )
(1.2)
=
P(B | A1 )P(A1 ) + · · · + P(B | An )P(An )
(1.3)
1.2.3 Teorema de Bayes
Sejam A1 , A2 , · · · , An eventos formando uma partição do espaço amostral Ω, B um evento
qualquer em Ω e suponha conhecidas P(B | Ai ) e P(Ai ), i = 1, 2, · · · n. Então:
P(A j | B)
(1.1)
=
(1.2)
=
(1.3)
=
P(A j ∩ B)
P(B)
P(B | A j )P(A j )
P(B)
P(B | A j )P(A j )
P(B | A1 )P(A1 ) + · · · + P(B | An )P(An )
(1.4)
Exercício: Um certo item é produzido exclusivamente em uma das unidades de uma fábrica:
I, II ou III. Sabe-se que o volume de produção da unidade I é o dobro da unidade II e que II
e III têm volumes iguais de produção. Ainda, são defeituosos: 2% dos produtos fabricados na
unidade I, 2% dos fabricados na unidade II e 4% dos fabricados na unidade III. Se todos os
itens são armazenados em um depósito comum e seleciona-se um item ao acaso:
(a) qual é a probabilidade de que seja defeituoso?
(b) qual é a probabilidade de que tenha sido produzido na fábrica I, se é defeituoso?
(c) qual é a probabilidade de que tenha sido produzido na fábrica I, se não é defeituoso?
1.2.4 Independência
Definição 1.8. Dois eventos A e B são ditos independentes se
P(A ∩ B) = P(A) · P(B).
(1.5)
9
1.2 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA
Observe-se que se A e B são independentes, então, de (1.1) tem-se que:
P(A ∩ B) (1.5) P(A) · P(B)
=
= P(A)
P(B)
P(B)
P(A ∩ B) (1.5) P(A) · P(B)
P(B | A) =
=
= P(B)
P(A)
P(A)
P(A | B) =
(1.6)
Exemplo 1.2. ε: Lançamento simultâneo de um dado e uma moeda, ambos não-viciados.
⇒ Ω = {(CA, 1)(CA, 2)(CA, 3)(CA, 4)(CA, 5)(CA, 6)(CO, 1)(CO, 2)(CO, 3)(CO, 4)(CO, 5)
(CO, 6)}.
Sejam os eventos:
A : {(6,CA), (6,CO)}: resultado 6
B : {(2,CA), (2,CO), (4,CA), (4,CO), (6,CA), (6,CO)}: resultado par
C : {(CO, 1), (CO, 2), (CO, 3), (CO, 4), (CO, 5), (CO, 6)}: resultado coroa.
Como o espaço amostral é finito e com elementos equiprováveis, tem-se:
P(A) =
P(A | B) =
nA
2
1
=
=
n
12 6
P(A ∩ B)
=
P(B)
nA∩B
n
nB
n
=
nA∩B 2 1
= = 6= P(A),
nB
6 3
⇒ A e B são dependentes.
P(A | C) =
P(A ∩C)
=
P(C)
nA∩C
n
nC
n
=
nA∩C 1 1
= = = P(A),
nC
6 6
⇒ A e C são independentes.
Importante: Disjunção 6= Independência: Em geral, eventos disjuntos são it dependentes, a menos que a probabilidade de pelo menos um deles seja nula.
Prova: Suponha que A e B sejam disjuntos. Então P(A ∩ B) = 0. Se, além de disjuntos,
forem independentes, então P(A ∩ B) = P(A) · P(B), o que implica que P(A) = 0 ou P(B) = 0
ou ambas.
1.2 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA
10
Obs: A informação de independência entre eventos interfere no cálculo de probabilidades
de interseções. A informação de disjunção entre eventos interfere na forma como são calculadas probabilidades de uniões
Exemplo 1.3. Calculando probabilidades para eventos associados a espaços amostrais em que
os elementos não são equiprováveis.
ε : Selecionam-se, aleatoriamente, 4 pessoas e verifica-se a condição doente ou sadio para
cada uma.
Hipóteses: Assuma que haja independência entre os indivíduos e que a probabilidade de
que qualquer indivíduo seja sadio é p.
Seja o evento:
A: Dois indivíduos, entre os 4 observados, são sadios.
Denote-se por:
S: indivíduo sadio ("sucesso")
F: indivíduo doente ("fracasso").
Determine P(A).
Espaço amostral e probabilidade associada a cada um de seus elementos:
i
wi
P(wi )
ind
1
FFFF
P(w1 ) = P(F1 ∩ F2 ∩ F3 ∩ F4 ) = P(F1 )P(F2 )P(F3 )P(F4 ) = (1 − p)4
2
SFFF
P(w2 ) = P(S1 ∩ F2 ∩ F3 ∩ F4 ) = P(S1 )P(F2 )P(F3 )P(F4 ) = p(1 − p)3
3
FSFF
P(w3 ) = P(F1 ∩ S2 ∩ F3 ∩ F4 ) = P(F1 )P(S2 )P(F3 )P(F4 ) = p(1 − p)3
4
FFSF
P(w4 ) = P(F1 ∩ F2 ∩ S3 ∩ F4 ) = P(F1 )P(F2 )P(S3 )P(F4 ) = p(1 − p)3
5
FFFS
P(w5 ) = P(F1 ∩ F2 ∩ F3 ∩ S4 ) = P(F1 )P(F2 )P(F3 )P(S4 ) = p(1 − p)3
6
SSFF
P(w6 ) = P(S1 ∩ S2 ∩ F3 ∩ F4 ) = P(S1 )P(S2 )P(F3 )P(F4 ) = p2 (1 − p)2
7
SFSF
P(w7 ) = P(S1 ∩ F2 ∩ F3 ∩ F4 ) = P(S1 )P(F2 )P(S3 )P(F4 ) = p2 (1 − p)2
8
SFFS
P(w8 ) = P(S1 ∩ F2 ∩ F3 ∩ S4 ) = P(S1 )P(F2 )P(F3 )P(S4 ) = p2 (1 − p)2
9
FSSF
P(w9 ) = P(F1 ∩ S2 ∩ S3 ∩ F4 ) = P(F1 )P(S2 )P(S3 )P(F4 ) = p2 (1 − p)2
10
FSFS
P(w10 ) = P(F1 ∩ S2 ∩ F3 ∩ S4 ) = P(F1 )P(S2 )P(F3 )P(S4 ) = p2 (1 − p)2
11
FFSS
P(w11 ) = P(F1 ∩ F2 ∩ S3 ∩ S4 ) = P(F1 )P(F2 )P(S3 )P(S4 ) = p2 (1 − p)2
12
FSSS
P(w12 ) = P(F1 ∩ S2 ∩ S3 ∩ S4 ) = P(F1 )P(S2 )P(S3 )P(S4 ) = p3 (1 − p)
13
SFSS
P(w13 ) = P(S1 ∩ F2 ∩ S3 ∩ S4 ) = P(S1 )P(F2 )P(S3 )P(S4 ) = p3 (1 − p)
14
SSFS
P(w14 ) = P(S1 ∩ S2 ∩ F3 ∩ S4 ) = P(S1 )P(S2 )P(F3 )P(S4 ) = p3 (1 − p)
15
SSSF
P(w15 ) = P(S1 ∩ S2 ∩ S3 ∩ F4 ) = P(S1 )P(S2 )P(S3 )P(F4 ) = p3 (1 − p)
16
SSSS
P(w16 ) = P(S1 ∩ S2 ∩ S3 ∩ S4 ) = P(S1 )P(S2 )P(S3 )P(S4 ) = p4
ind
ind
ind
ind
ind
ind
ind
ind
ind
ind
ind
ind
ind
ind
ind
11
1.3 EXERCÍCIOS
Finalmente,
dis j.
P(A) = P(w6 ∪ w7 ∪ w8 ∪ w9 ∪ w10 ∪ w11 ) =
11
∑ P(wi) = 6p2(1 − p)2.
i=6
Questão: E se desejássemos determinar P(A), mas agora com base em uma amostra de
tamanho 50? Obviamente o espaço amostral Ω torna-se mais complexo e, portanto, o cálculo
de probabilidades diretamente em Ω fica mais difícil. Muitas vezes, o espaço amostral sequer
é finito!!
Solução: Tratamento das quantidades de interesse em ε e reconhecimento de leis de formação no cálculo de probabilidades.
1.3
Exercícios
1. Determine um espaço amostral para cada um dos seguintes experimentos aleatórios:
a) Investigam-se famílias com 4 crianças, anotando-se a configuração segundo o
sexo.
b) Numa entrevista telefônica com 250 assinantes, pergunta-se se o proprietário tem
ou não máquina de secar roupa.
c) Mede-se a duração de lâmpadas, deixanso-as acesas até que queimem.
d) Um fichário com 10 nomes contém 3 nomes de mulheres. Seleciona-se ficha
após ficha, até o último nome de mulher ser selecionado e anota-se o número de fichas
selecionadas.
e) De um grupo de 5 pessoas {A, B,C, D, E} sorteiam-se duas, uma após a outra, com
reposição, e anota-se a configuração formada.
f) Idem, considerando sorteio sem reposição.
2. Expresse em termos de operações entre eventos:
a) A ocorre, mas B não ocorre.
b) Exatamente um dos eventos A e B ocorre.
c) Nenhum dos eventos A e B ocorrem.
3. Na figura 1 (ao final da lista), temos um sistema com três componentes funcionando
independentemente, com confiabilidades (probabilidades de funcionamento) p1 , p2 e p3 .
Obtenha a confiabilidade do sistema.
4. Na tabela a seguir, os números que aparecem são as probabilidades das interseções entre
os eventos em questão. Verifique se A e B são independentes.
1.3 EXERCÍCIOS
12
5. Supondo que todos os componentes do sistema representado na figura 2 (ao final da lista)
tenham confiabilidade p e funcionem independentemente, obtenha a confiabilidade do
sistema.
6. Uma companhia produz circuitos integrados em três fábricas: I, II e III. A fábrica I produz 40% dos circuitos, enquanto a II e a III produzem 30% cada uma. As probabilidades
de que um circuito integrado produzido por estas fábricas não funcione são 0, 01, 0, 04 e
0, 03, respectivamente.
a) Escolhido um circuito na produção conjunta das três fábricas, qual é a probabilidade de não funcionar?
b) Caso o circuito escolhido não funcione, qual é a probabilidade de ter sido fabricado
por I?
c) Caso o circuito escolhido funcione, qual é a probabilidade de ter sido fabricado
por I?
7. Uma companhia de seguros analisou a freqüência com que 2000 segurados (1000 homens
e 1000 mulheres) usaram hospital. Os resultados são apresentados na tabela a seguir:
a) Qual a probabilidade de que uma pessoa segurada use o hospital?
b) O uso do hospital independe do sexo do segurado?
8. Para se estudar o comportamento do mercado automobilístico, as marcas foram divididas
em 3 categorias: marca F, marca W e as demais reunidas como marca X. Um estudo
sobre os hábitos de mudança de marca mostrou o seguinte quadro de probabilidades:
1.3 EXERCÍCIOS
13
O primeiro carro que um indivíduo compra é da marca W com probabilidade 50
a) Qual é a probabilidade de que o terceiro carro de um indivíduo seja da marca W?
b) Se o terceiro carro é da marca W, qual é a probabilidade de o primeiro também ter
sido W?
9. Mostre que se A e B são eventos independentes, então: P(A ∩ Bc ) = P(A).P(Bc ) e P(Ac ∩
Bc ) = P(Ac ).P(Bc ).
10. Sejam A e B eventos tais que P(A) = 0, 4, P(A ∪ B) = 0, 7 e P(B) = p.
a) Para qual valor de p A e B são disjuntos?
b) Para qual valor de p A e B são independentes?
11. Suponha que nos sistemas representados nas figuras 3.a e 3.b, a probabilidade de que
cada relé esteja fechado seja p e que a abertura ou fechamento de cada relé independa
dos demais. Em cada caso, determine a probabilidade de que a corrente passe de L para
R.
C APÍTULO 2
Variáveis Aleatórias Discretas
2.1 Introdução
Definição 2.1. Uma variável aleatória é uma função que confere um número real a cada resultado no espaço amostral de um experimento aleatório:
X : Ω → RX ⊂ R
w → X(w)
Se o conjunto RX de valores possíveis de X for finito ou infinito enumerável, X é variável
aleatória discreta. Caso contrário, X é variável aleatória contínua.
Notação: Variáveis aleatórias são denotadas por letras maiúsculas. Realizações valores
observados de variáveis aleatórias são denotados por letras minúsculas
Exemplo 2.1. ε : Seleção aleatória de 100 pessoas.
Defina as variáveis aleatórias:
• X : número de pessoas, entre as 100, que possuem uma característica de interesse.
RX = {0, 1, 2, 3, · · · , 100} → finito ⇒ X é v.a. discreta.
• Y : proporção de pessoas, entre as 100, que possuem uma característica de interesse.
2
3
1
RY = {0, 100
, 100
, 100
, · · · , 1} → finito ⇒ Y é v.a. discreta.
• Z : altura de cada uma das 100 pessoas.
RZ = R+ → infinito, não enumerável ⇒ Z é v.a. contínua.
• W : Número de pessoa selecionadas, com reposição, entre as 100, até que se encontre
uma que tenha a característica de interesse
RW = {1, 2, 3, · · · } → infinito, enumerável ⇒ W é v.a. discreta.
Definição 2.2. A função de distribuição acumulada (f.d.a) de uma variável aleatória X é dada
por:
FX : R → [0, 1]
x → FX (x) = P(X ≤ x).
14
(2.1)
2.1 INTRODUÇÃO
15
Definição 2.3. A função de probabilidade (f.p.) de uma variável aleatória discreta X é dada
por:
pX : R → [0, 1]
x → pX (x) = P(X = x)
(2.2)
e satisfaz a:
(i) pX (x) ≥ 0, ∀x
(ii) ∑R pX (x) = 1.
Se X é variável aleatória discreta, então sua f.d.a. á calculada da seguinte forma:
FX (x) = P(X ≤ x) =
∑
pX (x j ).
(2.3)
x j ≤x
A função de distribuição acumula, no caso discreto, tem a forma de função escada, como
ilustra a figura 2.1, anulando-se quando x → −∞ e tendendo a 1 quando x → ∞. Ainda, apresenta saltos de magnitude pX (x) e os pontos de descontinuidade são os possíveis valores de
X.
Figura 2.1 Função de distribuição acumulada de uma variável aleatória discreta
Assim como se pode obter a f.d.a. FX (x) a partir da f.p. pX (x), a recíproca também vale:
pX (x) = FX (x) − FX (x−),
FX (x−) = lim FX (x).
x→x−
(2.4)
Definição 2.4. A coleção de pares [xi , pX (xi )] é denominada distribuição de probabilidades de
X.
2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS
2.2
16
Alguns Modelos Probabilísticos para Variáveis Aleatórias Discretas
Exemplo 2.2. Voltemos ao exemplo 1.3. Defina a variável aleatória: X → Número de pessoas
sadias, entre as 4 selecionadas. Tem-se, então:
i
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
wi
FFFF
SFFF
FSFF
FFSF
FFFS
SSFF
SFSF
SFFS
FSSF
FSFS
FFSS
FSSS
SFSS
SSFS
SSSF
SSSS
P(wi )
(1 − p)4
p(1 − p)3
p(1 − p)3
p(1 − p)3
p(1 − p)3
p2 (1 − p)2
p2 (1 − p)2
p2 (1 − p)2
p2 (1 − p)2
p2 (1 − p)2
p2 (1 − p)2
p3 (1 − p)
p3 (1 − p)
p3 (1 − p)
p3 (1 − p)
p4
x
0
1
1
1
1
2
2
2
2
2
2
3
3
3
3
4
Portanto, a distribuição de X é:
pX (x) = P(X = x) µ
0 (1 − p)4 =
µ
3
1 4p(1 − p) =
µ
2
2
2 6p (1 − p) =
µ
3 4p3 (1 − p) =
µ
4
4 p =
x
Ou, resumidamente:
µ
pX (x) =
= 0,
4
x
4
0
4
1
4
2
4
3
4
4
¶
¶
¶
¶
¶
p0 (1 − p)4−0
p1 (1 − p)4−1
p2 (1 − p)4−2
p3 (1 − p)4−3
p4 (1 − p)4−4
¶
px (1 − p)4−x ,
x = 0, 1, 2, 3, 4
para outros valores de X.
2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS
17
Observe que foi possível obter uma lei de formação ou fórmula fechada para ao cálculo
das probabilidades associadas a quaisquer valores da variável aleatória X. Tem-se, então, um
modelo probabilístico para X.
Questão: Sob as mesmas condições anteriores, qual seria a distribuiçào de probabilidade
da variável aleatória Y : número de sadios entre 100 pacientes selecionados?
Passaremos a descrever, nas subseções a seguir, alguns dos modelos probabilísticos discretos mais usuais.
2.2.1 Uniforme
Suponha um experimento aleatório ε determinado pela seleção aleatória de um valor, entre
n valores possíveis, com espaço amostral Ω = {a1 , a2 , · · · , an }.
Seja X a variável aleatória que indica o valor selecionado.
X : Ω → RX = {x1 , x2 , · · · , xn }
w → X(w)
Note-se que, em geral, nesse caso, X é a função identidade, levando cada elemento do espaço
amostral, ai , a xi = ai .
Diz-se que a variável aleatória discreta X tem distribuição Uniforme se os n possíveis valores de X, RX = {x1 , x2 , · · · , xn } ocorrem todos com mesma probabilidade.
Portanto, a função de probabilidade de X é:
½ 1
, x = x1 , x2 , · · · , xn
(2.5)
pX (x) = n
0, c.c.
Notação: X ∼ U{x1 , x2 , · · · , xn }
2.2.2 Bernoulli(p)
Suponha um experimento aleatório ε dado pela seleção aleatória de um elemento, que pode
ser "sucesso" (S, com probabilidade p) ou "fracasso" (F, com probabilidade 1 − p, tendo-se,
portanto, espaço amostral Ω = {S, F}.
Seja X a variável aleatória indicadora de sucesso, isto é,
½
1, se ocorre sucesso
X=
0, c.c.
.
X : Ω → RX = {1, 0}
w → X(w)
2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS
18
A função de probabilidade de X é:
½
pX (x) =
px (1 − p)1−x ,
0, c.c.
x = 0, 1
(2.6)
Notação: X ∼ Ber(p).
2.2.3
Binomial(n,p)
Seja o experimento aleatório ε composto por n repetições de ensaios de Bernoulli independentes, todos com probabilidade de "sucesso" p, resultantes da seleção aleatória e com
reposição de n elementos de uma população com tamanho qualquer. O espaço amostral associado a ε pode ser escrito como Ω = {a1 , a2 , · · · , an : ai = S ou F}. Denote por X variável
aleatória que representa o número de sucessos observados nas n repetições.
X : Ω → RX = {0, 1, 2, · · · , n}
w → X(w)
A função de probabilidade de X é:
 µ ¶
n

px (1 − p)n−x ,
x
pX (x) =

0, c.c.
x = 0, 1, 2, · · · , n
(2.7)
Notação: X ∼ Bin(n, p)
Obs: X ∼ Bin(1, p) ≡ X ∼ Ber(p)
2.2.4 Hipergeométrica(N,n,r)
Adimita agora que o experimento aleatório de interesse, ε , seja composto por n repetições
de ensaios de Bernoulli dependentes, todos com probabilidade de "sucesso" Nr , resultantes da
seleção aleatória e sem reposição de uma amostra de tamanho n, a partir de uma população
com N elementos, dos quais r são sucessos. Pode-se, então, representar o espaço amostral do
experimento por: Ω = {a1 , a2 , · · · , an : ai = S ou F, ai 6= a j , i 6= j}.
Seja X variável aleatória que registra o número de sucessos nas n repetições.
X : Ω → RX = {0, 1, 2, · · · , min(n, r)}
w → X(w)
A função de probabilidade de X é:
2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS






pX (x) =





Ã
0,
r
x
!Ã
N −r
n−x
Ã
!
N
n
c.c.
19
!
,
x = 0, 1, 2, · · · , min(n, r)
(2.8)
Notação: X ∼ Hip(N, n, r)
Aproximação da Hipergeométrica pela Binomial:
As condições do experimento aleatório realizado no modelo Binomial diferem daquelas
sob os quais vale o modelo Hipergeométrico apenas quanto à forma de seleção da amosta: com
reposição ou sem reposição. Entretanto, se o tamanho da amostra for pequeno em relação à
população, dificilmente um mesmo elemento será selecionado mais que uma vez e, portanto,
a amostragem com reposição fornece resultados próximos aos da amostragem com¡reposição.
¢
Assim, se, no modelo Hipergeométrico, n < 0, 10N ⇒ X ∼ Hip(N, n, r) ≈ X ∼ Bin n, Nr .
2.2.5
Geométrica(p)
Seja ε o experimento aleatório dado por repetições de ensaios de Bernoulli independentes,
todos com probabilidade de "sucesso" p, resultantes da seleção aleatória e com reposição de
elementos até obter sucesso, tendo, portanto, espaço amostral: Ω = {S, FS, FFS, · · · }.
Defina X como a variável aleatória que representa o número de ensaios de Bernoulli até
obter o 1o sucesso.
X : Ω → RX = {1, 2, · · · }
w → X(w)
A função de probabilidade de X é:
½
pX (x) =
Notação: X ∼ Geo(p)
(1 − p)x−1 p,
0, c.c.
x = 1, 2, · · ·
(2.9)
2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS
20
Propriedade de Falta de Memória da Geométrica:
Se X ∼ Geo(p), então:
P(X > t + s | X > t) = P(X > s)
(2.10)
Exercício: Demonstre a Propriedade de Falta de Memória da distribuição Geométrica.
Dica: use a definição de probabilidade condicional e o fato de que a soma dos termos de uma
P.G de razão q:
a1 (1 − qn )
Sn =
.
1−q
2.2.6 Pascal(r,p) ou Binomial Negativa(r,p)
Seja o experimento aleatório ε composto por repetições de ensaios de Bernoulli independentes, todos com probabilidade de "sucesso" p, resultantes da seleção aleatória e com
reposição de elementos até obter r sucessos. O espaço amostral é dado por Ω = {a1 , a2 , · · · , ak :
ak = S e (r − 1)dos ai ’s são S, i < k, k ≥ r}.
Defina X: a variável aleatória que registra o número de ensaios de Bernoulli até obter r
sucessos.
X : Ω → RX = {r, r + 1, · · · }
w → X(w)
A função de probabilidade de X é:
 µ
¶
x−1

pr (1 − p)n−r ,
r−1
pX (x) =

0, c.c.
x = r, r + 1, · · ·
(2.11)
Notação: X ∼ Pas(r, p)
Obs: X ∼ Pas(1, p) ≡ X ∼ Geo(p)
2.2.7
Poisson(λ )
Definição 2.5. Um Processo de Poisson é definido pelas seguintes hipóteses:
1. Os números de ocorrências do processo durante intervalos de tempo não-sobrepostos
constituem variáveis aleatórias independentes;
2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS
21
2. Se Xt é o número de ocorrências do processo no intervalo de [0,t) e Yt é o número de
ocorrências do processo no intervalo de [t,t1 +t), para qualquer t1 > 0, então as variáveis
aleatórias Xt e Yt têm a mesma distribuição de probabilidade;
3. Seja pn (t) = P(Xt = n). Então p1 (∆t) ≈ λ ∆t, se ∆t for suficientemente pequeno, onde λ
é uma constante positiva;
4. Para ∆t suficientemente pequeno, ∑∞
k=2 pk (∆t) ≈ 0;
5. X0 = 0 ou, equivalentemente, p0 (0) = 1.
O Modelo Poisson
Seja um experimento aleatório ε satisfazendo as condições do Processo de Poisson e defina
X∆t como a variável aleatória que denota o número de ocorrências do Processo de Poisson em
um intervalo qualquer de comprimento ∆t.
A função de probabilidade de X∆t é obtida resolvendo-se uma equação diferencial definida
pelas hipóteses (a)-(e) (v. Paul Meyer para demonstração) e dada por:
(
e−λ ∆t (λ ∆t)x
x = 0, 1, · · ·
x!
pX∆t (x) =
(2.12)
0, c.c.
Alguns exemplos usuais de Processos de Poisson são:
• Número de chamadas chegando a uma central telefônica, durante um período de t instantes;
• Número de estrelas encontradas em uma parte da Via Láctea com volume t;
• Número de glóbulos sangüíneos visíveis em um microscópio, por unidade quadrada de
área.
Exemplo 2.3. Suponha que o número de ligações chegando a uma central telefônica tenha
distribuição de Poisson com parâmetro λ = 5 ligações/minuto. Determine:
(a) A probabilidade de ocorrerem mais que 2 ligações em 1 minuto
(b) Idem, em 10 minutos.
2.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS DISCRETAS
22
Exemplo 2.4. Em um cruzamento com tráfego intenso, a probabilidade de um carro sofre acidente é bastante pequena e estimada como p = 0.0001. Durante certa parte do dia, por exemplo
daàs 18:00h, um grande número de carros passa pelo cruzamento, algo como 10.000 carros.
(a) Nessas condições, qual é a probabilidade de que 2 ou mais carros se acidem naquele
período?
(b) E se o número de carros passando pelo cruzamento for 100.000? (c) E se o número de
carros passando pelo cruzamento for 500.000?
Aproximação da Binomial(n,p) pela Poisson(np)
Teorema 2.1. Seja X ∼ Bin(n, p). Então, quando n → ∞ e p → 0, de tal forma que np = λ , a
distribuição de X aproxima-se da Poisson(λ = np)
Demonstração:
µ
pX (x) =
n
x
¶
px (1 − p)n−x ,
x = 0, 1, 2, · · · , n
=
n!
px (1 − p)n−x
x!(n − x)!
=
n(n − 1)(n − 2) · · · (n − x + 1 x
p (1 − p)n−x .
x!
(2.13)
Façamos λ = np. ⇒ p = λn .
µ ¶x µ
¶
n − λ n−x
λ
n
n
³
´n
³ n ´ µ n − 1 ¶ µ n − (x − 1) ¶ λ x n−n λ
³
´
=
···
n
n
n
x! n−λ x
n(n − 1) · · · (n − (x − 1))
⇒ pX (x) =
x!
n
³
´
µ
¶ µ
¶ x n−λ n
n
1
(x − 1) λ
³
´ .
= 1· 1−
··· 1−
n
n
x! n−λ x
n
Agora, faça n → ∞, de tal forma que np = λ permaneça constante, o que implica que p → 0.
µ
¶
λx
1 n
lim pX (x) =
lim 1 −
n→∞
x! n→∞
n
λ x e−λ
=
.
¤
x!
23
2.3 MOMENTOS DE VARIÁVEIS ALEATÓRIAS DISCRETAS
Voltemos ao exemplo 2.4. Aplicando a aproximação, para n = 10.000, temos:
a
X ∼ Poisson(10.000
× 0.0001})
|
{z
1
P(X ≥ 2) = 1 − P(X = 0) − P(X = 1)
e−1 10 e−1 11
≈ 1−
−
= 1 − 2e−1 = 0.26424.
0!
1!
2.3 Momentos de Variáveis Aleatórias Discretas
Definição 2.6. O k-ésimo momento de uma variável aleatória X é dado por:
µk = E[X k ]
(2.14)
Se X é variável aleatória discreta, então seu k-ésimo momento pode ser calculado por:
µk = E[X k ] = ∑ xk pX (x)
(2.15)
x
Em particular,
• E[X] = µ1
• V [X] = E[X 2 ] − E 2 [X] = µ2 − µ12
A tabela a seguir resume o valor esperado e a variância de algumas variáveis aleatórias
discretas.
Distribuição de X
E[X] V [X]
Bernoulli(p)
p
p(1 − p)
Binomial(n, p)
np
np(1 − p)
Hipergeométrica(N, n, r)
np
N−n
N−1 (p(1 − p),
p = Nr
Geométrica(p)
1
p
(1−p)
p2
Pascal(r, p)
r
p
r(1−p)
p2
Poisson(λ )
λ
λ
2.4 EXERCÍCIOS
24
2.4 Exercícios
1. De um lote que contém 25 peças, das quais 5 são defeituosas, são escolhidas 4 ao acaso.
Seja X o número de defeituosas encontradas. Estabeleça a distribuição de probabilidade
de X, quando:
a) As peças forem escolhidas com reposição;
b) As peças forem escolhidas sem reposição.
2. Sabe-se que a v. a. X assume os valores 1, 2 e 3 e que sua f.d.a. F(x) é tal que:
F(1) − F(1− ) = 1/3;
F(2) − F(2− ) = 1/6;
F(3) − F(3− ) = 1/2.
Obtenha a distribuição de X, a f.d.a. F(x) de X e seus respectivos gráficos.
Obs: F(l− ) é o limite de F(x) quando x tende a l pela esquerda.
3. Uma fábrica produz 10 recipientes de vidro por dia. Deve-se supor que exista uma probabilidade constante p = 0, 1 de produzir um recipiente defeituoso. Antes que esses recipientes sejam estocados, eles são inspecionados e e os defeituosos são separados. Admita
que exista uma probabilidade constante r = 0, 1 de que um recpiente defeituoso seja mal
classificado. Faça X igual ao número de recipientes classificados como defeituosos ao
fim de um dia de produção. Admita que todos os recipientes fabricados em um dia sejam
inspecionados naquele mesmo dia.
a) Calcule P(X = 3) e P(X > 3).
b) Obtenha a expressão de P(X = k)
4. Uma indústria fabrica peças, das quais 20% são defeituosas. Dois compradores, A e
B, classificam as peças adquiridas em categorias I e II, pagando 1,20 u.m. e 0,80 u.m.,
respectivamente, para cada categoria. A classificação é feita de acordo com os seguintes
critérios: Comprador A: Retira uma amostra aleatória de 5 peças. Se encontrar mais que
uma defeituosa, classifica como II. Comprador B: Retira uma amostra aleatória de 10
peças. Se encontrar mais que duas defeituosa, classifica como II.
a) Determine a função de probabilidade das variáveis aleatórias VA e VB . respectivamente os preços de venda aos compradores A e B.
b) Determine a função de distribuição acumulada de VA e VB .
c) Em média, qual dos compradores oferece maior lucro?
d) Em uma situação de tomada de decisão real, o maior lucro médio (ou esperado)
seria suficiente para definir a escolha? Que outros critérios poderiam ser levados em
conta?
5. Uma companhia de seguros descobriu que somente cerca de 0,1% da população está
incluída em certo tip de acidente a cada ano. Se seus 10.000 segurados são escolhidos,
ao caso, na população; qual é a probabilidade de que não mais que 5 de seus clientes
venham a estar incluídos em tal acidente no próximo ano?
2.4 EXERCÍCIOS
25
6. Uma fonte radioativa é observada por 7 intervalos de tempo, cada um com dez segundos
de duração. O número de partículas emitidas durante cada período é contado. Suponha
que o número de partículas emitidas, X, tenha distribuição de Poisson e que, em média,
sejam emitidas 0,5 partículas por segundo.
a) Qual é a probabiliadde de que, a cada um dos 7 intervalolos de tempo, 4 ou mais
partículas sejam emitidas?
b) Qual é a probabilidade de que, em ao menos 1 dos 7 intervalos, 4 ou mais partículas sejam emitidas?
7. A probabilidade de um bem sucedido lançamento de foguete é 0,8. Suponha que tentativas de lançamento sejam feitas até que tenham ocorrido 3 lançamentos bem sucedidos.
a) Qual é a probabilidade de que exatamente 6 tentativas sejam necessárias?
b) Qual é a probabilidade de que menos de 6 tentativas sejam necessárias?
c) Se cada tentativa de lançamento custa 5.000 u.m. e se um lançamento falho custa
500 u.m. adicionais, determine o custo esperado da operação.
d) Suponha agora que as tentativas sejam feitas até que três lançamentos consecutivos
sejam bem sucedidos. Responda novamente as perguntas (a) e (b) nesse caso.
8. A probabilidade de que um bit seja transmitido com erro por um canal de transmissão
digital é 0,1. Assuma que as transmissões sejam ensaios independentes.
a) Seja X o número de bits transmitidos até que ocorra o primeiro erro. Determine a
distribuição de X.
b) Determine a probabilidade de se precisar observar mais que 5 ensaios de transmissão.
c) Determine a probabilidade de se precisar observar mais que 5 ensaios de transmissão, após já se ter observado 3 ensaios, sem que ocorresse erro.
d) Determine o número esperado e o coeficiente de variação do número de ensaios
até o primeiro erro. O número esperado de ensaior é um bom preditor nesse caso?
e) Seja Y o número de transmissões até a ocorrência do quarto erro. Determine a
distribuição de Y .
f) Determine a probabilidade de se precisar observar no máximo 6 ensaios de transmissão
g) Determine o número esperado e o coeficiente de variação do número de ensaios
até o quarto erro.
9. O número de navios petroleiros que chegam a uma certa refinaria, a cada dia, tem distribuição Poisson, com parâmetro λ = 2. As atuais instalações do porto podem atender
a três petroleiros por dia. Se mais de três petroleiros aportarem por dia, os excedentes a
três deverão seguir para outro porto.
a) Em um dia, qual é a probabilidade de se ter de mandar petroleiros a outro porto?
2.4 EXERCÍCIOS
26
b) De quanto deverão as atuais instalações ser aumentadas para permitir manobrar
todos os petroleiros, em aproximadamente 90% dos dias?
c) Qual é o número esperado de petroleiros a chegarem por dia?
d) Qual é o número mais provável de petroleiros a chegarem num dia?
e) Qual é o número esperado de petroleiros atendidos diariamente?
f) Qual é o número esperado de petroleiros que voltarão a outros portos diariamente?
10. Em uma fábrica, a produção de 850 peças resultou em 50 peças não-conformes. Duas
peças são selecionadas ao acaso, sem reposição. Seja X o número de peças não-conformes.
a) Determine a distribuição de X.
b) Determine P(X ≤ 2), de forma exata.
c) Determine E[X] e V [X].
d) Determine P(X ≤ 2), de forma aproximada. Justifique o uso da aproximação.
11. Seja X ∼ Bernoulli(p). Mostre que E[X] = p e V [X] = pq, q = 1 − p.
12. Seja X ∼ Binomial(n, p). Mostre que E[X] = np e V [X] = npq, q = 1 − p.
Dica: Use o resultado da questão 10 e os seguintes fatos: "uma variável com distribuição
Binomial(n, p) pode ser escrita como a soma de n variáveis aleatórias Bernoulli(p) independentes. "O valor esperado de uma soma finita de variáveis aleatórias é igual à soma
dos valores esperados. "A variância de uma soma finita de variáveis aleatórias independentes é igual à soma das variâncias.
13. Mostre que se X ∼ Geomtrica(p), então E[X] = 1/p e V [X] = q/p2 .
14. Seja X ∼ Pascal(r, p). Mostre que E[X] = r/p e V [X] = rq/p2 , q = 1 − p.
Dica: Use o resultado da questão 12 e os seguintes fatos: "uma variável com distribuição
Pascal (r,p) pode ser escrita como a soma de r variáveis aleatórias Geométricas(p) independentes. "O valor esperado de uma soma finita de variáveis aleatórias é igual à soma
dos valores esperados. "A variância de uma soma finita de variáveis aleatórias independentes é igual à soma das variâncias.
15. Mostre que se X ∼ Poisson(λ ), então E[X] = λ e V [X] = λ .
xk
x
Dica: ∑∞
k=0 k! = e .
2.4 EXERCÍCIOS
27
16. Mostre que se X ∼ Hipergeomtrica(N, n, r), então E[X] = np, p = r/N e V [X] = npq(N −
n)/(N − 1), q = 1 − r/N.
Dica → Use os seguintes fatos:
C APÍTULO 3
Variáveis Aleatórias Contínuas
3.1 Introdução
Definição 3.1. Uma variável aleatória contínua X é uma função levando do espaço amostral à
reta real:
X : Ω → RX ⊂ R
ω → X(ω ),
em que RX é um conjunto não-enumerável.
Definição 3.2. A função densidade de probabilidade (f.d.p.) de uma variável aleatória contínua
X é a função fX (x) que satisfaz a:
(i) fRX (x) ≥ 0, ∀x
∞
(ii) −∞
fX (x)dx =
1
R
(iii) P(X ∈ B) = B fX (x)dx
Obs: Note que, de (iii), decorre que se X é variável aleatória contínua, então P(X = a) =
a f X (x)dx = 0, ∀a ∈ R.
Se X é variável aleatória contínua, então sua função de distribuição acumulada, definida por
(2.2), é calculada por:
Ra
FX (x) = P(X ≤ x) =
Z x
−∞
fX (u)du.
(3.1)
A função de distribuição acumulada, no caso contínuo, é uma função crescente e contínua,
tendendo a 0 quando x → −∞ e tendendo a 1 quando x → ∞, como ilustra a figura 3.1.
Assim como se pode obter a f.d.a. FX (x) a partir da f.d.p. fX (x), a recíproca também vale:
fX (x) =
dFX (x)
dx
28
(3.2)
3.1 INTRODUÇÃO
29
Figura 3.1 Função de distribuição acumulada de uma variável aleatória discreta
A coleção de pares [xi , fX (xi )] é denominada distribuição de X.
Obs: Para se determinar o quantil 100γ % da v.a. X, xγ , basta fazer:
P(X ≤ xγ ) = γ ⇒ FX (xγ ) = γ ⇒ xγ = FX−1 (xγ ).
Exemplo 3.1. Suponha que X seja uma variável aleatória com densidade:
½
fX (x) =
5e−5x , x ≥ 0
0, c.c.
a) Mostre que a função acima é, de fato, uma função densidade de probabilidade para X ;
b) Determine a função de distribuição acumulada de X e utilize-a para determinar os quartis de
X.
Exemplo 3.2. Suponha que X seja uma variável aleatória com densidade:
½
fX (x) =
k(1− | x |),
0, c.c.
−1 ≤ x ≤ 1
a) Determine o valor de k;
b) Determine P(−1/2 < X < 2/3)
c) Determine P(−1/2 < X < 2/3 | X > 0)
d) Determine a função de distribuição acumulada de X e utilize-a para determinar os quartis de
X e o percentil 90
e) Determine a moda de X .
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
30
3.2 Alguns Modelos Probabilísticos para Variáveis Aleatórias Contínuas
3.2.1 Uniforme Contínua(a, b)
Diz-se que X tem distribuição uniforme contínua no intervalo(a, b) (ou [a, b], indiferentemente), se sua função densidade de probabilidade é constante: fX (x) = k, a < x < b. Das
condições (i) e (ii) sobre funções densidade de probabilidade, tem-se que k > 0 e:
Z ∞
−∞
kdx =
Z b
kdx ⇒ k =
a
1
.
b−a
Assim,
½
fX (x) =
1
b−a ,
0,
a<x<b
c.c.
(3.3)
Exercício: Ônibus chegam a uma parada a cada 15 minutos, começando às 7:00h. Se um
passageiro chega ao ponto em um instante aleatório entre 7:00h e 7:30h, qual é a probabilidade
de que espere pelo ônibus por menos que 5 minutos?
Exercício: Mostre que se X ∼ U(a, b) então sua distribuição acumulada é dada por:

 0,
FX (x) =

x−a
b−a ,
1,
x<0
a<x<b
x≥1
(3.4)
3.2.2 Normal(µ , σ 2 )
Diz-se que X tem distribuição Normal(µ , σ 2 ) ou Gaussiana Normal(µ , σ 2 )se sua função
densidade de probabilidade é:
fX (x) = p
1
(2π )σ 2
½
exp
(x − µ )2
−
2σ 2
¾
,
−∞ < x < ∞.
(3.5)
A curva determinada pela expressão acima tem formato de sino e é simétrica em torno de
µ , com dispersão controlada pelo parâmetro σ 2 , tornando-se mais concentrada em torno de µ
quanto menor for σ 2 . A figura 3.2 ilustra uma curva normal para um valor específico do par
(µ , σ 2 ).
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
31
Figura 3.2 Função de densidade de uma variável aleatória normal
Pela propriedade (iii) de funções de densidade, para calcular P(a < X < b), deveríamos
solucionar a seguinte integral:
¾
½
Z b
Z b
1
(x − µ )2
p
fX (x)dx =
dx.
(3.6)
P(a < X < b) =
exp −
2σ 2
a
a
(2π )σ 2
A integral acima, entretanto, não pode ser obtida de forma exata, sendo necessário fazer
uso de métodos numéricos para obtê-la aproximadamente. Observe, porém, que cada valor
atribuío ao par (µ , σ 2 ) modifica a função a ser integrada, tornando inviável a tarefa de se fazer
a avaliação numérica de cada uma dessas integrais. Fazemos uso então do seguinte fato: se
X ∼ N(µ , σ 2 ), então
X −µ
∼ N(0, 1)
(3.7)
σ
e diz-se que Z tem distribuição normal padrão ou normal reduzida. Têm-se disponíveis, então, tabelas com aproximações numéricas de probabilidades associadas apenas a variáveis normais padronizadas, de tal sorte que, para calcular probabilidades associadas a uma distribuição
N(µ , σ 2 ) qualquer, basta reduzi-la à N(0, 1) e, então, consultar as probabilidades desejadas
nessas tabelas.
Z=
Exercício: O lucro na venda de determinada peça depende de seu comprimento, que tem
distribuição normal com média 40cm e variância 16cm2 . Se o comprimento estiver entre 36cm e
44cm, o lucro é R$10, 00. Se tiver comprimento inferior a 36cm, a peça é descartada, geragndo
prejuízo de R$10, 00. Se o diâmetro for superior a 44cm, a peça é retrabalhada e o lucro
proveniente é R$7, 00. Determine o lucro esperado da venda de uma de tais peças.
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
32
3.2.3 Exponencial(λ )
Diz-se que X tem distribuição Exponencial(λ > 0) se sua função densidade de probabilidade é:
½
fX (x) =
λ e −λ x , x ≥ 0
0, c.c.
(3.8)
A densidade acima é assim;étrica positiva e seu formato, para alguns valores de λ , é exibido
na figura 3.3: assume valor λ quando x = 0 e tende a 0 quando x → ∞. O parâmetro lambda
controla a velocidade do decaimento, que se torna mais rápido quanto maior for λ .
Figura 3.3 Função de densidade de uma variável aleatória Exponencial
A função de distribuição acumulada Exponencial, portanto, é dada por:
(3.1)
FX (x) =
Z x
0
fX (u)du = 1 − e−λ x .
(3.9)
Exercício: Mostre que a função de distribuição acumulada da distribuição Exponencial (λ )
é dada pela expressão(3.9).
Relação entre a Poisson e a Exponencial
Teorema 3.1. Se o número de ocorrências de um processo de contagens segue a distribuição
Poisson(λ ), então as variáveis aleatórias "Tempo até a primeira ocorrência" e "Tempo entre
quaisquer ocorrências sucessivas" do referido processo têm distribuição Exp(λ ).
Demonstração em aula
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
33
Exemplo 3.3. Suponha que tremores de terra ocorram na região oeste dos EUA a uma taxa
média de λ tremores por semana, seguindo um Processo de Poisson. Seja T a variável aleatória
que denota o tempo até o próximo tremor. Determine a densidade de T .
Propriedade de Falta de Memória da Exponencial
Se X ∼ Exp(λ ), então:
P(X > t + s | X > t) = P(X > s)
(3.10)
Obs:Podemos pensar na Propriedade de Falta de Memória implicando qucomponente cuja
duração T ∼ Exp(λ ) está sendo estudada funcione sempre como novo, ou seja, seu potencial
para falha é constante. Assim, a distribuição exponencial presta-se à modelagem do período de
vida útil de um componente, mas não de períodos de desgaste ou aperfeiçoamento.
Exercício: Demostre a Propriedade de Falta de Memória da distribuição Exponencial.
Exercício: Suponha que a duração de ligações telefônicas em certa empresa tenha distribuição exponencial e que, em média, cada ligação dure 10 minutos. Se apenas um telefone
está disponível e alguém começa a usar o telefone imediatamente antes de você, determine a
probabilidade de que você precise esperar:
a) mais que 10 minutos
b) entre 10 e 20 minutos
c) mais que 12 minutos, uma vez que já esteja esperando há 7 minutos.
3.2.4 Gama(α , λ )
Diz-se que X tem distribuição Gama(α , λ ) se sua função densidade de probabilidade é:
(
fX (x) =
λ α −λ x α −1
x
,
Γ(α ) e
0,
c.c.
x≥0
,
(3.11)
a qual é ilustrada na figura 3.2.4. No primeiro gráfico, tem-se o parâmetro λ fixo e diferentes
valores para o parâmetro de forma, α . Para α ≤ 1 a função é monótona. Observe que o
caso α = 1 equivale à densidade Exponencial(λ ). No segundo ggráfico, fixou-se o parâmetro
de forma e vaiou-se λ . Note que quanto maior o valor de λ , mais rapidamente a função de
densidade tende a zero.
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
34
Figura 3.4 Função de densidade de uma variável aleatória Gama
A constante Γ(α ) presente no denominador de (3.15) é a função Gama, dada por:
Γ(α ) =
Z ∞
e−u uα −1 du.
(3.12)
o
Se α é inteiro, então, resolvendo-se a integral acima recursivamente por partes , obtém-se:
Γ(α ) = (α − 1)Γ(α − 1)
⇒ Γ(α ) = (α − 1)!
(3.13)
Assim, a função Gama pode ser vista como uma extensão da função fatorial, permitindo argumentos não-inteiros.
Casos Particulares da Densidade Gama:
• Se α = 1 ⇒ X ∼ Gama(α , λ ) ≡ X ∼ Exponencial(λ ).
• Se α é inteiro, ⇒ X ∼ Gama(α , λ ) ≡ X ∼ Erlang(α , λ ).
• Se α = n/2, λ = 1/2 ⇒ X ∼ Gama(n/2, 1/2) ≡ X ∼ χ 2 (n).
Relação entre as Distribuições Poisson e Gama
Teorema 3.2. Se o número de ocorrências de um processo de contagens segue a distribuição
Poisson(λ ), então a variável aleatória "Tempo até a n-ésima ocorrência" do referido processo
tem distribuição Gama(n, λ ).
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
35
Demonstração em aula
Exemplo 3.4. As falhas em CPU’s de computadores usualmente são modeladas por processos
de Poisson. Isso porque, tipicamente, as falhas não são causadas por desgaste, mas por eventos
externos ao sistema. Assuma que as unidades que falham sejam imediatamente reparadas e que
o número médio de falhas por hora seja 0,0001. determine as probabilidades de que:
(a) o tempo entre falhas sucessivas exceda 10.000 horas;
(b) o tempo até a quarta falha exceda 40.000 horas;
(c) ocorram mais qe 3 falhas em 20.000 horas.
Exercício: O tempo entre chegadas de clientes a um caixa eletrônico segue a distribuição
Exponencial com média 5 minutos. Determine a probabilidade de que:
(a) mais que 3 clientes cheguem em 10 minutos;
(b) o tempo até a chegada do quinto cliente seja inferior a 15 minutos;
(c) o tempo entre chegadas sucessivas exceda 7 minutos, uma vez que já se tenham passado 5
minutos sem que chegassem clientes.
3.2.5 Qui-quadrado(n)
Um importante caso particular da distribuição Gama(α , λ ) é a distribuição Qui-quadrado
2 e obtida ao se fazer, na distribuição Gama, α = n
com n graus de liberdade, denotada por χ(n)
2
2 se sua função densidade de probabilidade é
e λ = 12 . Assim diz-se que X tem distribuição χ(n)
dada por:
(
(3.15)
fX (x) =
1
2n/2−1 e−x/2 ,
2n/2 Γ(n/2)
0,
c.c.
x≥0
(3.14)
Questão: Como calcular probabilidades associadas a uma variável aleatória com distribuição
2 ?
χ(n)
• Caso 1: n = 2m (n é par).
2 = χ2
No caso em que o número de graus de liberdade é par, então χ(n)
(2m) ≡ Gama(m, 1/2),
sendo m inteiro. Já vimos que se o número de ocorrências de um processo de contagens segue a distribuição Poisson(λ ), então a variável aleatória "Tempo até a m-ésima
ocorrência"do referido processo tem distribuição Gama(m, λ ). Então, a variável aleatória
2 = χ2
com distribuição X ∼ χ(n)
(2m) ≡ Gama(m, 1/2) pode ser pensada como uma variável
aleatória representando o tempo até a m-ésima ocorrência de um Processo de Poisson(1/2).
Assim, os eventos {X > x} e {Nx ≤ m − 1} são equivalentes, sendo Nx a v.a. que denota o número de ocorrências do processo de Poisson até o "instante"x. Sabendo-se que
Nx ∼ Poisson(x · 1/2), pode-se calcular probabilidades associadas a X usando-se a distribuição de Poisson. Para maiores detalhes, ver exemplos discutidos em aula.
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
36
Figura 3.5 Função de densidade de uma variável aleatória Qui-quadrado
• Caso 2: n é "grande"(par ou ímpar).
2 é obtida quando o número de graus de liberUma aproximação para a distribuição χ(n)
√
√
a
2 , então para n suficientemente grande, 2X ∼
dade é grande: Se X ∼ χ(n)
Normal( 2n − 1, 1).
Exemplo 3.5. Calculando probabilidades para X ∼ χ 2 .
(a) Seja X ∼ χ82 . Determine Determine P(X > 8).
2 . Determine Determine P(X > 32).
(b) Seja X ∼ χ30
2 .
• Caso 3: n não atende aos casos acima: pode-se utilizar a tabela χ(n)
Exemplo 3.6. Seja X ∼ χ72 .
(a) Determine Determine P(X > 7).
(b) Determine o valor x tal que P(X < x) = 0, 975.
(c) Determine o valor x tal que P(X < x) = 0, 95.
3.2.6 Beta(α , β )
Diz-se que X tem distribuição Beta(α , β ) se sua função densidade de probabilidade é:
(
fX (x) =
Γ(α +β ) α −1
(1 − x)β −1 ,
Γ(α )Γ(β ) x
0,
c.c.
0≤x≤1
(3.15)
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
37
Note que a densidade acima está definida para valores de X entre 0 e 1. Se a < X < b então
0 < Y = X−a
b−a < 1 e Y pode ser modelada pela densidade Beta.
Se α = 1 e β = 1, então Beta(α , β ) ≡ Uni f (0, 1).
Se α = β , então a densidade é simétrica em torno de 0.5, tornando-se mais concentrada
à medida que α = β aumenta. Se α < β , a densidade é assimétrica positiva e, para α > β ,
assimétrica negativa. A figura 3.6 exibe os formatos da densidade beta para diferentes valores
de seus parâmetros.
Figura 3.6 Função de densidade de uma variável aleatória Beta
Exemplo 3.7. Seja X uma valores entre 30 e 50 e assuma que Y =
Beta(2,1). Determine P(X > 40)
X−30
50−30
tenha distribuição
3.2.7 Weibull(α , λ )
Diz-se que X tem distribuição Weibull(α , λ ) se sua função de distribuição acumulada é:
½
FX (x) =
α
1 − e−(λ x) ,
0, c.c.
x≥0
(3.16)
Então,
(3.2)
fX (x) =
½
α
αλ α e−(λ x) xα −1 ,
0, c.c.
x≥0
(3.17)
A figura 3.7 exibe a densidade Weibull para diferentes valores do parâmetro de forma, α .
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
38
Figura 3.7 Função de densidade de uma variável aleatória Weibull
Obs 1: Se α = 1 ⇒ X ∼ Weibull(α , λ ) ≡ X ∼ Exponencial(λ ).
Obs 2: A distribuição Weibull é muito utilizada em análises de confiabilidade, devido à
sua versatilidade para modelar tempos de vida de componentes com taxa de falha crescente
(α > 1), decrescente (α < 1) ou constante (α = 1).
Aplicação em confiabilidade
Nas análises de confiabilidade, tem-se interesse na modelagem da variável aleatória T ,
tempo de vida ou duração de um componente ou sistema. Suponha-se então que T tenha função
densidade de probabilidade fT (t) e função de distribuição acumulada FT (t) = P(T ≤ t), dada
por (3.1).
Definição 3.3. A função de confiabilidade do componente no instante t ( R(t), do termo em
inglês reliability) é a probabilidade de que ele sobreviva ao instante t, dada por:
R(t) = P(T > t) = 1 − P(T ≤ t) = 1 − FT (t).
Definição 3.4. A função taxa de falha, λ (t), mede para cada instante t o potencial de falha do
componente, dado que este não tenha falhado até aquele instante, e é dada por:
λ (t) =
=
=
=
=
P(T < t + ∆t|X > t)
∆t→0
∆t
P(t < T < t + ∆t)
lim
∆t→0
P(X > t)∆t
FT (t + ∆t) − FT (t)
1
lim
P(X > t) ∆t→0
∆t
1 dFT (t)
R(t) dt
fT (t)
.
R(t)
lim
(3.18)
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
39
Quando T ∼ Weibull(α , λ ), substituindo-se (3.16) e (3.17) em (3.18), a taxa de falha é dada
por:
λ (t) = αλ α t α −1 .
(3.19)
Pode-se mostrar (pelo estudo de suas derivadas), que a função taxa de falha Weibull dada
por (3.19) tem os seguintes comportamentos:
• para α = 1 (em que se tem a distribuição Exponencial), a taxa de falha é constante e,
portanto, adequada à modelagem de tempos de vida de componentes em seu período de
vida útil, quando as falhas são causadas por eventos externos ao componente;
• para α > 1 a taxa de falha Weibull é crescente, indicando aumento do potencial de falha
com o passar do tempo, situação a que estão sujeitos componentes que se desgastam;
• para α < 1 a taxa de falha Weibull é decrescente, indicando diminuição do potencial de
falha com o passar do tempo.
Exemplo 3.8. O tempo (horas) até a falha de determinado componente é modelado pela distribuição Weibull(2, 0.0002).
(a) Determine a probabilidade de que o mecanismo sobreviva por pelo menos 4.500 horas;
(b) Determine o tempo de vida que se deve garantir de forma que somente 1% dos componentes
fabricados falhem antes do tempo garantido;
(c) De acordo com o modelo postulado para o tempo de vida, o componente falha por causas
aleatórias, melhora com o passar do tempo ou sofre desgaste?
3.2.8 T de Student(k)
Diz-se que X tem distribuição t de Student com k graus de liberdade se sua função densidade
de probabilidade é dada por:
¡
¢ µ
¶−(k+1)/2
Γ k+1
x2
2
¡ ¢ 1+
fX (x) = √
,
k
kπ Γ 2k
−∞ < x < ∞.
(3.20)
A figura 3.8 exibe os comportamentos da densidade acima, para diferentes graus de liberdade k. Como se pode constatar, a densidade é simétrica em torno de zero (sua moda), com
formato de sino, semelhante a distribuições normais com média nula. Entretanto, as caudas
da distribuição T são mais pesadas que as da normal, o que significa que, quando x → −∞ ou
x → ∞, a densidade aproxima-se de zero mais lentamente que a normal. À medida em que o
número de graus de liberdade, k, aumenta, a distribuição T torna-se mais concentrada. No limite, quando k → ∞, a densidade T converge para a normal-padrão. Assim, para valores grandes
de k, a distribuição T pode ser aproximada pela normal-padrão.
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
40
Figura 3.8 Função de densidade de uma variável aleatória T de Student
A distribuição T tem como caso particular a distribuição Cauchy, quando k = 1. Embora
a distribuição T seja sempre simétrica em torno de zero, a média da distribuição Cauchy não
existe, pois a integral necessária ao cálculo do valor esperado não converge. Para valores k > 1
a média existe e, claramente, é nula, em virtude da simetria em torno de zero. De forma geral,
se X ∼ T(k) então são finitos seus momentos de ordem n < k.
Probabilidades associadas à distribuição T podem ser encontradas em tabelas, nas quais
a linha correspondente a infinitos graus de liberdade reporta quantis da distribuição normalpadrão.
Exemplo 3.9. Seja X ∼ T(k) . Determine os percentis 95, 97,5 e 99 de X , para:
(a) k = 10
(b) k = 150
Observação: Um resultado importante e bastante aplicado em Inferência é o fato de que se
2 , então
Z ∼ N(0, 1) e é independente de Q ∼ χ(n)
Z
T = q ∼ T(n) .
Q
n
2
Daí decorre que se X1 , · · · , Xn formam
p n uma amostra aleatória de X ∼ N(µ , σ ) e s é o desvio2
padrão amostral, dado, por s = ∑i=1 (xi − x̄) /(n − 1), então:
T=
X̄ − µ
∼ T(n−1) .
s/n
Os fatos acima poderão ser provados no curso de Cálculo das Probabilidades III.
Exemplo 3.10. Em uma linha de produção, determinada peça deve ser fabricada, em média,
com µ = 10cm de comprimento. Toma-se uma amostra de 22 peças, obtendo-se comprimento
3.2 ALGUNS MODELOS PROBABILÍSTICOS PARA VARIÁVEIS ALEATÓRIAS CONTÍNUAS
41
médio amostral x̄ = 11, 2cm e desvio-padrão s = 1, 5cm. Você julga que os valores observados
na amostra fornecem indícios de que as peças produzidas estejam acordo com as especificações
da linha de produção? (Isso equivale a perguntar: o valor obsevado para a média amostral é um
valor típico se µ = 10cm ou é um valor discrepante, isto é, posicionado na cauda da distribuição
de X̄ ?). Assuma que o comprimento X das peças produzidas seja modelado adequadamente
pela distribuição Normal.
3.2.9 F de Fisher-Snedcor(d1 , d2 )
Diz-se que a variável aleatória contínua X tem distribuição F com d1 e d2 graus de liberdade
se sua função densidade de probabilidade é dada por:



fX (x) =
Γ
³

 0,
´
d /2 d /2
d1 +d2
d1 1 d2 2
2
³ ´ ³ ´
d
d
Γ 21 Γ 22
x(d1 /2)−1
,
(d1 x+d2 )(d1 +d2 )/2
x ≥ 0;
(3.21)
c.c.
A figura exibe os gráficos das densidades F para alguns valores de seus graus de liberdade,
d1 e d2 . A distribuição é assimétrica positivam, tendo moda em zero quando d1 = 1 ou d1 = 2;
caso contrário, a moda ocorre em algum ponto maior que zero.
Figura 3.9 Função de densidade de uma variável aleatória F de Student
Percentis associados à distribuição F podem ser obtidos em tabelas, que, em geral, fornecem
apenas quantis superiores associados à distribuição: usualmente, os percentis 95, 97,5 e 99.
Para se obter percentis inferiores, pode-se usar a propriedade descrita a seguir. Denote-se por
xd1 ,d2 ,p o p-ésimo percentil da distribuição F com d1 e d2 graus de liberdade, ou seja, o valor
tal que:
P(Fd1 ,d2 ≤ xd1 ,d2 ,p ) = p.
3.3 MOMENTOS DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS
42
Então tem-se que:
xd1 ,d2 ,p = 1/xd2 ,d1 ,1−p .
Exemplo 3.11. Obtenha o quantil 5% da distribuição F com 6 e 8 graus de liberdade.
Observação: Um resultado importante e bastante aplicado em Inferência é o fato de que se
Q1 ∼ χd21 e é independente de Q2 ∼ χd22 , então
Q1 /d1
∼ Fd1 ,d2 .
Q2 /d2
T=
Daí decorre que se X11 , · · · , X1n1 formam uma amostra aleatória de X ∼ N(µ1 , σ 2 ) independente
de uma segunda amostra aleatória X21 , · · · , X2n2 X ∼ N(µ2 , σ 2 ), denotando-se por s2j a variância
da amostra j, dada, por s2j = ∑ni=1 j (x ji − x̄ j )2 /(n j − 1), j = 1, 2, então:
F=
s21
∼ Fn1 −1,n2 −1 .
s22
Os fatos acima poderão ser provados no curso de Cálculo das Probabilidades III.
3.3
Momentos de Variáveis Aleatórias Contínuas
Definição 3.5. O k-ésimo momento de uma variável aleatória X é dado por (2.14). Se X é
variável aleatória contínua, então seu k-ésimo momento pode ser calculado por:
Z
µk = E[X ] =
k
xk fX (x)dx.
(3.22)
Em particular,
• E[X] = µ1
• V [X] = E[X 2 ] − E 2 [X] = µ2 − µ12
A tabela a seguir resume o valor esperado e a variância de algumas variáveis aleatórias
contínuas.
43
3.4 EXERCÍCIOS
Distribuição de X
E[X]
V [X]
Uniforme(a, b)
a+b
2
(b−a)2
12
Normal(µ , σ 2 )
µ
σ2
Exponencial(λ )
1
λ
1
λ2
Gama(α , λ )
α
λ
α
λ2
χn2
n
2n
Beta(α , β )
α
α +β
αβ
(α +β )2 (α +β +1)
Weibull(α , λ )
1
1
λΓ α
T(k)
0, se k > 1
k
k−2 ,
F(d1 , d2 )
d2
d2 −2 ,
2d22 (d1 +d2 −2)
,
d1 (d2 −2)2 (d2 −4)
¡
+1
¢
se d2 > 2
3.4
¡
1
Γ α2
λ2
¢
£ ¡
¢¤2
+ 1 − λ12 Γ α2 + 1
se k > 2
se d2 > 4
Exercícios
1. A demanda diária de arroz em um supermercado em centenas de quilos, é uma v.a. X
com funçào densidade de probabilidade:
 2x
 3, 0<x<1
fX (x) =
1 − 3x , 1 < x < 3

0, c.c.
a) Mostre que fx (x) é uma função densidade de probabilidade para a demanda de
arroz.
b) Qual é a probabilidade de, em um dia escolhido ao acaso, se vender mais que
150kg de arroz?
c) Em 30 dias, quanto o gerente do supermercado espera vender?
d) Determine a função de distribuição acumulada de X.
e) Qual é a quantidade de arroz que deve ser deixada à disposição do público diariamente para que não falte arroz com 95% de probabilidade?
3.4 EXERCÍCIOS
44
f) Qual é a demanda mediana de arroz?
g) E a demanda modal?
2. A temperatura T de destilação do petróleo é crucial na determinação da qualidade final
do produto. Suponha que T seja considerada uma v.a. com distribuição uniforme no
intervalo de 150 a 300. Suponha que o custo para produzir um galão de petróleo seja
C1 u.m. Se o óleo é destilado a uma temperatura inferior a 2000, o produto obtido é
vendido a C2 u.m; se a temperatura for superior a 2000, o produto é vendido a C3 u.m.
a) Fazer o gráfico da f.d.p de T.
b) Qual o lucro esperado por galão?
3. O diâmetro X de rolamentos de esferas fabricados por certa fábrica tem distribuição
N(0, 6140; (0, 0025)2 ). O lucro T de cada esfera depende de seu diâmetro e
• T = 0, 10 se a esfera é boa (0, 6100 < X < 0, 6180)
• T = 0, 05 se a esfera é recuperável (0, 6080 < X < 0, 6100) ou (0, 6180 < X <
0, 6200)
• T = −0, 10 se a esfera é defeituosa (X < 0, 6080 ou X > 0, 6200).
Determine E[T ].
4. Em uma determinada localidade, a renda em 1000 u.m. é uma v.a. X com função densidade de probabilidade:


fX (x) =

x+1
10 , 0 < x < 2
1 − 18−3x
40 , 2 < x < 6
0,
c.c.
a) Mostre que fX (x) é uma função densidade de probabilidade para X.
b) Determine a função de distribuição acumulada de X.
c) Escolhida uma pessoa ao acaso, qual é a probabilidade de sua renda exceder
3.000u.m.?
d) Determine a renda média nessa localidade.
e) Determine a renda mediana nessa localidade.
f) Determine o 1o e o 3o quartis da variável renda.
5. As notas de Estatística Econômica dos alunos de determinada universidade seguem a
distribuição normal, com média 6,4 e desvio-padrão 0,8. O professor atribui graus A, B
e C, da seguinte forma:
• C, para notas inferiores a 5
• B, para notas entre 5 a 7,5
3.4 EXERCÍCIOS
45
• A, para notas entre 7,5 e 10.
Em uma classe com 80 alunos, qual é o número esperado de alunos com grau A? B? C?
6. Suponha que o número de milhas que um carro percorre antes que sua bateria sofra
desgaste tenha distribuição Exponencial com média 10.000 milhas. Se uma pessoa deseja
fazer uma viagem de 5.000 milhas com uma bateria já usada por 8.000 milhas, qual é a
probabilidade de terminar a viagem sem ter que trocar a bateria?
7. O tempo de vida dos pneus de certo fabricante tem distribuição Exponencial, com duração média de 50.000 km.
a) Determine a probabilidade de que um pneu deste fabricante dure mais que 50.000
km.
b) Qual é o tempo de vida que o fabricante deve garantir de forma que, no máximo,
1% dos compradores utilizem a garantia?
c) Você acha que a distribuição exponencial é adequada a esta situação? Justifique.
8. O número de clientes chegando a um certo estabelecimento comercial segue a distribuição
de Poisson. Em média, chegam 10 clientes a cada hora.
a) Determine a probabilidade de que o tempo até a chegada do primeiro cliente exceda 5 minutos.
b) Determine a probabilidade de que o tempo entre chegadas sucessivas de dois
clientes quaisquer exceda 5 minutos.
c) Determine a probabilidade de que o tempo até a chegada do quinto cliente exceda
30 minutos.
d) Determine a probabilidade de que chegue algum cliente nos próximos 30 minutos,
uma vez que nenhum cliente chegou na última hora.
e) Determine o tempo médio entre chegas sucessivas. Este é um bom valor preditivo?
f) Determine o tempo mediano entre chegadas sucessivas.
g) Determine o tempo médio até a chegada do quinto cliente. Este é um bom valor
preditivo?
9. Suponha-se que um fusível tenha uma duração de vida X, a qual pode ser considerada
uma variável aleatória contínua com distribuição Exponencial. Existem dois processos
pelos quais o fusível pode ser fabricado. O processo I apresenta uma duração de vida
esperada de 100 horas, enquanto o processo II apresenta uma duração de vida esperada
de 150 horas. Suponha-se que o processo II seja duas vezes mais custoso que o processo
I, que custa 3,00 u.m. por fusível. Admita-se, além disso, que se um fusível durar menos
que 200 horas, uma multa de 20 u.m. seja lançada sobre o fabricante. Qual proceslrfso
deve ser empregado de forma a se minimizar o custo esperado?
3.4 EXERCÍCIOS
46
10. Seja X uma v. a. com distribuição Qui-quadrado com:
a) 10 graus de liberdade. Determine, de forma exata, P(X>9).
b) 120 graus de liberdade. Determine uma aproximação para P(X>140).
11. Determine os quantis 1%, 2,5%, 5%, 95%, 97,5% e 99% das seguintes distribuições:
a) T9
b) T130
c) F8,9 .
12. Seja X uma variável aleatória com distribuição Beta(3,2).
a) Determine a função de distribuição acumulada de X.
b) Determine P(X>1/2).
13. Seja X uma variável aleatória com distribuição Weibull(3,0.005).
a) Determine os quartis de X
b) Suponha que X represente o tempo de vida (em de um componente. Determine a
confiabilidade desse componente para 50 horas.
c) Determine a probabilidade de que o componente dure mais que 250 horas, uma
vez que já esteja em funcionamento por 200 horas.
d) Determine a duração esperada do componente. O valor esperado é um bom
preditor para essa variável aleatória? Use os seguintes fatos: Γ(1/3) = 2, 678939 e
Γ(2/3) = 1, 354118.
14. Mostre que se X é uma variável aleatória contínua, com distribuição Uni f orme(a, b),
então:
(b−a)2
E[X] = a+b
2 e V [X] = 12 .
15. Mostre que se X ∼ Exponencial(λ ), então:
E[X] = λ1 e V [X] = λ12 .
16. Mostre que se X ∼ Exponencial(λ ), então P(X > t + s|X > t) = P(X > s), ou seja, a
distribuição Exponencial goza da propriedade de "Falta de Memória".
17. Mostre que se X ∼ Gama(α , λ ), então:
E[X] = αλ e V [X] = λα2 .
18. Mostre que se X ∼ Weibull(α , λ ), então:
¢
¢¤2
¡
£ ¡
V [X] = λ12 Γ α2 + 1 − λ12 Γ α2 + 1 .
C APÍTULO 4
Funções de Variáveis Aleatórias
4.1 Distribuição de Y = h(X)
Muitas vezes, o modelo probabilístico para uma variável aleatória X é conhecido, mas se
deseja obter a distribuição de probabilidade de uma segunda variável aleátória, Y , relacionada
a X segundo: Y = h(X), h uma função real.
4.1.1 Caso1: X é variável aleatória discreta e Y = h(X) é variável aleatória discreta
Se X é variável aleatória discreta com função de probabilidade conhecida pX (x) = P(X = x)
e Y = h(X) é uma transformação biunívoca no conjunto de possíveis valores de X, RX . Então
tem-se, a cada ponto y associado um único ponto X e a função de probabilidade de Y é dada
por:
pY (y) = pX [h−1 (y)],
(4.1)
em que h−1 denota a inversa da função h.
Exemplo 4.1. Seja X uma variável aleatória com distribuição Geométrica ( p). Determine a
distribuição de Y = h(X) = X 2 .
Sob as mesmas condições anteriores, suponha-se, agora, que a transformação h não seja
biunívoca, sendo o ponto Y = y associado a x1 , x2 , · · · , xk , isto é: y = h(x1 ) = h(x2 ) = · · · h(xk ).
Nesse caso, a função de probabilidade de Y é dada por:
pY (y) =
∑
pX (xi ).
(4.2)
xi :h(xi )=y
Exemplo 4.2. Seja X a variável aleatória que denota o resultado do lançamento de um dado
não-viciado. Determine a distribuição de Y , a variável indicadora de resultado par.
47
4.1 DISTRIBUIÇÃO DE Y = h(X)
48
4.1.2 Caso2: X é variável aleatória contínua e Y = h(X) é variável aleatória discreta
Seja X uma variável aleatória contínua com função densidade de probabilidade conhecida
fX (x) e suponha que Y = h(X) seja uma variável aleatória discreta. A função de probabilidade
de Y é dada por:
Z
pY (y) =
x:h(x)=y
fX (x)dx.
(4.3)
Exemplo 4.3. O diâmetro X de rolamentos de esferas fabricados por certa fábrica tem distribuição N(0, 6140; (0, 0025)2 ). O lucro Y de cada esfera depende de seu diâmetro e
• Y = 0, 10 se a esfera é boa (0, 6100 < X < 0, 6180)
• Y = 0, 05 se a esfera é recuperável (0, 6080 < X < 0, 6100) ou (0, 6180 < X < 0, 6200)
• Y = −0, 10 se a esfera é defeituosa (X < 0, 6080 ou X > 0, 6200).
Determine a distribuição de Y .
4.1.3 Caso3: X é variável aleatória contínua e Y = h(X) é variável aleatória contínua
Seja X uma variável aleatória contínua com função densidade de probabilidade conhecida
fX (x) e suponha que Y = h(X) seja uma variável aleatória contínua. A função densidade de
probabilidade de Y pode ser obtida da seguinte forma:
1. Parte-se da definição da distribuição acumulada de Y : FY (y) = P(Y ≤ y);
2. Escreve-se, na expressão acima, Y em função de X;
3. Isola-se X e obtém-se uma expressão para FY (y) em função de Fx e de y;
4. Usa-se o fato de que fY (y) =
cadeia.
dFY (y)
dy ,
sendo a derivada obtida aplicando-se a regra da
Exemplo 4.4. Seja X ∼ U(−1, 1). Determine a função densidade de probabilidade de Y =
h(X) = X 2 .
Exemplo 4.5. Seja X ∼ Exponencial(λ ). Determine a função densidade de probabilidade de
Y = h(X) = X 2 .
Os resultados acima podem ser resumidos no seguinte teorema:
4.2 ESPERANÇA DE Y = h(X)
49
Teorema 4.1. (Teorema do Jacobiano - versão univariada) Seja X função densidade de probabilidade conhecida fX (x) e defina Y = h(X), h uma função diferenciável e monótona (crescente
ou decrescente) no conjunto de possíveis valores de X , RX . Então h é inversível em RX e a
função densidade de probabilidade de Y é dada por:
¯ ¯
¯ dx ¯
fY (y) = fX (x) ¯¯ ¯¯
dy
¯ −1 ¯
¯ dh (y) ¯
−1
¯.
(4.4)
= fX [h (y)] ¯¯
dy ¯
Demonstração em aula
Exercício: Volte aos exemplos 4.4 e 4.5, verifique - em cada caso - se as condições do
teorema 4.1 são válidas e, em caso afirmativo, utilize o teorema para determinar a função
densidade de probabilidade de Y = h(X).
Caso a função Y = h(X) não satisfaça as condições para aplicação do teorema 4.1 em RX ,
pode-se proceder da seguinte forma:
1. Obtém-se uma partição de RX tal que, em cada pedaço da partição, Y = h(X) é função
monótona e diferenciável de X. Suponha que tal partição seja dada por: (R1 , · · · , Rk ), isto
é: RX = R1 ∪ · · · ∪ Rk e Ri ∩ R j =, i 6= j;
2. Aplica-se o teorema do jacobiano a cada um dos pedaços da partição, obtendo-se, para
cada pedaço, fi (y) por meio da equação (4.4);
3. Finalmente, a função densidade de probabilidade de Y é obtida:
k
fY (y) = ∑ fi (y).
(4.5)
i=1
Exercício: Volte ao exemplo 4.4 e determine a função densidade de probabilidade de Y .
Esperança de Y = h(X)
4.2
Teorema 4.2. Para qualquer que seja a variável aleatória Y , tem-se:
E[Y ] =
Z ∞
0
P(Y > y)dy −
Z ∞
0
P(Y < −y)dy.
(4.6)
4.2 ESPERANÇA DE Y = h(X)
50
Demonstração:(caso contínuo - a demonstração do caso discreto é análoga)
Z ∞
0
P(Y > y)dy −
Z ∞
P(Y < −y)dy =
0
Z ∞Z ∞
0
=
y
fY (u)dudy −
Z ∞ Z −y
0
Z 0
Z ∞Z u
−∞
Z −u
fY (u)dudy
fY (u)dydu −
fY (u)dydu
−∞ 0
Z ∞ µZ u ¶
Z 0 µZ −u ¶
=
dy fY (u)du −
dy fY (u)du
0
0
0
=
Z ∞
0
=
Z ∞
0
0
u fY (u)du −
u fY (u)du +
= E[Y ].
Z 0
−∞
Z 0
−∞
−∞
0
−u fY (u)du
u fY (u)du
¤
Teorema 4.3. Seja X uma variável aleatória discreta (com função de probabilidade conhecida
pX (x)) ou contínua (com função densidade de probabilidade conhecida fX (x)) e defina Y =
h(X). Então:
½
∑ h(x)pX (x), se X é discreta
E[Y ] = E[h(X)] = R x
(4.7)
h(x) fX (x)dx, se X é contínua
Demonstração: (caso contínuo - a demonstração do caso discreto é análoga)
Aplicando o teorema 4.2, temos que:
E[Y ] = E[h(X)] =
Z ∞
Z ∞
P(h(X) > y)dy −
P(h(X) < −y)dy
0
µ
¶
Z ∞ Z
Z ∞ µZ
=
fX (x)dx dy −
0
fX (x)dx
x:h(x)<−y
Z
Z
Z −h(x)
fX (x)dydx −
fX (x)dydx
x:h(x)>0 0
x:h(x)<0 0
Z
Z h(x)
Z
Z −h(x)
dy fX (x)dx −
dy fX (x)dx
x:h(x)>0 0
x:h(x)<0 0
0
=
=
x:h(x)>y
Z h(x)
Z
x:h(x)>0
h(x) fX (x)dx −
Z
=
x:h(x)>0
Z ∞
−∞
0
Z
=
=
¶
x:h(x)<0
−h(x) fX (x)dx
Z
h(x) fX (x)dx +
h(x) fX (x)dx.
x:h(x)<0
h(x) fX (x)dx
¤
Exemplo 4.6. Utilize o teorema 4.3 para determinar E[Y ] nos exemplos 4.4 e 4.5.
dy
4.3 EXERCÍCIOS
51
4.3 Exercícios
1. Suponha que X seja uniformemente distribuída sobre (-1, 1). Seja Y = 4 − X 2 . Determine
a função densidade de probabilidade de Y , faça seu gráfico e verifique, também, que é a
função densidade de probabilidade adequada.
2. Suponha que X seja uniformemente distribuída sobre (1, 3). Determina a função densidade de probabilidade das seguintes variáveis aleatórias, verificando, em cada caso, que
a função obtida é função densidade de probabilidade e esboçando seu gráfico.
a) Y = 3X + 4
b) Z = eX
3. Suponha que a v. a. contínua X tenha função densidade de probabilidade fX (x) = e−x , x >
0. Determine a função densidade de probabilidade das seguintes variáveis aleatórias:
a) Y = X 3
b) Z = 3/(X + 1)2
4. Suponha que a v. a. discreta X tome os valores 1, 2 e 3 com igual probabilidade. Ache a
distribuição de probabilidade de Y = 2X + 3.
5. Suponha que X seja uniformemente distribuída sobre (0, 1). Determine a função densidade de probabilidade das seguintes variáveis aleatórias:
a) Y = X 2 + 1
b) Z = 1/(X + 1)
6. Suponha que X seja uniformemente distribuída sobre (-1, 1). Determine a função densidade de probabilidade das seguintes variáveis aleatórias:
a) Y = Sen(π X/2)
b) Z = Cos(π X/2)
c) W = |X|.
7. Suponha que o raio de uma esfera seja uma variável aleatória contínua. Em virtude de
imprecisões no processo de fabricação, os raios das diferentes esferas podem ser diferentes. Suponha que o raio R tenha distribuição Beta(2,2). Determine a função densidade
de probabilidade do volume V e da área superficial da esfera, A, bem como seus valores
esperados.
8. Uma corrente elétrica oscilante I pode ser considerada uma v. a. uniformemente distribuída no intervalo (9, 11). Se essa corrente passar em um resistor de 2ohms, qual
será a função densidade de probabilidade da potência P = 2I 2 ? E o valor esperado da
potência?
4.3 EXERCÍCIOS
52
9. A velocidade de uma molécula em um gás uniforme em equilíbrio é uma v. a. V , cuja
2
função densidade de probabilidade é fV (v) = av2 e−bv , v > 0, b = m/2KT , k, T e m
denotando, respectivamente, a constante de Boltzman, a temperatura absoluta e a massa
da molécula. Determine a função densidade de probabilidade da energia cinética da
molécula, W = mV 2 /2.
Alguns resultados importantes:
2
2
10. Mostre que
√ se X ∼ N(0, 1) então Y = h(X) = X ∼ χ1 .
Γ(1/2) = π .
Obs: Use o fato de que
11. Seja X uma variável aleatória qualquer e FX (x) = P(X ≤ x) sua função de distribuição
acumulada. Note que FX (x) é função de X. Mostre que FX (x) tem distribuição Uniforme(0,1).
12. Seja X uma variável aleatória com distribuição Normal(µ , σ 2 ). Determine a distribuição
de Y = eX . (Diz-se que Y tem distribuição lognormal com parâmetros µ e σ 2 ).
13. Seja X uma variável aleatória qualquer. Defina Y = a + bX (a e b constantes quaisquer).
Use o teorema 4.3 para mostrar que E[Y ] = a + bE[X] e V [Y ] = b2V [X].
C APÍTULO 5
Funções Geratrizes de Momentos
5.1 Introdução
Neste capítulo, trataremos de funções geratrizes de momentos, as quais, como o próprio
nome revela, podem ser utilizadas para se determinar os momentos µk , k = 1, 2, · · · de uma
variável aleatória. Além disso, como será visto, devido à propriedade de unicidade, as funções
geratrizes podem ser utilizadas para identificar a distribuição de uma variável aleatória, assim
como as funções de probabilidade, densidade de probabilidade ou de distribuição acumulada
identificam. Uma outra utilidade das funções geratrizes, será a obtenção de propriedades reprodutivas, como descrito na seção 5.4.
Definição 5.1. A função geratriz de momentos de uma variável aleatória X, MX (t), é dada por:
£ ¤
MX (t) = E etX
(5.1)
e está definida ∀t ∈ R tal que a esperança acima seja finita.
O cálculo de (5.1) depende da natureza da variável aleatória X:
½
£ tX ¤ teo4.3 ∑x etx pX (x), se X é discreta;
R tx
MX (t) = E e
=
e fX (x)dx, se X é contínua.
5.2
(5.2)
Uso de MX (t) para determinação dos momentos de X
A questão inicial a ser
é: como utilizar a função geratriz MX (t) para obter o k-ésimo
£ tratada
¤
k
momento de X, µk = E X ?
Observe que:
d
MX (t)
dt
d £ tX ¤
=
E e
dt·
¸
d tX
e
= E
dt
£
¤
= E XetX ,
MX0 (t) =
53
(5.3)
5.2 USO DE MX (t) PARA DETERMINAÇÃO DOS MOMENTOS DE X
54
onde assumimos que podemos inverter as posições entre a derivada e o valor esperado, ou seja,
que:
·
¸
·
¸
d
d tx
tx
e pX (x) = ∑
e pX (x) , se X é discreta;
dt ∑
x
x dt
·Z
¸ Z ·
¸
d
d tx
tx
e fX (x)dx =
e fX (x)dx , se X é contínua.
dt
dt
Essa operação pode ser justificada quase sempre e, nos modelos probabilísticos mais usuais,
ela é válida.
Voltemos agora a (5.3). Temos que:
£
¤
MX0 (0) = E Xe0 = E[X].
(5.4)
Derivando novamente a função geratriz de momentos, temos:
MX00 (t)
=
=
(5.3)
=
=
=
⇒
d2
MX (t)
dt 2
d 0
M (t)
dt X
d £ tX ¤
E Xe
dt·
¸
d
tX
E
(Xe )
dt
£
¤
E X 2 etX ,
£
¤
MX00 (0) = E X 2 e0 = E[X 2 ].
(5.5)
De forma geral, tem-se:
h i
d (k)
(k)
µk = E X k = MX (0) = k MX (t)|t=0 ,
dt
k = 1, 2, · · · .
(5.6)
Exemplo 5.1. Seja X ∼Binomial(n, p). Determine a função geratriz de momentos de X e
utilize-a para obter E[X] e V [X].
Exemplo 5.2. Seja Z ∼Normal(0, 1). Determine a função geratriz de momentos de X e utilize-a
para obter E[Z] e V [Z].
55
5.3 PROPRIEDADES DA FUNÇÃO GERATRIZ DE MOMENTOS
5.3
Propriedades da Função Geratriz de Momentos
1. Unicidade
A função geratriz de momentos de uma variável aleatória, quando existe (isto é, se (5.1)
é finita), é única, de modo que se tivermos duas variáveis aleatórias X e Y com funções
geratrizes de momentos MX (t) e MY (t), então se MX (t) = MY (t) ∀t, X e Y têm a mesma
distribuição de probabilidades. Ainda, devido à propriedade de unicidade, a função gert2
atriz de momentos identifica a distribuição de X. Por exemplo, se MX (t) = e 2 (veja a
solução do exemplo 5.2), então sabe-se que X ∼ N(0, 1).
2. Função Geratriz de Momentos de uma Função Linear de X
Seja X uma variável aleatória com função geratriz de momentos conhecida, MX (t) e
defina Y = a + bX, a e b constantes quaisquer. Então:
MY (t) = eat MX (bt).
(5.7)
Demonstração em aula
3. Função Geratriz de Momentos da Soma de Variáveis Independentes
Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes1 . Defina Y = X1 + X2 + · · · + Xn .
Então2 :
MY (t) = MX1 (t)MX2 (t) · · · MXn (t).
(5.8)
µ
Exemplo 5.3. Sabemos que se X ∼ N(µ , σ 2 ), então Z = X−
σ ∼ N(0, 1). Reciprocamente,
pode-se escrever qualquer variável aleatória X ∼ N(µ , σ 2 ) como: X = µ + σ Z , Z ∼ N(0, 1).
a) Utilize este fato, junto à propriedade (2) para determinar a função geratriz de momentos de
X . (Lembre-se de que a função geratriz de momentos de Z já foi determinada no exemplo 5.2).
b) Utilize a função geratriz de momentos de X para mostrar que E[X] = µ e V [X] = σ 2 .
1A
2A
definição formal de independência entre variáveis aleatórias será dada no capítulo 6.
demonstração desta propriedade poderá ser feita usando elementos disponíveis no capítulo 6.
5.4 USO DE FUNÇÕES GERATRIZES DE MOMENTOS PARA A DETERMINAÇÃO DE PROPRIEDADES REPRODUTIVAS
56
5.4
Uso de Funções Geratrizes de Momentos para a Determinação de
Propriedades Reprodutivas
A propriedade (3) pode ser usada, aliada à propriedade (1), para se determinar propriedades
reprodutivas de variáveis aleatórias. Diz-se que determinada distribuição de probabilidades
possui propriedade reprodutiva se, uma vez que duas (ou mais) variáveis aleatórias independentes (X1 , X2 , · · · , Xn ) seguindo tal distribuição sejam somadas, a variável aleatória Y = X1 +
X2 + · · · + Xn siga a mesma distribuição de probabilidade em questão.
Teorema 5.1. (Propriedade Reprodutiva da Distribuição Poisson)
Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição Poisson(λi ),
i=1,2,· · · , n. Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ Poisson(λ ), λ = ∑ni=1 λi .
Teorema 5.2. (Propriedade Reprodutiva da Distribuição Binomial)
Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição Binomial(ni , p),
i=1,2,· · · , n. Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ Binomial(n, p), n = ∑ni=1 ni .
Teorema 5.3. (Propriedade Reprodutiva da Distribuição Normal)
Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada
distribuição
N(µi , σi2 ),
¡ n uma com
¢
1, 2, · · · , n. Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ N ∑i=1 µi , ∑ni=1 σi2 .
Teorema 5.4. (Propriedade Reprodutiva da Distribuição Qui-Quadrado)
Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição χni ,
Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ χn , n = ∑ni=1 ni .
i=
i=1,2,· · · , n.
Corolário: (Soma dos Quadrados de Normais Independentes)
Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição N(0, 1).
Defina Y = X12 + X22 + · · · Xn2 . Então Y ∼ χn2 .
Embora a distribuição Exponencial não tenha propriedade reprodutiva, pode-se mostrar o
seguinte resultado:
Teorema 5.5. (Distribuição da Soma de Exponenciais Independentes)
Sejam X1 , X2 , · · · , Xn variáveis aleatórias independentes, cada uma com distribuição Exponencial(λ ,
i=1,2,· · · , n. Defina Y = X1 + X2 + · · · + Xn . Então Y ∼ Gama(n, λ ).
57
5.5 EXERCÍCIOS
5.5 Exercícios
1. Seja X ∼ Exp(λ ).
a) Determine a f.g.m de X.
b) Utilize a função obtida em (a) e determine: E[X] e V [X].
2. X ∼ Poisson(λ )
y
a) Mostre que a f.g.m de X é MX (t) = exp{λ (et − 1)}. Dica: ey = ∑∞
k=0 k!
k
b) Utilize a função obtida em (a) para determinar E[X] e V [X].
3. Seja X Geo(p) Determine a f.g.m de X.
4. Seja Z ∼ N(0, 1). Mostre que a f.g.m de Z é MZ (t) = exp{t 2 /2}.
5. Seja X N(µ , σ 2 ). Então Z =
Z.
X−µ
σ
∼ N(0, 1). Portanto, X pode ser escrita em função de
a) Determine Mx (t). Dica: Use a função geratriz de momentos de Z.
b) Use MX (t) para mostrar que:
*E[X] = µ ;
*V [X] = σ 2 ;
* Se X1 , X2 , · · · , Xn são v.a’s independentes, cada uma com distribuição N(µ , σ 2 ) , então
X1 + X2 + · · · + Xn ∼ N(nµ , nσ 2 ) (Teorema 5.3). Ainda, mostre que X̄ = (X1 + X2 + · · · +
Xn )/n ∼ N(µ , σ 2 /n).
6. Um circuito é formado por 2 componentes que funcionam independentemente, com duração modelada pela exponencial. A duração média é 100 horas e se o primeiro componente falha , o segundo passa imediatamente a funcionar. Sejam T1 e T2 as v.a’s que
representam, respectivamente as durações dos componentes 1 e 2.
a) Determine as f.g.m’s de T1 e T2
b) Seja T o tempo de vida do circuito, use as funções obtidas em (a) para mostrar
que T tem distribuição Gama
c) Determine P(T > 200h).
7. Seja X ∼ Gama(α , λ ).
a) Mostre que Mx(t) =
³
λ
λ −t
´α
,
t < λ.
b) Utilize a função obtida em (a) e determine: E[X] e V [X].
8. Demontre o teorema 5.1.
9. Demontre o teorema 5.4 e seu corolário (dica: para o corolário, reveja o exercício 10 do
capítulo 4).
10. Demontre o teorema 5.5.
Download