Esperança condicional

Propaganda
2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS
2.4
35
Esperança e distribuição condicionais
Estendemos aqui o conceito de probabilidade condicional em (2.8) para obter
a distribuição condicional e, posteriormente, definimos esperança condicional.
Estes conceitos são extremamente complicados em situações gerais, porém
nos casos discretos e absolutamente contı́nuos são mais intuitivos, justamente
estas duas situações serão noso objeto de estudo.
Definição 2.9. Seja Y uma variável aleatória no espaço de probabilidade
(Ω, ℑ, P ) e seja A ∈ ℑ um evento aleatório tal que P (A) > 0. Definimos a
probabilidade condicional de Y dado o evento A por
P (Y ∈ B|A) =
P ([Y ∈ B] ∩ A)
,
P (A)
(2.5)
para B ∈ B, a σ-álgebra dos boerelianos na reta.
A função definida em (2.5) define, de fato, uma função de probabilidade
na reta como demonstrado no teorema a seguir.
Teorema 2.18. Seja (Ω, ℑ, P ) um espaço de probabilidade e A ∈ ℑ tal que
P (A) > 0. Então P (·|A) é uma probabilidade nos borelianos B(R) na reta,
satisfazendo:
(i) P (Y ∈ B|A) ≥ 0 para qualquer evento B ∈ B.
(ii) P (Y ∈ R|A) = 1.
(iii) Sejam B1 , B2 , · · · borelianos disjuntos dois a dois, então
!
∞
∞
X
[
Bk |A =
P (Y ∈ Bk |A)·
P Y ∈
k=1
k=1
Demonstração. Exercı́cio.
Associado ao conceito na definição 2.9 temos as probabilidades acumuladas condicionais ou função de distribuição condicional. Podemos interpretar a distribuição condicional de Y dado o evento A como a nova distribuição
que se atribui a Y quando se sabe da ocorrência do evento A.
36
CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE
Definição 2.10. Seja (Ω, ℑ, P ) um espaço de probabilidade e A ∈ ℑ tal que
P (A) > 0. A função de distribuição associada à probabilidade condicional é
chamada de função de distribuição condicional de Y dado A e definida por
FY |A (y|A) = P (Y ≤ y|A) =
P ([Y ≤ y] ∩ A)
,
P (A)
(2.6)
para todo y ∈ R.
Definição 2.11. Seja (Ω, ℑ, P ) um espaço de probabilidade e A ∈ ℑ tal
que P (A) > 0. A esperança condicional de Y dado A é a esperança da
distribuição condicional, definida por
Z
E(Y |A) =
y dFY |A (y|A),
(2.7)
R
se esta integral existe.
Mais geral ainda, podemos definir a esperança condicional de uma variável
aleatória dada uma outra.
Definição 2.12. Sejam X e Y duas variáveis aleatórias definidas no espaço
de probabilidade (Ω, ℑ, P ) e seja h uma função Borel mensurável. Consideremos que E{h(Y )} existe. Então, a esperança condicional de h(Y ) dado
X, escrita como E{h(Y )|X} é uma variável aleatória assumindo os valores
E{h(Y )|x} e definida por
Z
E(h(Y )|x) =
h(y) dFY |X (y|x),
(2.8)
R
se esta integral existe.
Uma definição semelhante pode ser dada para a esperança condicional
E{h(X)|Y }, desde que E{h(X)} exista. Os momentos da distribuição condicional são definidas da maneira usual. Assim, se E{Y r } existir para algum
inteiro r, então E{Y r |X} define o momento r-ésimo da distribuição condicional. Podemos definir os momentos centrais da distribuição condicional e,
em particular, a variância. Não há maiores dificuldades em generalizar estes
conceitos para as distribuições n-dimensionais quando n ≥ 2. Deixamos ao
leitor fornecer os detalhes.
O problema nestas definições é como calcular as integrais em (2.7) e (2.8).
Em duas situações podemos calcular esta integral sem recorrer a novos conceitos matemáticos.
37
2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS
2.4.1
Caso discreto
Sejam X e Y duas variáveis aleatórias discretas definidas no mesmo espaço
de probabilidade (Ω, ℑ, P ). Sejam RX = {x ∈ R : pX (x) > 0} e RY = {y ∈
R : pY (y) > 0}, onde pX (·) e pY (·) denotam as funções de probabilidade
marginais de X e Y , respectivamente. Logo, para cada x ∈ RX definimos a
função de probabilidade condicional de Y dado X = x como
pY |X (y|x) =
pXY (x, y)
,
pX (x)
(2.9)
isto segundo a definição de distribuição acumulada condiocional em (2.10).
Para cada x ∈ RX fixo, a função em (2.9), é uma função de probabilidade
devido a que
X
y∈RY
pY |X (y|x) =
X pXY (x, y)
pX (x)
1 X
pXY (x, y) =
=
= 1,
p
p
p
X (x)
Xx
X (x)
y∈R
y∈R
Y
Y
e representa a distribuição condicional de Y uma vez conhecido o valor de
X = x.
No caso vetorial a definição é semelhante. Sejam X = {X1 , · · · , Xk } e
Y = {Y1, · · · , Yh } vetores aleatórios discretos e RX = {x ∈ Rk : pX (x > 0},
podemos então definir
pY|X (y|x) =
pXY (x, y)
,
pX (x)
(2.10)
para todo x ∈ Rk . Isto permite calcular as probabilidades envolvendo Y
quando sabemos que o evento {X = x} aconteceu. De fato, se B ∈ Bh (os
borelianos em Rh ) definimos
X
P (Y ∈ B|X = x) =
pY|X (y|x)·
(2.11)
y∈RY ∩B
Seja agora Y uma variável aleatória e X um vetor aleatório de dimensão
k, ambos discretos. A esperança condicional de Y dado que X = x define-se
utilizando a distribuição determinada em (2.11) e dada por
X
E(Y |X = x) =
ypY |X (y|x),
(2.12)
y∈RY
38
CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE
e este valor representa a esperança condicional da variável Y quando se conhece que o vetor X assume o valor x.
Observemos que se g(x) = E(Y |X = x) temos que g(x) : Rk → R.
Vamos definir agora uma variável aleatória que chamaremos de esperança
condicional de Y dado vetor aleatório X, a qual denotaremos por E(Y |X).
Esta nova variável aleatória define-se por
E(Y |X) = g(X)·
(2.13)
O seguinte teorema relaciona as esperanças definidas em (2.12) e (2.13).
Teorema 2.19. Sejam X e Y duas variáveis aleatórias discretas definidas
no mesmo espaço de probabilidade. Se Y tiver esperança finita, temos então
que
E{ E(Y |X)} = E(Y )·
(2.14)
Demonstração. Segundo a equação em (2.13) temos que
X
E{ E(Y |X)} = E(g(X)) =
g(x)pX (x)·
x∈Rk
Utilizando o fato que g(x) é definida por (2.12), temos que
!
X X
ypY |X (y|x) pX (x)
E{ E(Y |X)} =
=
=
x∈RX
y∈RY
X
X
x∈RX
y∈RY
X
X
y∈RY
x∈RX
=
X
y∈RY
=
X
y
!
pXY (x, y)
y
pX (x)
pX (x)
!
ypXY (x, y)
X
pXY (x, y)
x∈RX
!
ypY (y) = E(Y )·
y∈RY
Trocar a ordem na soma é justificado pelo fato da soma ser convergente por
hipóteses.
2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS
39
Exemplo 2.14. Suponhamos que fazemos uma primeira série de n lançamentos de uma moeda e seja X o número de caras obtidas. Com base no resultado da primeira série de lançamentos, inciamos uma segunda série de
X lançamentos. Seja Y o número de caras obtidas nesta segunda série de
lançamentos. Calcular E(Y ).
Se X = x, a distribuição de condicional de Y dado que X = x é
Binomial(0.5,x). Logo E(Y |X = x) = 0.5x. Construios então a variável
aleatória E(Y |X) = g(X) = 0.5X, e pela expressão (refE.E.cond) no Teorema 2.19 temos que E(Y ) = E{ E(Y |X)} = 0.5 E(X). Dado que X ∼
B(0.5, n) então E(X) = 0.5n. Concluı́mos então que E(Y ) = 0.25n.
Teorema 2.20. Seja Y uma variável aleatória tal que P (Y = c) = 1, onde
c é uma constante qualqer. Então, qualquer seja o vetor X temos que
(i) pY |X (c|x) = 1,
(ii) E(Y |X = x) = c.
Demonstração. Exercı́cio.
Exemplo 2.15. Uma urna contém treis bolas vermelhas e duas bolas verdes.
Uma amostra aleatória de duas bolas é atraı́do (a) com reposição e (b) sem
reposição. Seja X = 0 se a primeira bola tirada é verde e X = 1 se a
primeira bola tirada é vermelho. Definamos também Y = 0 se a segunda bola
tirada é verde e Y = 1 se a segunda bola tirada é vermelha. Vamos obter as
funções de probabilidade conjunta e as funções de probabilidade e esperanças
condicionais.
A função de probabilidade conjunta em cada caso é apresentada nas tabelas
a seguir:
(a) Com reposição
X
Y
0
1
0 4/25 6/25 2/5
1 6/25 9/25 3/5
2/5
3/5
1
(b) Sem reposição
X
Y
0
1
0 2/20 6/20 2/5
1 6/20 6/20 3/5
2/5
3/5
1
As funções de probabilidade condicional correspondentes assim como as
esperanças condicionais são apresentadas a seguir.
40
CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE
(a) Com reposição
P (Y = y|0)=
2/5, se y = 0
3/5, se y = 1,
P (Y = y|1)=
2/5, se y = 0
3/5, se y = 1,
E(Y |X)=
P (X = x|0)=
2/5, se x = 0
3/5, se x = 1,
P (X = x|1)=
2/5, se x = 0
3/5, se x = 1,
3/5, se x = 0
3/5, se x = 1,
E(X|Y )=
3/5, se y = 0
·
3/5, se y = 1
(b) Sem reposição
P (Y = y|0)=
1/4, se y = 0
3/4, se y = 1,
P (Y = y|1)=
1/2, se y = 0
1/2, se y = 1,
E(Y |X)=
3/4,
1/2,
se
se
1/4, se x = 0
P (X = x|0)=
3/4, se x = 1,
P (X = x|1)=
x=0
x = 1,
E(X|Y )=
2.4.2
Caso absolutamente contı́nuo
2.4.3
Exercı́cios
1/2,
1/2,
3/4, se
1/2, se
se
se
x=0
x = 1,
y=0
·
y=1
1. Seja X uma variável aleatória com densidade normal de parâmetros µ
e σ 2 . Encontre E(X|a < X < b), onde a e b são constantes.
2. Encontrar a expressão de E{Y − E(Y |X)}2.
3. Sejam X e Y variáveis aleatórias e ϕ(X) uma outra variável aleatória.
Assuma que E(Y ) e E{ϕ(Y )} existem. Mostre que
(i) E{ϕ(X)|X} = ϕ(X),
(ii) E{ϕ(X)Y |X} = ϕ(X) E(Y |X).
4. Sejam X e Y variáveis aleatórias tais que E(X 2 ) < ∞ e E(Y 2 ) < ∞.
Demonstre que
Cov(X, Y ) = Cov{X, E(Y |X)}·
Download