2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 2.4 35 Esperança e distribuição condicionais Estendemos aqui o conceito de probabilidade condicional em (2.8) para obter a distribuição condicional e, posteriormente, definimos esperança condicional. Estes conceitos são extremamente complicados em situações gerais, porém nos casos discretos e absolutamente contı́nuos são mais intuitivos, justamente estas duas situações serão noso objeto de estudo. Definição 2.9. Seja Y uma variável aleatória no espaço de probabilidade (Ω, ℑ, P ) e seja A ∈ ℑ um evento aleatório tal que P (A) > 0. Definimos a probabilidade condicional de Y dado o evento A por P (Y ∈ B|A) = P ([Y ∈ B] ∩ A) , P (A) (2.5) para B ∈ B, a σ-álgebra dos boerelianos na reta. A função definida em (2.5) define, de fato, uma função de probabilidade na reta como demonstrado no teorema a seguir. Teorema 2.18. Seja (Ω, ℑ, P ) um espaço de probabilidade e A ∈ ℑ tal que P (A) > 0. Então P (·|A) é uma probabilidade nos borelianos B(R) na reta, satisfazendo: (i) P (Y ∈ B|A) ≥ 0 para qualquer evento B ∈ B. (ii) P (Y ∈ R|A) = 1. (iii) Sejam B1 , B2 , · · · borelianos disjuntos dois a dois, então ! ∞ ∞ X [ Bk |A = P (Y ∈ Bk |A)· P Y ∈ k=1 k=1 Demonstração. Exercı́cio. Associado ao conceito na definição 2.9 temos as probabilidades acumuladas condicionais ou função de distribuição condicional. Podemos interpretar a distribuição condicional de Y dado o evento A como a nova distribuição que se atribui a Y quando se sabe da ocorrência do evento A. 36 CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE Definição 2.10. Seja (Ω, ℑ, P ) um espaço de probabilidade e A ∈ ℑ tal que P (A) > 0. A função de distribuição associada à probabilidade condicional é chamada de função de distribuição condicional de Y dado A e definida por FY |A (y|A) = P (Y ≤ y|A) = P ([Y ≤ y] ∩ A) , P (A) (2.6) para todo y ∈ R. Definição 2.11. Seja (Ω, ℑ, P ) um espaço de probabilidade e A ∈ ℑ tal que P (A) > 0. A esperança condicional de Y dado A é a esperança da distribuição condicional, definida por Z E(Y |A) = y dFY |A (y|A), (2.7) R se esta integral existe. Mais geral ainda, podemos definir a esperança condicional de uma variável aleatória dada uma outra. Definição 2.12. Sejam X e Y duas variáveis aleatórias definidas no espaço de probabilidade (Ω, ℑ, P ) e seja h uma função Borel mensurável. Consideremos que E{h(Y )} existe. Então, a esperança condicional de h(Y ) dado X, escrita como E{h(Y )|X} é uma variável aleatória assumindo os valores E{h(Y )|x} e definida por Z E(h(Y )|x) = h(y) dFY |X (y|x), (2.8) R se esta integral existe. Uma definição semelhante pode ser dada para a esperança condicional E{h(X)|Y }, desde que E{h(X)} exista. Os momentos da distribuição condicional são definidas da maneira usual. Assim, se E{Y r } existir para algum inteiro r, então E{Y r |X} define o momento r-ésimo da distribuição condicional. Podemos definir os momentos centrais da distribuição condicional e, em particular, a variância. Não há maiores dificuldades em generalizar estes conceitos para as distribuições n-dimensionais quando n ≥ 2. Deixamos ao leitor fornecer os detalhes. O problema nestas definições é como calcular as integrais em (2.7) e (2.8). Em duas situações podemos calcular esta integral sem recorrer a novos conceitos matemáticos. 37 2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 2.4.1 Caso discreto Sejam X e Y duas variáveis aleatórias discretas definidas no mesmo espaço de probabilidade (Ω, ℑ, P ). Sejam RX = {x ∈ R : pX (x) > 0} e RY = {y ∈ R : pY (y) > 0}, onde pX (·) e pY (·) denotam as funções de probabilidade marginais de X e Y , respectivamente. Logo, para cada x ∈ RX definimos a função de probabilidade condicional de Y dado X = x como pY |X (y|x) = pXY (x, y) , pX (x) (2.9) isto segundo a definição de distribuição acumulada condiocional em (2.10). Para cada x ∈ RX fixo, a função em (2.9), é uma função de probabilidade devido a que X y∈RY pY |X (y|x) = X pXY (x, y) pX (x) 1 X pXY (x, y) = = = 1, p p p X (x) Xx X (x) y∈R y∈R Y Y e representa a distribuição condicional de Y uma vez conhecido o valor de X = x. No caso vetorial a definição é semelhante. Sejam X = {X1 , · · · , Xk } e Y = {Y1, · · · , Yh } vetores aleatórios discretos e RX = {x ∈ Rk : pX (x > 0}, podemos então definir pY|X (y|x) = pXY (x, y) , pX (x) (2.10) para todo x ∈ Rk . Isto permite calcular as probabilidades envolvendo Y quando sabemos que o evento {X = x} aconteceu. De fato, se B ∈ Bh (os borelianos em Rh ) definimos X P (Y ∈ B|X = x) = pY|X (y|x)· (2.11) y∈RY ∩B Seja agora Y uma variável aleatória e X um vetor aleatório de dimensão k, ambos discretos. A esperança condicional de Y dado que X = x define-se utilizando a distribuição determinada em (2.11) e dada por X E(Y |X = x) = ypY |X (y|x), (2.12) y∈RY 38 CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE e este valor representa a esperança condicional da variável Y quando se conhece que o vetor X assume o valor x. Observemos que se g(x) = E(Y |X = x) temos que g(x) : Rk → R. Vamos definir agora uma variável aleatória que chamaremos de esperança condicional de Y dado vetor aleatório X, a qual denotaremos por E(Y |X). Esta nova variável aleatória define-se por E(Y |X) = g(X)· (2.13) O seguinte teorema relaciona as esperanças definidas em (2.12) e (2.13). Teorema 2.19. Sejam X e Y duas variáveis aleatórias discretas definidas no mesmo espaço de probabilidade. Se Y tiver esperança finita, temos então que E{ E(Y |X)} = E(Y )· (2.14) Demonstração. Segundo a equação em (2.13) temos que X E{ E(Y |X)} = E(g(X)) = g(x)pX (x)· x∈Rk Utilizando o fato que g(x) é definida por (2.12), temos que ! X X ypY |X (y|x) pX (x) E{ E(Y |X)} = = = x∈RX y∈RY X X x∈RX y∈RY X X y∈RY x∈RX = X y∈RY = X y ! pXY (x, y) y pX (x) pX (x) ! ypXY (x, y) X pXY (x, y) x∈RX ! ypY (y) = E(Y )· y∈RY Trocar a ordem na soma é justificado pelo fato da soma ser convergente por hipóteses. 2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 39 Exemplo 2.14. Suponhamos que fazemos uma primeira série de n lançamentos de uma moeda e seja X o número de caras obtidas. Com base no resultado da primeira série de lançamentos, inciamos uma segunda série de X lançamentos. Seja Y o número de caras obtidas nesta segunda série de lançamentos. Calcular E(Y ). Se X = x, a distribuição de condicional de Y dado que X = x é Binomial(0.5,x). Logo E(Y |X = x) = 0.5x. Construios então a variável aleatória E(Y |X) = g(X) = 0.5X, e pela expressão (refE.E.cond) no Teorema 2.19 temos que E(Y ) = E{ E(Y |X)} = 0.5 E(X). Dado que X ∼ B(0.5, n) então E(X) = 0.5n. Concluı́mos então que E(Y ) = 0.25n. Teorema 2.20. Seja Y uma variável aleatória tal que P (Y = c) = 1, onde c é uma constante qualqer. Então, qualquer seja o vetor X temos que (i) pY |X (c|x) = 1, (ii) E(Y |X = x) = c. Demonstração. Exercı́cio. Exemplo 2.15. Uma urna contém treis bolas vermelhas e duas bolas verdes. Uma amostra aleatória de duas bolas é atraı́do (a) com reposição e (b) sem reposição. Seja X = 0 se a primeira bola tirada é verde e X = 1 se a primeira bola tirada é vermelho. Definamos também Y = 0 se a segunda bola tirada é verde e Y = 1 se a segunda bola tirada é vermelha. Vamos obter as funções de probabilidade conjunta e as funções de probabilidade e esperanças condicionais. A função de probabilidade conjunta em cada caso é apresentada nas tabelas a seguir: (a) Com reposição X Y 0 1 0 4/25 6/25 2/5 1 6/25 9/25 3/5 2/5 3/5 1 (b) Sem reposição X Y 0 1 0 2/20 6/20 2/5 1 6/20 6/20 3/5 2/5 3/5 1 As funções de probabilidade condicional correspondentes assim como as esperanças condicionais são apresentadas a seguir. 40 CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE (a) Com reposição P (Y = y|0)= 2/5, se y = 0 3/5, se y = 1, P (Y = y|1)= 2/5, se y = 0 3/5, se y = 1, E(Y |X)= P (X = x|0)= 2/5, se x = 0 3/5, se x = 1, P (X = x|1)= 2/5, se x = 0 3/5, se x = 1, 3/5, se x = 0 3/5, se x = 1, E(X|Y )= 3/5, se y = 0 · 3/5, se y = 1 (b) Sem reposição P (Y = y|0)= 1/4, se y = 0 3/4, se y = 1, P (Y = y|1)= 1/2, se y = 0 1/2, se y = 1, E(Y |X)= 3/4, 1/2, se se 1/4, se x = 0 P (X = x|0)= 3/4, se x = 1, P (X = x|1)= x=0 x = 1, E(X|Y )= 2.4.2 Caso absolutamente contı́nuo 2.4.3 Exercı́cios 1/2, 1/2, 3/4, se 1/2, se se se x=0 x = 1, y=0 · y=1 1. Seja X uma variável aleatória com densidade normal de parâmetros µ e σ 2 . Encontre E(X|a < X < b), onde a e b são constantes. 2. Encontrar a expressão de E{Y − E(Y |X)}2. 3. Sejam X e Y variáveis aleatórias e ϕ(X) uma outra variável aleatória. Assuma que E(Y ) e E{ϕ(Y )} existem. Mostre que (i) E{ϕ(X)|X} = ϕ(X), (ii) E{ϕ(X)Y |X} = ϕ(X) E(Y |X). 4. Sejam X e Y variáveis aleatórias tais que E(X 2 ) < ∞ e E(Y 2 ) < ∞. Demonstre que Cov(X, Y ) = Cov{X, E(Y |X)}·