1 Exerc´ıcio 1.7.5 1.1 Primeira Parte Seja P uma matriz de transiç˜ao

Propaganda
MAE5709 - GABARITO DA LISTA 2 - 04/10/2016
1 Exercı́cio 1.7.5
1.1 Primeira Parte
Seja P uma matriz de transição sobre um espaço de estados finito S.
Mostre que uma distribuição π é invariante para P se e somente se π(I −
P + A) = a, onde I é a matriz identidade, A = (aij : i, j ∈ S), onde aij = 1
e a = (ai : i ∈ S) e ai = 1.
Demonstração. A primeira coisa a notar é que soluções de π(I − P + A) = a
NÃO necessariamente são distribuições de probabilidade (mas o serão se P
for irredutı́vel). Como contra-exemplo, considere:
P =
1
0
0
1
!
π = (2 − 1)
Nessas condições π não é um vetor de probabilidades e vale que π(I −P +A) =
a. Primeiro vamos mostrar que se π é uma probabilidade invariante, então
π(I − P + A) = a. Como π é um vetor de probabilidades, então πA = a
(a soma de suas entradas tem que dar 1), e como ele é invariante, π = πP .
Assim:
π(I − P + A) = πI − πP + πA = π − π + a = a.
Agora suponha que π é um vetor de probabilidade e que π(I − P + A) = a.
Vamos mostrar que π é invariante para P . Como π é um vetor de probabilidades, = a, de onde deduzimos que:
π − πP + πA = a
π − πP + a = a
π = πP,
de onde concluı́mos que π é invariante para P.
1
1.2
Segunda parte
Deduza que se P é uma matriz irredutível, então I − P + A é inversível.
Demonstração. Seja π o único vetor de probabilidades invariante para P e seja
x um vetor que é solução de x(I − P + A) = a, vamos mostrar que x = π.
Depois de demostrado esse fato, seguirá que π é a única solução do sistema
de equações x(I − P + A) = a, de onde seguirá que I − P + A é inversível.
Fixe um i ∈ S. Pela equação dada, temos que:
X
X
xi −
xk pki +
xk = 1
, portanto :
k∈S
k∈S
!
X
xi −
i∈S
X
xk pki +
k∈S
|S|
X
xk
= |S|
k∈S
X
xk = |S|
k∈S
X
xk = 1
k∈S
Assim vale que xA = a, e portanto, como x(I − P + A) = a, também vale
que x = xP .
Note que ainda não afirmamos que todas as entradas são não negativas.
Seja mx = mini∈S xi e mπ = mini∈S πi . Como P é irredutível, então mπ > 0.
mx
|, daí teremos que απ +x será um vetor com todas as entradas
Tome α > | m
π
positivas. Ao normalizar esse vetor obtemos constantes β e γ, ambas diferentes
de zero tais que βπ + γx é um vetor de probabilidades. Denotemos µ = βπ + γx.
Note que µP = (βπ + γx)P = βπP + γxP = βπ + γx = µ. Assim µ é um
vetor de probabilidades invariante. Como P é irredutível, existe apenas uma
distribuição de probabilidades invariante. Assim µ = π.
Portanto:
βπ + γx = π
(β − 1)π + γx = 0
β−1
π,
x=−
γ
Assim x é um múltiplo de π. Como a soma das coordenadas de ambos vale
1, segue que x = π.
2
Exercício 1.8.4
A cada manhã, um estudante pega um de seus 3 livros da estante. A probabilidade de que ele escolha o livro i é 0 < αi < 1, com i = 1, 2, 3, e a cada dia
essa escolha é feita de maneira independente das demais.
2
Ao final do dia ele devolve o livro retirado, colocando-o sempre à esquerda
dos demais livros. Denote por pn a probabilidade de que depois de n dias nós
encontremos na prateleira os livros na ordem 1, 2, 3, da esquerda para a direita.
Mostre que pn converge quando n → ∞ e calcule o limite.
Resolução. Considere (Xn )n∈N uma cadeia de markov, onde o espaço de estados são as permutações de (1, 2, 3), que representam as posições dos livros na
estante, da esquerda para a direita, com matriz de transição como a descrita no
enunciado.
Tome (a, b, c) uma permutação de (1, 2, 3). Se retirarmos o livro c no primeiro
dia, o livro b no segundo e o a no terceiro, a estante ficará na posição (a, b, c),
independente da posição inicial de cada livro. Assim de qualquer estado eu
consigo alcançar qualquer estado com probabilidade positiva, assim a cadeia é
irredutível. Como o espaço de estados é finito, ela também é recorrente positiva,
assim ela tem uma medida invariante.
Note ainda que se estamos num estado (a, b, c), então nós continuamos no
mesmo estado com probabilidade αa . Assim a cadeia é aperiódica.
Portanto pelo teorema 1.8.3 do livro do Norris, P (Xn = •) converge para
π(•), onde π é a única medida invariante do processo.
Fazendo contas é possível mostrar que a medida invariante é:
π(a, b, c) = αa
αb
αb
= αa
αb + αc
1 − αa
Portanto pn converge à:
π(1, 2, 3) = α1
3
α2
α2
= α1
α2 + α3
1 − α1
Exercício 1.8.5
Sejam Y1 , Y2 , . . . variáveis i.i.d, com média finita, que assumem valores em
{1, 2, . . .}. Suponha ainda que o conjunto dos inteiros {n : P (Y1 = n) > 0} tem
maior divisor comum 1. Considere µ = E(Y1 )
Mostre que o processo:
Xn = inf {m ≥ n : m = Y1 + . . . + Yk para algum k ≥ 0} − n
é uma cadeia de Markov. Calcule:
lim P (Xn = 0)
n→∞
Mostre que:
lim P (n = Y1 + . . . + Yk para algum k ≥ 0) =
n→∞
3
1
µ
Resolução. Seja M := inf{n ∈ N : P (Y1 >= n) = 0}, com a convenção de que
inf ∅ = ∞. O espaço de estados será o conjunto S = {n ∈ N : n < M }.
Mostrar que (Xn ) é uma cadeia de Markov pode ser feito calculando explicitamente P (Xn+1 = xn |X0 = x0 , . . . Xn = xn ) e mostrar que essa quantidade
não depende de x0 , . . . , xn−1 .
Note que um estado i alcança o estado 0 em exatamente i passos com probabilidade 1.
Agora vamos mostrar que, saindo do 0, temos uma probabilidade positiva
de alcançar um estado i. Fixe um j ≥ i tal que P (Y1 = j) > 0. Tal j existe pela
nossa contrução do espaço de estados. Assim p(j−i+1) (0, i) ≥ P (Y1 = j) > 0.
Como do 0 eu posso alcançar qualquer estado, e de qualquer estado eu posso
alcançar o 0, a cadeia é irredutível.
Note que E(T 0→0 ) = E(Y1 ) = µ. Assim o 0 é um estado recorrente positivo.
Como a cadeia é irredutível, todos os estados são recorrentes positivos.
Assim existe uma probabilidade invariante π, e ela satisfaz, usando o lema
de Kǎc, π(0) = E(T10→0 ) = µ1 .
Ainda temos que {n ∈ N : p(n) (0, 0) > 0} = {n ∈ N : P (Y1 = n) > 0}, esse
conjunto tem m.d.c. igual a 1. Portanto o estado 0 é aperiódico. Como a cadeia
é irredutível, então todos os estados são aperiódicos.
Como estamos com uma cadeia irredutível aperiódica, que tem uma distribuição invariante π, então podemos calcular:
lim P (Xn = 0) = π(0) =
n→∞
1
µ
Agora note que o evento
{n = Y1 + . . . + Yk } = {inf{m ≥ n : m = Y1 + . . . + Yk } = n}
= {inf{m ≥ n : m = Y1 + . . . + Yk } − n = 0} .
Dessa maneira
{n = Y1 + . . . + Yk para algum k ≥ 0} = {Xn = 0},
e portanto:
lim P (n = Y1 + . . . + Yk para algum k ≥ 0) =
n→∞
4
1
.
µ
Exercício 1.9.2
Duas partículas, X e Y , realizam passeios aleatórios no grafo do diagrama
do livro. Estando em um vértice do grafo, uma partícula escolhe o próximo
vértice com igual probabilidade entre os vizinhos.
Encontre a probabilidade de que X e Y eventualmente se encontrem nos
seguintes casos:
4
1. X inicia em A e Y em B.
Resolução. Elas nunca se encontram. As cadeias são periódicas, de período 2, e A e B são vizinhos.
2. X inicia em A e Y em E.
Resolução. Elas se encontram com probabilidade 1.
Se considerarmos (X, Y ) como uma única cadeia de Markov, veremos que
o estado (A, E) está na mesma classe fechada que todos os estados da
forma (I, I). Assim, como essa classe é finita, todos os estados dela são
recorrentes. Assim o tempo para alcançar qualquer estado, como por
exemplo um estado da forma (I, I), será finito.
Denote por MI o valor esperado do tempo para que, com as duas cadeias
iniciando em I, ambas retornem à I ao mesmo tempo.
Mostre que 9MD = 16MB .
Resolução. Seja S o conjunto de vértices do grafo dado, que também é o espaço
de estados das cadeias X e Y .
Como já comentado, Zn = (Xn , Yn ) é uma cadeia de markov em S 2 , com
probabilidade de transição dada por:
q((a, b), (c, d)) = p(a, c)p(b, d),
onde p(•, •) denota a probabilidade de transição das cadeias X e Y .
Tome C0 e C1 a partição de S, conforme o teorema 1.8.4 de Norris aplicado
para a cadeia (Xn ) (ou (Yn )).
Com a cadeia (Zn ), teremos 2 classes de comunicação fechadas, que denotaremos por K0 e K1 , onde:
K0 = (C0 × C0 ) ∪ (C1 × C1 )
K1 = (C0 × C1 ) ∪ (C1 × C0 )
Como o espaço de estados é finito, e não temos nenhuma classe de comunicação aberta, então todos os estados são recorrentes positivos.
Não é difícil verificar que uma medida invariante de (Zn ) é dada por µ(a, b) =
π(a)π(b). Onde π é a única probabilidade invariante das cadeias (Xn ) e (Yn ).
Como estamos realizando um passeio aleatório, teremos que π(a) = Pd(a)
,
b d(b)
onde d(I) é o número de vizinhos do vértice I no grafo.
Usando o Lema de Kǎc, teremos que, para I ∈ S:
MI =
Pµ (τ (I,I) < ∞)
.
µ(I, I)
5
Como (I, I) ∈ K0
∀I ∈ S, temos que
X
Pµ (τ (I,I) < ∞) =
µ(a, b),
(a,b)∈K0
portanto Pµ (τ (D,D) < ∞) = Pµ (τ (B,B) < ∞).
MD
Pµ (τ (D,D) < ∞)
µ(B, B)
µ(B, B)
π(B)π(B)
d(B)d(B)
16
=
=
=
=
=
MB
µ(D, D)
µ(D, D)
π(D)π(D)
d(D)d(D)
9
Pµ (τ (B,B) < ∞)
5
Exercício 10.4
Uma cantora de ópera vai atuar em uma longa série de concertos. Ela tem um
temperamento complicado, e assim pode amarelar cada noite com probabilidade
1
2 . Uma vez que isso aconteça ela não vai voltar a atuar até que o produtor a
convença do contrário.
Ele faz isso enviando um buque de flores para ela a cada dia que ela não
queira atuar. Ele compra um buque
√ por x mil libras, 0 ≤ x ≤ 1, e isso a
convence a atuar com probabilidade x.
O produtor pretende ter um lucro de 750 libras por concerto bem sucedido.
Supondo que as decisões de cada dia sejam independentes, quanto ele deve
gastar em flores?
Resolução. Podemos representar o estado da cantora em um espaço de estados
S = {0, 1}, onde 0 representa que ela não vai cantar naquela noite e 1 que ela
vai cantar.
Se Xn for o estado dela na n-ésima noite, então (Xn ) será uma cadeia de
Markov, com matriz de transição dada por:
√
√ 1− x
x
P =
.
1
1
2
2
Vamos denotar por f : S → R o lucro obtido em um dia, em milhares de
libras, de acordo com o estado da cantora. Assim f (0) = −x e f (1) = 0, 75.
Suponha que vamos tentar realizar M + 1 concertos, que denotamos por
X0 , . . . , XM . Uma quantidade de interesse é o lucro total, dada por:
L(M ) :=
M
X
f (Xi )
i=0
Vamos primeiramente supor que x > 0. Nesse caso a cadeia é irredutível e
recorrente positiva. Ainda nossa função f é limitada. Assim o teorema ergódico
P
) M →∞ ¯
diz que L(M
i∈S πi f (i), onde π é a única probabilidade invariante
M +1 −−−−→ f =
da nossa cadeia.
6
No caso x = 0, temos que limM →∞ L(M ) é quase certamente finito (assim
que ela parar de cantar, nunca mais cantará). Assim se encontrarmos um valor
de x onde f¯ seja positivo, esse é preferível, já que nesse caso L(M ) ficará cada
vez maior quanto maior for o M (e estamos supondo que o M é bem grande).
Podemos calcular:
√
2 x
1
√
π = 2√x+1
2 x+1
√
2
x
1
f¯ = 0, 75 √
−x √
2 x+1
2 x+1
Assim uma estratégia possível é maximizar f¯, o que acontece quando x =
0, 25. Assim devemos gastar 250 libras.
7
Download