Sobre métodos estocásticos - CEFET

Propaganda
Exercícios – Princípios de Modelagem Matemática
Modelagem Matemática e Computacional
Prof.
José Geraldo
(Dated: 06 de fevereiro de 2015)
Questões
1. Processos de Poisson e cadeias de Markov são processos estocásticos bastante similares.
Ambos são markovianos e a variável aleatória regida por qualquer um destes processos
só se modifica em determinados instantes de tempo. No entanto, há um aspecto
fundamental que os diferencia e que determina a escolha de um ou de outro para
modelar um fenômeno. A seguir, é apresentada uma lista de fenômenos que podem
ser descritos por um destes dois processos. Escolha o processo que melhor se adequa
na descrição de cada fenômeno.
(a) Emissão de partícula radiativa por uma amostra com número moderado de átomos radiativos.
(b) Mutação em algum gene ao longo de divisões celulares sucessivas.
(c) Transmissão de determinado alelo ao longo de gerações sucessivas de uma dada
espécie, cuja população é mantida em um ambiente controlado e a mutação é
negligenciada.
(d) Ocupação da presidência dos Estados Unidos por republicanos ou democratas.
2. Verifique que o produto de duas matrizes estocásticas de ordem n × n também é uma
matriz estocástica.
3. Uma doença é causada por duas cepas de um mesmo vírus, denominadas A e B. Se uma
pessoa contraiu a doença no ano anterior, qualquer que seja a cepa do vírus contraído,
ela tem probabilidade 1/10 de contraí-la novamente este ano, para vírus da mesma
cepa, e probabilidade 1/5 de contraí-la, também este ano, para vírus de cepa diferente.
Por outro lado, se a pessoa, no ano anterior, esteve saudável, as probabilidades para
2
ela contrair a cepa A ou para contrair a cepa B são iguais a 1/10. Supondo que este
processo seja markoviano, responda as questões a seguir:
(a) Obtenha a matriz de probabilidades de transição para este processo estocástico.
(b) Que fração da população, a longo prazo, permanecerá saudável?
4. Considere um processo de Poisson N (t) descrito pela distribuição de probabilidades
0
Pr (N (t) − N (t0 ) = k) = e−λ(t−t )
λk (t − t0 )k
,
k!
onde k = 0, 1, 2 . . . e t > t0 . Por exemplo, a variável aleatória N (t) descreve o número
de chamadas telefônicas que chegaram a uma central até o tempo t. Suponha que o
processo de contagem tenha sido disparado em t = 0 e que, portanto, N (0) = 0.
(a) Obtenha a probabilidade para que, no tempo t > 0, pelo menos uma chamada
tenha sido registrada na central. Em outras palavras, determine Pr (N (t) ≥ 1).
(b) Qual é o tempo médio de espera entre chamadas?
Cadeias de Markov absorventes
Considere uma cadeia de Markov caracterizada pela matriz de probabilidades de transição
W = [wij ] de ordem m × m. Em outras palavras, a cadeia de Markov possui conjunto de m
estados possíveis, S = {s1 , s2 , . . . , sm }. Dizemos que o estado da cadeia si é absorvente se
tivermos wii = 1. Por outro lado, todo estado que não é absorvente é chamado transiente.
Se uma cadeia de Markov possui estados absorventes, ela é chamada de cadeia de Markov
absorvente.
Um exemplo: considere um bêbado que está tentando chegar a um bar que fica a quatro
quarteirões da casa onde mora. Enumere as posições dos quarteirões como 0 (a casa do
bêbado), 1 (o primeiro quarteirão), etc, até 4 (o bar). Se o bêbado está na posição 0 ou na
posição 4, ele permanece aí indefinidamente. Por outro lado, se ele está nos quarteirões 1,
2 ou 3, ele tem iguais probabilidades de seguir para o próximo quarteirão, em direção ao
bar, ou recuar para o quarteirão anterior, em direção a sua casa. A matriz probabilidades
3
de transição, neste caso, é (verifique!)
0

1 1/2 0
0

1 
 0 0 1/2 0

2 
 0 1/2 0 1/2

3 
 0 0 1/2 0
4 0 0 0 1/2
0


0


0
.

0

1
(1)
Os números que aparecem à esquerda indicam a posição do bêbado.
Uma cadeia de Markov absorvente sempre evolui de forma a atingir um dos seus estados
absorventes. Em outras palavras, a probabilidade de uma cadeia de Markov atingir um dos
estados absorventes, após n passos de tempo, é igual a 1. Isto pode ser verificado facilmente,
bastando reordenar o espaço de estados para que os estados absorventes apareçam por
último. Para o exemplo acima, o espaço de estados do bêbado, assim reordenado, ficaria
S = {1, 2, 3, 0, 4}. Com este reordenamento, a matriz de probabilidades de transição é dada
por (verifique!)

0 1/2 0

 1/2


W=
 0

 1/2

0
0 0


0 1/2 0 0 


1/2 0 0 0 
.

0 0 1 0

0 1/2 0 1
(2)
Note que, de modo geral, usando tal reordenamento, uma matriz de probabilidades de
transição para uma cadeia de Markov absorvente tem a forma “em blocos”


..
Q . 0




.
W =  · · · .. · · ·  ,


..
R . I
(3)
onde Q é a matriz de probabilidades de transição associada aos estados transientes apenas,
I é uma matriz identidade, R uma matriz não-nula e 0 uma matriz nula. Se a cadeia de
Markov possui q estados transientes e r estados absorventes, então as ordens dessas matrizes
são, respectivamente, q × q, r × r, r × q e q × r.
1. O produto de matrizes com o formato em blocos, tais como a matriz apresentada em
Eq. (3), segue o mesmo algoritmo do produto de duas matrizes 2 × 2 ordinárias. Por
4
exemplo, o produto de W por ela mesma produz


..
2
Q
. 0




..
2
W =  ···
. ··· .


.
RQ + R .. I
Mostre que

..
Q . 0




..
n
W =  ··· . ··· ,


..
∗ . I

n
onde ∗ indica uma matriz r × q que não nos interessa.
2. Para a matriz W dada pela Eq. (2), verifique que os vetores de probabilidade
 
 
0
0
 
 
0
0
 
 
 
 
 e P4 =  0 
P0 = 
0
 
 
 
 
0
1
 
 
1
0
são estacionários para a cadeia de Markov que caracteriza o movimento do bêbado.
3. Para o bloco Q da matriz de probabilidades de transição W dada pela Eq. (3),
sabe-se que limn→∞ Qn = 0 . Este resultado é a forma matemática de dizer que,
com probabilidade 1, qualquer vetor de probabilidades inicial vai convergir para um
dos estados absorventes. Para uma cadeia de Markov absorvente, cuja matriz de
probabilidades de transição é dada pela Eq. (3), verifique que a matriz I − Q, onde
I é matriz identidade de ordem q × q, tem uma inversa N e ela é dada por N =
I+Q+Q2 +. . .. N é chamada de matriz fundamental da cadeia de Markov absorvente.
A entrada nij de N dá o número médio de vezes que o estado transiente si é ocupado
caso o processo tenha se iniciado no estado transiente sj .
Adjutório: use, de modo sistemático, o limite limn→∞ Qn = 0.
4. Para a cadeia de Markov do exemplo do bêbado, calcule a matriz fundamental N.
Download