cadeiaMarkov_transparencia

Propaganda
Cadeias de Markov
Andrei Andreyevich Markov
(*1856, Ryazan, Russia; 1922, São Petersburgo, Russia).
Fernando Nogueira
Cadeias de Markov
1
Introdução
Processos Estocásticos  Processos que evoluem no tempo de maneira probabilística.
Processos Estocásticos (formal)  coleção de variáveis randômicas (X(t)) indexadas
por um parâmetro t, com t  T . X(t) representa o estado do sistema no parâmetro
(tempo) t. Portanto, X(t) é definido em um espaço denominado Espaço de Estados.
Classificação em relação ao Estado
Estado Discreto (cadeia): X(t) é definido sobre um conjunto enumerável ou finito
Estado Contínuo (seqüência): X(t) caso contrário
Classificação em relação ao Tempo (Parâmetro)
Tempo Discreto: t é finito ou enumerável
Tempo Contínuo: t caso contrário
Exemplos
1) Número de usuários em uma fila em um determinado instante: Estado Discreto e
Tempo Contínuo.
2) Índice pluviométrico diário: Estado Contínuo e Tempo Discreto.
3) Número de dias chuvosos: Estado Discreto e Tempo Discreto.
Fernando Nogueira
Cadeias de Markov
2
Processos Markovianos
Um Processo Estocástico é dito ser um Processo Markoviano se:
PX(t k 1 )  x k 1 X(t k )  x k , X(t k 1 )  x k 1 ,...,X(t 1 )  x1 , X(t 0 )  x 0  PX(t k 1 )  x k 1 X(t k )  x k 
para t 0  t1  ...t k  t k 1  0,1,...
e toda seqüência
k 0 , k1 ,..., k t 1 , k t , k t 1
Um Processo Markoviano é uma Cadeia de Markov em Tempo Discreto se:
PX(k  1)  x k 1 X(k)  x k , X(k 1)  x k 1 ,...,X(1)  x1 , X(0)  x 0  PX(k  1)  x k 1 X(k)  x k 
Probabilidade de Transição  PX(k  1)  x k 1 X(k)  x k 
Probabilidade de Transição é dita Estacionária se:
PX(k  1)  x k 1 X(k)  x k  PX(1)  x1 X(0)  x 0 
 Probabilidade de transição de passo 1
Probabilidade de Transição de passo 1 implica que:
PX(k  n)  x k n X(k)  x k  PX(n)  x n X(0)  x 0  
Probabilidade de transição de passo n
Notação simplificada  p ij(n)  PX(k  n)  j X(k)  i
Matriz de Transição de Passo n
Fernando Nogueira

 p 00n 
 n 
p
P n    10
 ...
 n 
p M 0
Cadeias de Markov
p 01n 
n 
p11
...
p Mn1
... p 0nM 

... p1nM 
...
... 


n
... p MM 
3
Exemplo 1
O estado no ano de 1993 do uso da terra em uma cidade de 50 Km2 de área é:
Vetor de Estados
x  I II III
Vetor de Probabilidade de Estado
  0.30 0.20 0.50 
O estado no ano de 1998 do uso da terra é
Matriz de Transição
0.8 0.1 0.1
P   0.1 0.7 0.2
0.0 0.1 0.9
0.8 0.1 0.1
1  0 P  30 20 50 0.1 0.7 0.2  26 22 52
0.0 0.1 0.9
Fernando Nogueira
Cadeias de Markov
4
Equações de Chapman - Kolmogorov
 Permite computar a matriz de transição para n passos (de t para t + n).
para todo i, j = 0, 1, ..., M
M
n 
p ij  p ikm p nkj m  P n   P m .P n  m  P n   P n
qualquer m = 1, 2, ..., n-1
k 0
notação matricial
qualquer n = m+1, m+2, ....
Classificação de Estados em Cadeias de Markov

Estado Alcançável  j é alcançável a partir de i se p ijn   0 para algum n  0
Estado Comunicante  j é comunicante com i se j é alcançável a partir de i e vice-versa
Estado 0
1
0
0
 1

1
0
1  p
P
 0 1 p
2

3
0
 0
2 3
0 0
p 0 
0 p

0 1
1 é comunicante com 2
n 
2 não é alcançável a partir de 3  p 32
 0, n  0
Se todos estados são comunicantes  Cadeia Irredutível
Estado Transiente  i é transiente se e somente se existe um estado j  j  i  que é
alcançável a partir do estado i mas não vice-versa.
Estado Recorrente  i é recorrente se não é transiente.
Estado Absorvente  i é recorrente se pii = 1.
Fernando Nogueira
Cadeias de Markov
5
Um conjunto C de estados é dito ser um Conjunto Fechado se o processo ao entrar em
um destes estados de C, este irá permanecer nos estados de C indefinidamente.
Um conjunto Cm de estados é dito ser um Conjunto Fechado Mínimo se este conjunto
não possui sub-conjuntos fechados.
Estado
0
1
P 2
3
4
0
1
 4
1
 2
0
0

 1
1
3
1
4
2
0
0
0
2
0
0
1
1
3
0
3
0
4
0

0 0

0 0
2
0
3 
0 0
0 e 1 são recorrentes 0, 1 e 2 formam um Conj. Fechado
2 é absorvente
0 e 1 formam um Conj. Fechado Mínimo
3 e 4 são transientes 2 Conj. Fechado Mínimo
Estado Periódico  i é periódico com período t se um retorno a este estado é possível
somente em t, 2t, 3t,... passos para t>1. p iin   0 sempre quando n não é divisível por t.
Estado Aperiódico  se t = 1.
Em uma Cadeia de Markov
1 
0
de estado finito, estados
0 1
0
2
2

1 
0 1
recorrentes aperiódicos são
0
1
2
2
P
1

2
0
chamados
de
estados
 2 12 0
1

3
1
0
0
Ergódicos. Uma Cadeia de
2
 2

1e 2 são periódicos todos estados são periódicos Markov é Ergódica se todos
os estados são ergódicos.
com t = 2
com t = 2
Estado 0
1
0
0
 1
1  p
1
0

P
 0 1 p
2

3
0
 0
2 3
0 0
p 0 
0 p

0 1
Fernando Nogueira
Estado
0
1
2
3
Cadeias de Markov
6
Probabilidades de Estados Estavéis (Steady-State)
 Se a Cadeia de Markov é Ergódica e Irredutível, a distribuição de probabilidade dos
estados a longo período    independe da distribuição de probabilidade inicial dos
estados 0 .
0.080

1 0.632
P 
0.264

0.080
0.184 0.368 0.368
0.368
0
0 
0.368 0.368
0 

0.184 0.368 0.368
0.249
0.283

2
P 
 0.351

0.249
0.286
0.300
0.252
0.233
0.319
0.233
0.286
0.300
0.165 
0.233 
0.097 

0.165 
0.286
0.286

8
P 
0.286

0.286
0.285
0.264
0.285
0.264
0.285
0.264
0.285
0.264
0.166 
0.166 
0.166 

0.166 
0.286

  0.286
P 
0.286

0.286
0.285
0.285
0.285
0.285
0.264
0.264
0.264
0.264
0.166
0.166
0.166

0.166
0.289
0.282

4
P 
0.284

0.289
0.286
0.285
0.283
0.286
0.261 0.164 
0.268 0.166 
0.263 0.171 

0.261 0.164 
0 .P   
0.286 0.285 0.263 0.166
para qualquer 0 
Equações de Estados Estavéis
M
 j    i p ij para j = 0, 1, 2, . . ., M
M

i 0
j
1
para j = 0, 1, 2, . . ., M
     .P 
 M+2 equações em M+1 incógnitas

  0 1 2 3  
 0   0 p 00  1 p10   2 p 20   3 p 30
0  0 0.080  1  1 0.632  2 0.264  3 0.080
0.286 0.285 0.263 0.166
   p  p  p  p
0   0.184   0.368  1   0.368   0.184
0 01
1 11
2 21
3 31
0
1
2
3
 1

   0.286 0.285 0.263 0.166
    


0  0 0.368  2 0.368  1  3 0.368
 2   0 p 02  1 p12   2 p 22   3 p 32  
  0.286 0.285 0.263 0.166
()

P


   p   p   p   p

0  0 0.368  3 0.368  1
   0.286 0.285 0.263 0.166
0 03
1 13
2 23
3 33
 3

    


1   0  1   2   3

1  0  1  2  3
  0.286 0.285 0.263 0.166
Fernando Nogueira
Cadeias de Markov
7
j 0
Custo Médio Esperado por Unidade de Tempo
 1 n k  
lim
pij    j , i
Se a Cadeia de Markov é Irredutível, o limite n  n 
sempre irá existir.
k 1

Seja C(Xt) uma função de custo (C() é uma variável randômica independente de t). O
M
custo médio esperado por unidade de tempo é: lim E  1 n CX t   
 j0 j C j
n  
n
t

1


Exemplo
0
2

CX t   
8
18
Se
se
se
se
se
Xt
Xt
Xt
Xt
0
1
2
3
1 n

 lim E   CX t   0.2860  0.2852  0.2638  0.16618  5.66
n 
 n t 1

1 se X t  j
0 se X t  j
CX t   
custo médio esperado do estoque por semana
Fração do tempo em que o processo está no estado j
Tempos de Primeira Passagem  tempo demandado para o processo atingir o estado j a
partir do estado i. Quando j = i  Tempo de Recorrência para o estado i.
Denominando f ijn  a probabilidade do Tempo de Primeira Passagem a partir do
estado i para o estado j ser n, pode-se escrever que:
f ij1  p ij1  p ij
Exemplo: Probabilidade do Tempo de Primeira Passagem a partir do
estado 3 (estoque cheio) para o estado 0 (estoque vazio) ser n:
2 
1
f ij   p ik f kj
k j
f ijn    p ik f kjn 1
k j
1  p  0.080
f 30
30
2   p f 1  p f 1  p f 1  0.184 0.632   0.368 0.264   0.368 0.080   0.243
f 30
31 10
32 20
33 30
Fernando Nogueira
Cadeias de Markov
8

 f    1  processo inicialmente no estado i, pode nunca alcançar o estado j
n 1
n
ij

n 
n 
f

1

f
é a distribuição de probabilidade para a variável aleatória Tempo
 ij
ij
n 1
de Primeira Passagem
Tempo de Primeira Passagem Esperado

 
 ij   
  nf ijn 
n 1

se
se
n 
 f ij  1
n 1

n 
 f ij  1
n 1
Sempre quando

 f    1   ij
n
n 1
ij
unicamente satisfaz
 ij  1   p ik  kj
k j
Exemplo: Tempo de Primeira Passagem Esperado a partir do estado 3 (estoque cheio)
para o estado 0 (estoque vazio):
 30  1  p3110  p32 20  p33 30  30  1  0.18410  0.368 20  0.368 30 10  1.58 semanas
 20  2.51semanas
 20  1  p 2110  p 22 20  p 23 30  20  1  0.36810  0.368 20
 30  3.50 semanas
10  1  p1110  p12 20  p13 30 10  1  0.36810
Tempo de Recorrência Esperado
1
1
 00 
 3.50 semanas
 jj 
0
j
1
11 
 3.51 semanas
1
Fernando Nogueira
Cadeias de Markov
 22 
1
 3.80 semanas
2
 33 
1
 6.02 semanas
3
9
Classificação de Estados segundo a probabilidade do Tempo de Primeira Passagem

n 
f
 ii  1  ii    Transiente
Um estado recorrente é Nulo se  ii  
n 0

n 
f
 ii  1  Re corrente
Um estado recorrente é Não-Nulo ou Positivo se ii  
n 0
Um estado é Ergódico se é não-nulo e aperiódico
Estados Absorventes
fik probabilidade de absorção para o estado k dado que o sistema iniciou no estado i.
Seja k um estado absorvente, então o conjunto de probabilidades de absorção fik satisfaz
o seguinte sistema de equações:
M
f ik   p ijf jk
j0
sujeito a:
f kk  1
f ik  0 se i é recorrente e i  k
Fernando Nogueira
Exemplo: f20 e f24 ?
0
1
P 2
3
4
1
2
 3
0

0

0
0
0
2
3
0
0
0
1
3
0
2
3
0
0
0
1
3
0
0
0
0 
0

1 
3
1
 f 10  p10 f 00  p11f 10  p12 f 20  p13f 30  p14 f 40

f 20  p 20 f 00  p 21f 10  p 22 f 20  p 23f 30  p 24 f 40
f  p f  p f  p f  p f  p f
30 00
31 10
32 20
33 30
34 40
 30
Cadeias de Markov
4
5
1

5
f 20 
f 24
10
Download