Tempo de Parada para Palavras e a Abordagem de - IME-USP

Propaganda
Tempo de parada para a ocorrência
de palavras e a abordagem de martingais
Renato Jacob Gava
Universidade Federal de São Carlos
[email protected]
21o Simpósio Nacional de Probabilidade e Estatística (SINAPE)
Natal - Rio Grande do Norte
Prefácio
Entrei em contato com o tema Ocorrência de Palavras em Séries Aleatórias
graças a Danilo Salotti, amigo dos tempos de pós-graduação no IME-USP. Desde
então meu interesse pelo assunto só aumentou e passou a ser um de meus objetos
de pesquisa.
O público alvo deste trabalho são os pesquisadores e os estudantes de pósgradução em Estatística e Matemática familiarizados com Probabilidade e Processos Estocásticos. Entretanto, qualquer estudante de graduação aplicado e que
já tenha feito ao menos um curso de Processos Estocásticos pode aventurar-se e
enfrentar o texto. Se você é um deles, não sinta medo. Vá em frente! Você vai
encontrar problemas interessantes que podem ser enunciados a qualquer pessoa.
O objetivo deste texto é divulgar um pouco da pesquisa recente envolvendo a
área de Patterns and Runs, tema tão caro à Probabilidade Aplicada. Espero ter
sido didático o suficiente para que o leitor não familiarizado com o assunto possa
apreciá-lo. Não gostaria de restringir-me aos probabilistas apenas. Também
procurei tornar o texto autosuficiente, de modo que o leitor não precise buscar
outras fontes para entender conceitos e definições.
Dispus o conteúdo do seguinte modo. No Capítulo 1, enuncio formalmente o
problema de tempo de espera para ocorrência de palavras e faço um breve apanhado sobre o tema. No Capítulo 2, introduzo algumas questões iniciais e resolvo
alguns problemas envolvendo a ocorrência de apenas uma palavra. No Capítulo
3, apresento a teoria de martingais a tempo discreto necessária à abordagem utilizada no Capítulo 4. No Capítulo 4, introduzo a abordagem de martingais para
a ocorrência de palavras. Inicialmente, mostro como calcular a média do tempo
de espera até que uma palavra qualquer ocorra; nas seções seguintes, demonstro como computar a média do tempo de espera até que uma de várias palavras
ocorra, como calcular a probabilidade de que uma dada palavra seja a primeira
i
ii
a ocorrer e, por fim, encontro a função geradora de probabilidade do tempo de
espera para várias palavras. Na Conclusão, cito sucintamente algumas das extensões às questões apresentadas nestas notas e alguns problemas em aberto. Em
todos os capítulos, procurei dar exemplos e exercícios que ilustram os resultados e as proposições que enuncio e provo. Além disso, evitei dar a prova de
resultados clássicos, como o lema de Borel-Cantelli ou do Teorema 3.9; ambas as
demonstrações podem ser encontradas em livros que fazem parte das referências.
Agradeço à Associação Brasileira de Estatística e à Comissão Organizadora
do 21o SINAPE pelo convite e oportunidade de expor, por meio destas notas,
parte do meu trabalho. Também agradeço à Fundação de Amparo à Pesquisa do
Estado de São Paulo (processo 2012/01432-9) pelo auxílio financeiro.
Sumário
1 Introdução
1
2 Problemas preliminares
5
3 Martingais e tempo de espera
11
4 A abordagem de martingais
15
4.1
4.2
Tempo de espera médio para uma palavra . . . . . . . . . . . . .
Tempo de espera médio para várias palavras . . . . . . . . . . . .
15
18
4.3
Probabilidades de parada . . . . . . . . . . . . . . . . . . . . . . .
20
4.4
Função geradora de probabilidades . . . . . . . . . . . . . . . . .
22
5 Conclusão
27
Referências bibliográficas
29
iii
Capítulo 1
Introdução
Considere uma sequência de lançamentos de moedas em que denotamos o resultado de cada lançamento por H, se der cara, ou por T , se der coroa. Forme
uma palavra apenas com H’s e T ’s, por exemplo, HHHHH ou HT HT H. Quantas vezes temos de arremessar uma mesma moeda até que a palavra HHHHH
apareça? Por exemplo, dadas as sequências
T H T H H H H H e T T H T T H H H H H,
então o número de vezes de vezes que arremessamos a moeda até que HHHHH
ocorra pela primeira vez é 8 e 10, respectivamente. Esse exemplo induz as seguintes perguntas: o tempo de espera até que HHHHH ocorra será sempre finito, ou
teremos de esperar indefinidamente? Qual o tempo esperado até que HHHHH
ocorra? Qual das duas palavras HHHHH e HT HT H ocorre mais facilmente,
isto é, qual delas tem a maior probabilidade de ocorrer primeiro?
Agora introduzamos o modelo formalmente. Considere uma variável aleatória discreta X que assume valores num alfabeto finito A. Seja {Xn }n≥1 uma
sequência de variáveis aleatórias independentes, identicamente distribuídas com
a mesma distribuição de X. Chamamos de palavra qualquer sequência finita de
elementos de A. Considere a palavra A1 = l1 . . . lm . Denotamos por τA1 o tempo
de espera até que a A1 surja pela primeira vez na sequência {Xn }n≥1 , ou seja,
τA1 = min {n ≥ 1; Xn = lm , Xn−1 = lm−1 , . . . , Xn−m+1 = l1 } .
(1.1)
Em seguida, considere uma coleção finita C = {A1 , . . . , Ak } de palavras em A.
1
2
CAPÍTULO 1. INTRODUÇÃO
Defina o seguinte tempo de espera
τ = min{τA1 , . . . , τAk }.
(1.2)
Estamos interessados em obter uma maneira de calcular a esperança E(τ ), a
função geradora de probabilidades E(ατ ) e as probabilidades de parada
P(τ = τAi ), i = 1, . . . , k.
(1.3)
A fim de tornar (1.2) bem-definido e evitar os casos em que duas palavras de C
ocorram simultaneamente, assumimos que nenhuma palavra de C contém outra
palavra como sub-palavra. Mais claramente, não consideraremos casos em que
A1 = HT HT T e A2 = HT T , ou A3 = T T T HHHT T e A4 = T HHH. Esta
hipótese nos garante que P(τ = τi ) > 0, para i = 1, . . . , k, e que
k
X
P(τ = τi ) = 1.
i=1
Para responder às perguntas do parágrafo anterior, usaremos a abordagem de
martingais introduzida por Li [15] e Gerber e Li [7]. Nestes artigos, considera-se
{Xn }n uma sequência de v.a.’s i.i.d.. Vinte cinco anos mais tarde, a técnica de
martingais ganha novo fôlego nos artigos [8, 14] e é adaptada para cadeias de
Markov como podemos observar em [6, 16].
Apenas para realçar o avanço da abordagem de martingais de [15] em relação
a outros artigos do ínicio dos anos 80, olhemos para [1] e [2]. Todos os três tratam
o problema do ponto de vista probabilístico. Em [1], calcula-se o tempo médio
de espera para uma palavra qualquer; em [2], calcula-se a esperança do tempo
de espera para um coleção de palavras C, a função geradora de probabilidades
para τ e as probabilidades (1.3). Entretanto, há a forte limitação de que todas as
palavras de C tenham mesmo tamanho e o ensaios sejam v.a.’s com distribuição
uniforme em A. Nenhuma dessas hipóteses é exigida no enunciado acima.
Uma grande motivação para a resolução de problemas envolvendo tempos
de espera de palavras vem do sequenciamente genético do DNA, como podemos ver em [3] e suas referências. Muitos outros autores têm estudado problemas de tempos de parada para escolhas gerais e específicas de C e sua funções
geradoras de probabilidade. Em vez do mínimo τ , alguns estudam a variável
max{τA1 , . . . , τAk }, outros a intermitência com que as palavras ocorrem. Várias
técnicas distintas têm sido usadas para enfrentar esses problemas tanto para o
3
caso em que os ensaios são independentes como também para o caso em que
{Xn }n≥1 é uma cadeia de Markov. Feller [4] dedica algumas de suas seções ao
estudo da ocorrência de palavras em ensaios de Bernoulli independentes através
do uso da teoria de eventos recorrentes; em [18] alguns de seus resultados são
generalizados, mas não se olha para τ ; observa-se a ocorrência de palavras para
um número n deteminístico de ensaios. O livro de Fu e Lou [5] fornece uma introdução à técnica de imersão da cadeia de Markov para o estudo da distribuição
das palavras, abordagem que tem gerado até hoje muitos artigos. Veja suas referências. Outra abordagem frutífera é a de Combinatória, introduzida por Guibas
e Odlyzko em [11, 12]. Para outros artigos envolvendo Patterns and Runs e suas
conexões com Passeios Aleatórios, Confiabilidade, etc, indicamos o livro [9].
4
CAPÍTULO 1. INTRODUÇÃO
Capítulo 2
Problemas preliminares
Neste capítulo, exibimos alguns problemas introdutórios sobre a ocorrência de
palavras, muitos deles ou encontrados ou inspirados nos livros de Feller [4] e de
Gut [10].
Comecemos com a questão que segue. Será que se lançarmos uma mesma
moeda (honesta ou não) infinitas vezes teremos infinitas ocorrências de caras
(H) e coroas (T )? No caso em que a moeda é honesta, o senso comum diz que
sim, e ele está de acordo com as ferramentas matemáticas que confirmam essa
afirmação. Mas a afirmação também é válida para moedas viciadas. Por outro
lado, olhemos para a palavra HHT HH, por exemplo, e refaçamos a pergunta:
se lançarmos essa moeda infinitas vezes, a palavra HHT HH ocorrerá infinitas
vezes? Abaixo apresentamos o lema de Borel-Cantelli, o instrumento matemático
que nos garante uma resposta positiva para essa pergunta.
Antes, porém, precisamos da seguinte definição. Seja {En }n≥1 uma sequência
de eventos. Abreviamos a expressão infinitas vezes por i.v.. Definimos o evento
{En ocorre para um número infinito de n’s}, resumidamente, {En i.v.}, por
∞
{En i.v.} = ∩∞
n=1 ∪k=n Ek .
Lema 2.1 (Lema de Borel-Cantelli) Seja {En }n≥1 uma sequência de eventos
P
independentes num espaço de probabilidade (Ω, F, P). Se ∞
n=1 P(En ) = ∞, então
P(En i.v.) = 1
Prova Omitida. Veja a página 200 de [13].
5
6
CAPÍTULO 2. PROBLEMAS PRELIMINARES
Exemplo 2.2 Lance uma moeda honesta repetidamente. Considere o evento En
= {o n-ésimo lançamento dá cara}. Observe que P(En ) = 1/2 para todo n ≥ 1.
Daí,
∞
X
P(En ) = ∞.
n=1
Como os eventos En são independentes, isto é, a ocorrência de cara ou coroa
num determinado lançamento não interfere no resultado dos próximos lançamentos, podemos usar o lema de Borel-Cantelli e concluir que P(En i.v.) = 1. Em
palavras, teremos a ocorrência de infinitas caras com probabilidade 1.
Exercício 2.3 Lance uma moeda honesta infinitas vezes. Defina o evento En
= {o n-ésimo e o n + 1-ésimo lançamentos dão cara}, para n ≥ 1. Mostre que
P(En i.v.) = 1, isto é, o evento duas caras consecutivas ocorre infinitas vezes com
probabilidade 1.
Exercício 2.4 Seja {Xn }n≥1 uma sequência de variáveis aleatórias i.i.d. tal que
P(X = H) = p e P(X = T ) = 1 − p, com p ∈ (0, 1). Defina adequadamente o
evento En para mostrar que a palavra HHT HH ocorre infinitas vezes com probabilidade 1. Conclua que qualquer palavra ocorre infinitas vezes com probabilidade
1.
Os exercícios e os exemplos anteriores nos levam às perguntas: quanto tempo
teremos de esperar até que ocorra a palavra de interesse? Qual é a distribuição do
tempo de espera? Podemos calcular a esperança do tempo de espera? Teremos
de esperar um tempo infinito?
Abaixo mostramos que o tempo de espera para qualquer palavra tem esperança finita e, portanto, tem probabilidade nula de ser infinito.
Seja A o nosso alfabeto finito e seja A = l1 . . . lm . Denote por τA o tempo de
espera até que a A surja pela primeira vez na sequência {Xn }n≥1 . Defina
T = min q ≥ 1; Xm(q+1) = lm , Xn−1 = lm−1 , . . . , Xmq+1 = l1 .
A variável T observa a primeira ocorrência de A a cada bloco de m de variáveis.
Note que
τ ≤ mT
(2.1)
e que T tem distribuição geométrica. Logo, E(τ ) < ∞, o que por sua vez implica
que P(τ = ∞) = 0.
7
Exercício 2.5 Mostre que T tem distribuição geométrica de parâmetro p, onde
p = p1 p2 . . . pm e pi = P(Xn = li ), i = 1, . . . , m.
Sabendo que a esperança do tempo de espera de qualquer palavra é finita,
cabe agora perguntar qual o seu valor. Abaixo apresentamos alguns exemplos.
Eles dão uma ideia de quão complexo pode ser o cálculo.
Exemplo 2.6 Seja {Xn }n≥1 uma sequência de variáveis aleatórias independentes, identicamente distribuídas tais que P(X = H) = P(X = T ) = 1/2. Sejam
A1 = T H e A2 = HH. Calculemos a) E(τA1 ), b) E(τA2 ) e P(τA1 < τA2 ).
a) Observemos que toda ocorrência de A1 = T H é da seguinte forma: um
sequência H’s (possivelmente nenhum) seguidos por uma sequência de T ’s (ao
menos um) até a aparência do primeiro H, ou seja,
HH
. HHT} T
. T T H} .
| . .{z
| T . .{z
G1
G2
Note que G1 e G2 são variáveis aleatórias independentes com distribuição geométrica de parâmetro 1/2, isto é,
P(Gi = x) = (1/2)x−1 (1/2) para x = 1, 2, . . . e i = 1, 2.
Logo,
E(τA1 ) = E(G1 ) + E(G2 ) = 2 + 2 = 4.
b) Para a palavra A2 = HH, apresentamos uma solução baseada no condicionamento do resultado dos dois primeiros lançamentos. Observemos que
i) se o primeiro lançamento dá T , significa que recomeçar a lançar a moeda
como se fosse do zero;
ii) se os dois primeiros lançamentos dão HT , significa recomeçar do zero;
iii) se os dois primeiros lançamentos dão HH, paramos de arremessar a moeda.
Daí,
τA2 = (1 + τ 0 )1{X1 =T } + (2 + τ 00 )1{X1 =H,X2 =T } + 2 1{X1 =H,X2 =H} ,
8
CAPÍTULO 2. PROBLEMAS PRELIMINARES
onde τ 0 e τ 00 tem a mesma distribuição de τA2 e são independentes de X1 e X2 .
Tomando a esperança de ambos os lados, temos
E(τA2 ) = (1 + E(τA2 )) ×
1
1
1
+ (2 + E(τA2 )) × + 2 × ,
2
4
4
o que implica E(τA2 ) = 6.
c) Dadas as palavras A1 = T H e A2 = HH, observe que a única realização
da sequência {Xn }n≥1 em que A2 aparece antes de A1 é a realização em que os
dois primeiros ensaios dão HH. Caso contrário, assim que ocorrer o primeiro T
realizamos uma série de ensaios até a ocorrência do primeiro H. Daí,
P(τA2 < τA1 ) =
1
4
3
e P(τA1 < τA2 ) = .
4
Exercício 2.7 Refaça o exemplo anterior considerando P(X = H) = p e P(X =
T ) = 1 − p, onde p ∈ (0, 1).
Exercício 2.8 Seja A = HHHHH. Use a abordagem da parte b) do exemplo
prévio para mostrar que E(τA ) = 62.
Exemplo 2.9 Aqui apresentamos as respostas de um problema clássico encontrado nos capítulos VIII.1 e XIII.8 de Feller [4]. Seja {Xn }n≥1 uma sequência de variáveis aleatórias independentes, identicamente distribuídas tais que
P(Xn = H) = p e P(X = T ) = q, onde p ∈ (0, 1) e q = 1 − p. Sejam A1 a
palavra formada α H’s consecutivos e A2 a palavra formada β T ’s consecutivos,
ou seja,
. . T T} .
A1 = HH
. . HH} e A2 = T
| T .{z
| .{z
α vezes
β vezes
Considere τA1 e τA2 como antes e defina τ = min{τA1 , τA2 }. Feller lança mão da
teoria de eventos recorrentes (que apenas citamos) para chegar às fórmulas abaixo
P(τ = τA1 ) =
pα−1 (1 − q β )
(1 − pα )(1 − q β )
e
E(τ
)
=
.
pα−1 + q β−1 − pα−1 q β−1
pα q + pq β − pα q β
Exercício 2.10 Suponha P(X = H) = p e P(X = T ) = 1 − p, onde p ∈ (0, 1).
Sejam A1 = HT T T T e A2 = T T T T T . Mostre que
P(τA2 < τA1 ) =
1
25
e P(τA1 < τA2 ) = 1 −
1
.
25
9
Até agora os problemas que apresentamos envolvem apenas uma palavra e alfabeto A com dois elementos. Uma questão que naturalmente se põe é a seguinte:
se o alfabeto puder assumir qualquer tamanho finito e se tivermos uma coleção
maior de palavras, digamos, C = {A1 , . . . , Ak }, como responder às perguntas
contidas em (1.1), (1.2), (1.3)? Olhemos novamente para o exemplo 2.6. Claro
está que, mesmo nas condições do exemplo, se fizermos as mesmas indagações
para palavras como B = HT HT HT T e C = T T HT HT HT HH as estratégias
para calcular o tempo de espera médio nas letras a) e b) ou não funcionarão ou
serão muito custosas, demandando muitos cálculos. Além disso, como calcular
P (τB < τC )? Mesmo a abordagem de Feller [4], uma espécie de primeiro passo
rumo a questões mais gerais, se aplica apenas a um alfabeto de tamanho 2 e não
responde às perguntas da frase anterior. Para tanto, precisamos de uma teoria
que aborde as questões de modo geral. No próximo capítulo, introduzimos a teoria de martingais a tempo discreto. No capítulo 4, introduzimos a abordagem
de martingais para o problema, primeiramente para apenas uma palavra e em
seguida para várias palavras. Esta abordagem responde às perguntas em (1.1),
(1.2), (1.3).
10
CAPÍTULO 2. PROBLEMAS PRELIMINARES
Capítulo 3
Martingais e tempo de espera
Nesta capítulo apresentamos algumas definições e resultados (apenas para o
caso discreto) que serão fortemente usados nos próximo capítulo para encontrar
a média de (1.1) e de (1.2) e para calcular as probabilidades de (1.3).
Evitaremos a notação de σ-álgebra e de filtração para trabalhar com martingais. Optamos pela abordagem de [17]. A intenção é usar a notação e os exemplos
mais intuitivos possíveis para que o estudante não acostumado ao assunto possa
ler o texto sem se assustar. Ao leitor mais interessado recomendamos a leitura
de [19]. Vários dos exemplos que apresentamos a seguir são retirados de ambos
os livros.
Definição 3.1 (Martingal) Seja {Mn }n≥1 uma sequência de variáveis aleatórias tal que E(|Mn |) < ∞ para todo n ≥ 1. Chamamos {Mn }n≥1 de martingal
se
E(Mn+1 /M1 , . . . , Mn ) = Mn para todo n ≥ 1.
Intuitivamente, a definição de martingal nos diz que, dada a informação sobre
os valores do processo {Mn }n≥1 até o instante n, em média, no instante n + 1, o
processo terá o mesmo valor do instante anterior.
Exemplo 3.2 Seja {Xn }n≥1 uma sequência de variáveis aleatórias não-negativas
e independentes com E(Xn ) = 1 para todo n ≥ 1. Defina M0 = 1 e
Mn = X1 X2 . . . Xn .
11
12
CAPÍTULO 3. MARTINGAIS E TEMPO DE ESPERA
Então, para n ≥ 0
E(Mn+1 /M0 , . . . , Mn ) = E(X1 . . . Xn Xn+1 /M0 , . . . , Mn )
= E(X1 . . . Xn Xn+1 /X1 , . . . , Xn )
= X1 X2 . . . Xn E(Xn+1 ),
= Mn .
ou seja, Mn é martingal.
Exemplo 3.3 (Passeio aleatório simples em Z) Seja {Xn }n≥1 uma sequência de variáveis aleatórias i.i.d. tal que P(Xn = 1) = p e P(Xn = −1) = 1 − p.
Considere S0 = 0 e, para n ≥ 1, defina
Sn =
n
X
Xn .
i=0
A sequência {Sn }n≥0 é chamada passeio aleatório simples de parâmetro p. Podemos imaginar que Sn descreve a posição de uma partícula no tempo n: em n = 0,
ela está posicionada na origem e, a cada instante de tempo n ≥ 1, ela dá um
passo à esquerda de tamanho 1 com probabilidade 1 − p ou dá um passo à direita de tamanho 1 com probabilidade p. A palavra simples refere-se ao tamanho
unitário do salto da partícula a cada instante de tempo.
Observe que E(Sn ) = n(2p − 1) e que Sn+1 = Sn + Xn . Defina Mn = Sn −
n(2p − 1) para n ≥ 0. Mostremos que {Mn }n≥0 é martingal.
E(Mn+1 /M0 , . . . , Mn ) = E(Mn + Xn+1 − (2p − 1)/M0 , . . . , Mn )
= Mn + E(Xn+1 ) − (2p − 1)
= Mn .
Exercício 3.4 Seja {Mn }n≥1 um martingal. Dadas duas variáveis aleatórias X
e Y , use o fato de que E(X) = E(E(X/Y )) para mostrar que
E(Mn ) = E(M1 ) para todo n ≥ 1.
Agora introduzimos o conceito de tempo de parada, que no Capítulo 1 foi
chamado de tempo de espera ao definir as variáveis (1.1) e (1.2).
13
Definição 3.5 (Tempo de parada) Uma variável aleatória inteira não-negativa τ é um tempo de parada para o processo {Xn }n≥1 se o evento {τ ≤ n} depende
apenas das variáveis aleatórias X1 , . . . , Xn , isto é, se conhecermos uma realização
das variáveis X1 , . . . , Xn , então saberemos a ocorrência ou não de {τ ≤ n}.
Exemplo 3.6 As variáveis definidas em (1.1) e (1.2) são tempos de parada, já
que a ocorrência ou não de uma das k palavras A1 , . . . , Ak até o tempo n depende
apenas dos n-primeiros ensaios.
Exemplo 3.7 (Passeio aleatório simples simétrico em Z) Seja {Xn }n≥1
uma sequência de variáveis aleatórias i.i.d. tal que P(Xn = 1) = 1/2 = P(Xn =
−1). Considere S0 = 0 e, para n ≥ 1, defina
Sn =
n
X
Xn .
i=0
Já vimos que Sn é um passeio aleatório simples; quando p = 1/2, dizemos que o
passeio é simétrico. Além disso, Sn é martingal.
Agora considere max{∅} = 0 e defina
γ = max{n ≤ 15; Sn = 1}
A variável γ nos diz a última visita ao vértice 1 para n ∈ {0, 1, . . . , 15}. Observe
que o evento {γ ≤ 5} não depende apenas dos 5 primeiros ensaios, mas sim dos
15 primeiros ensaios. De modo geral, {γ ≤ i} não depende apenas dos i primeiros
ensaios. Potanto, γ não é tempo de parada.
Exercício 3.8 Sejam τ1 e τ2 tempos de parada para {Xn }n≥1 . Mostre que τ1 +τ2 ,
min{τ1 , 10} e min{τ1 , τ2 } também são tempos de parada.
Teorema 3.9 Sejam τ um tempo de parada e {Mn }n≥1 um martingal para o
processo {Xn }n≥1 . Se E(τ ) < ∞ e existe um número real K > 0 tal que
|Mn+1 − Mn | ≤ K para todo n,
então Mτ é integrável e
E(Mτ ) = E(M1 ).
14
CAPÍTULO 3. MARTINGAIS E TEMPO DE ESPERA
Prova Omitida. Pode ser vista na página 100 de [19].
Observação 3.10 O teorema do tempo de parada generaliza o exercício 3.4 para
instantes de tempo aleatórios.
Exemplo 3.11 (Equação de Wald) Seja {Xn }n≥1 uma sequência de v.a.’s i.
i.d. tais que |Xn | ≤ K para algum K > 0. Seja N um tempo de parada para
{Xn }n≥1 tal que E(N ) < ∞, então
N
X
E(
Xi ) = E(N )E(X).
(3.1)
i=1
Considere que X e Xn tem a mesma distribuição. Agora ponha E(Xn ) = µ.
Note que (prove-o)
n
X
Mn =
(Xn − µ) é martingal.
i=1
Ademais, |Mn+1 − Mn | ≤ 2K. Daí, pelo Teorema 3.9,
E(MN ) = E(M1 ) = E(X1 − µ) = 0,
isto é, E(
PN
i=1
Xi − N µ) = 0, e a igualdade (3.1) está provada.
Exemplo 3.12 Considere novamente o passeio aleatório simples simétrico em Z
do exemplo 3.7. Já vimos que {Sn }n≥0 é martingal, onde S0 = 0. Defina
τ = min{n ≥ 1; Sn =
n
X
Xi = 1}.
i=1
Como {τ ≤ n} depende apenas de X1 , . . . , Xn , então τ é tempo de parada. Entretanto, observe que P(Sτ = 1) = 1 e que
1 = E(Sτ ) 6= E(S1 ) = 0.
Portanto, não podemos aplicar o Teorema 3.9. O motivo pelo qual ele não se
aplica está ligado ao fato de que, embora P(τ < ∞) = 1, aqui temos E(τ ) = ∞, o
que contraria as hipóteses do teorema. As duas afirmações anteriores não serão
provadas nestas notas, porém podem ser encontradas em livros que tratam de
passeios aleatórios, como [4] e [19].
Capítulo 4
A abordagem de martingais
4.1
Tempo de espera médio para uma palavra
Nesta seção introduziremos a abordagem de martingais desenvolvida por Li
[15]. Inicialmente lidaremos com apenas uma palavra A1 = l1 . . . lm e calcularemos
E(τA1 ). Na próxima seção, trataremos do caso em que há várias palavras, como
em (1.2). Para que faça sentido calcular a esperança de τA1 , suponhamos que
P(Xn = li ) > 0 para i = 1, . . . , m. Se P(Xn = li ) = 0 para algum i ∈ {1, . . . , m},
então P(τA1 = ∞) = 1 e E(τA1 ) = ∞.
Exercício 4.1 Mostre que se P(Xn = li ) = 0 para algum i ∈ {1, . . . , m}, então
P(τA1 = ∞) = 1.
Lancemos mão da ideia de times de apostas para construir nosso martingal.
Suponha que estamos num casino e que Xn denote o resultado da n-ésima rodada,
para n = 1, 2, . . .; o jogo acaba no momento aleatório τA1 em que a palavra
A1 aparece pela primeira vez. Atribuímos um time de apostas (formado por
jogadores) para a palavra A1 da seguinte maneira: suponha que um novo jogador
entre no jogo a cada instante de tempo n = 1, . . .. Ele aposta 1 real no evento
Xn = l1 .
Se ele perde, deixa o jogo com 0 reais. Se ele ganha, obtém como prêmio a quantia
de 1/P(X = l1 ) reais. Em seguida, ele aposta todo esse dinheiro que
Xn+1 = l2 .
15
16
CAPÍTULO 4. A ABORDAGEM DE MARTINGAIS
Novamente, se perde, ele deixa o jogo com 0 reais. Se ele ganha pela segunda vez
consecutiva, sua fortuna passa a ser de
1
1
×
P(X = l1 ) P(X = l2 )
reais,
e assim prossegue o jogador até que ou ele perca ou ele acerte as m letras da
palavra. Neste último caso, ele deixa o jogo com
1
1
1
×
× ... ×
P(X = l1 ) P(X = l2 )
P(X = lm )
reais.
Exercício 4.2 Explique por que para todo n ≥ 1 há no máximo m jogadores
apostando.
Observemos que se trata de um jogo justo no seguinte sentido: se logo após o
instante n o jogador possui c reais e no instante n + 1 os aposta na letra l, então
sua fortuna Fn+1 no instante n + 1 satisfaz a igualdade
Fn+1 = 0 1{Xn+1 6=l} +
c
P(Xn+1 = l)
1{Xn+1 =l} .
Daí, após tomar a esperança de ambos os lados,
E(Fn+1 ) =
c
P(Xn+1 = l)
P(Xn+1 = l) = c,
ou seja, o jogador espera ter a mesma quantidade de dinheiro após apostar. Esta
é a igualdade chave que nos garante a construção do martingal.
Seja Sn a quantidade de dinheiro acumulada pelo casino de todos os jogadores
até o tempo n(incluindo n). Dado que o número de apostas na n-ésima rodada
depende somente da história até o tempo n − 1 e o jogo é justo, a sequência
{Sn }n≥0 com S0 = 0 é um martingal, ou seja,
E(Sn+1 /S1 , . . . , Sn ) = Sn para todo n ≥ 0.
Exercício 4.3 Mostre que
S1 = 1{X1 6=l1 } − 1 −
e que, portanto, E(S1 /S0 ) = E(S1 ) = 0.
1
1{X1 =l1 }
P(X = l1 )
4.1. TEMPO DE ESPERA MÉDIO PARA UMA PALAVRA
17
Introduzimos agora uma medida que pondera a sobreposição entre duas palavras. Sejam B = b1 . . . bp e, como antes, A = l1 . . . lm . Para cada (i, j), escreva

1


se 1 ≤ i ≤ m, 1 ≤ j ≤ p e li = bj ;
P(X = bj )
δij =
(4.1)


0,
caso contrário.
Em seguida, defina a função
A ∗ B = δ11 δ22 . . . δmm + δ21 δ32 . . . δmm−1 + . . . + δm−11 δm2 + δm1 .
(4.2)
O lucro líquido do casino no momento τA é dado por
SτA = τA − A ∗ A.
Para compreender a fórmula, observe que τA é quantidade de dinheiro arrecadada
pelo casino até o tempo τA e A ∗ A é quantidade de dinheiro paga pelo casino ao
time de apostadores da palavra A.
Já sabemos que E(τA ) < ∞ (veja (2.1) e exercício 2.5). Ademais, i) para todo
tempo n há um no máximo m jogadores que apostam e ii) o ganho total de cada
jogador está limitado por
m
Y
i=1
1
.
P(X = li )
Isto é, as condições do Teorema do Tempo de Parada 3.9 estão satisfeitas. Logo,
0 = E(S0 ) = E(SτA ) = E(τA ) − A ∗ A.
Donde concluímos a seguinte proposição.
Proposição 4.4
E(τA ) = A ∗ A.
Exercício 4.5 Mostre que |Sn+1 − Sn | ≤ K para todo n ≥ 0, onde
K=m
m
Y
i=1
1
< ∞.
P(X = li )
18
CAPÍTULO 4. A ABORDAGEM DE MARTINGAIS
Exemplo 4.6 Considere o alfabeto A = {H, T } e as probabilidades P(Xn =
H) = P(Xn = T ) = 1/2 para n ≥ 1. Defina as palavras A1 = HHHHH e
A2 = HT HT H. Calculemos E(τA1 ) e E(τA2 ).
Para A1 , primeiramente note que δij =
1
1/2
= 2 para todo i, j = 1, . . . , 5.
Usando (4.2) e a Proposição 4.4, temos
E(τA ) = 25 + 24 + 23 + 22 + 21 = 62.
Para A2 , temos que
(
δij =
2,
se (i, j) ∈ {1, 3, 5}2 ∪ {2, 4}2
0,
se (i, j) ∈
/ {1, 3, 5}2 ∪ {2, 4}2
Daí,
E(τA2 ) = 25 + 0 + 23 + 0 + 21 = 42.
É curioso observar que, embora A1 e A2 tenham mesmo tamanho e mesma
probabilidade de ocorrência em 5 lançamentos consecutivos, essas palavras apresentam tempo de espera médio bem distintos. Basicamente, isso se deve ao fato
de que, como no exemplo 2.6, a sobreposição de A1 dificulta sua ocorrência.
Exercício 4.7 Considere como alfabeto as letras do DNA humano, ou seja, A =
{A, C, G, T } Além disso, suponha que {Xn }n é sequência de v.a. i.i.d. tal que
P(Xn = A) = 1/3, P(Xn = C) = 1/4, P(Xn = G) = 1/4 e P(Xn = T ) = 1/6 para
n ≥ 1. Sejam A1 = ACGT AC, A2 = CAACG e A3 = AACCGT T . Calcule
E(τA1 ), E(τA2 ) e E(τA3 ).
4.2
Tempo de espera médio para várias palavras
Nesta seção, generalizamos a Proposição 4.4 para o caso em que há k palavras
concorrendo pela primeira ocorrência na série {Xn }n≥1 . Aqui seguiremos os passos
de [14], que simplificaram a abordagem de [15] para o problema.
Considere uma coleção finita C = {A1 , . . . , Ak } de palavras em A. Para que
tenhamos apenas uma palavra vencedora, supomos que nenhuma palavra é subpalavra de uma outra. Lembremos que o tempo de parada τ é definido por
τ = min{τA1 , . . . , τAk }.
4.2. TEMPO DE ESPERA MÉDIO PARA VÁRIAS PALAVRAS
19
Observe que τ ≤ τAi para i = 1, . . . , k. Logo, por (2.1), temos que E(τ ) < ∞.
Assuma agora que temos k times de apostadores, um para cada palavra. Em
vez de 1 real como na seção 4.1, suponha que cada jogador do time i (associado
a palavra Ai ), i = 1, . . . , k, aposte yi reais no momento em que entra no jogo.
Como antes, seja Sn a quantidade de dinheiro acumulada pelo casino de todos
os jogadores até o tempo n(incluindo n) e de todos os times de apostas. Observe
que Sn corresponde a soma de k martingais, um para cada time de apostas. Dado
que o número de apostas na n-ésima rodada depende somente da história até o
tempo n−1, que o jogo é justo e que a soma de martingais é martingal, a sequência
{Sn }n≥0 com S0 = 0 é um martingal.
Exercício 4.8 Mostre que a soma de martingais é martingal.
No tempo de parada τ , temos que


(y1 + . . . + yk )τ − y1 (A1 ∗ A1 ) + . . . + yk (A1 ∗ Ak ) , se τ = τA1 ,




 (y1 + . . . + yk )τ − y1 (A2 ∗ A1 ) + . . . + yk (A2 ∗ Ak ), se τ = τA ,
2
Sτ =
..
..

.
.




 (y + . . . + y )τ − y (A ∗ A ) + . . . + y (A ∗ A ) , se τ = τ ,
1
k
1
k
1
k
k
k
Ak
isto é, a quantia que o casino arrecada junto aos apostadores até o tempo τ menos
a quantia que ele paga a cada time de apostas no momento τ . Reescrevendo a
igualdade acima de modo curto, obtemos
Sτ = (y1 + . . . + yk )τ −
k
X
y1 (Ai ∗ A1 ) + . . . + yk (Ai ∗ Ak ) 1{τ =τAi }
(4.3)
i=1
Defina agora µi = P(τ = τAi ) para i = 1, . . . , k, e escreva µ = (µ1 , . . . , µk )> ,
e Y = (y1 , . . . , yk )> . Definimos também a matriz P de lucros de cada um dos k
times de apostas:

A1 ∗ A1 A1 ∗ A2 . . . A1 ∗ Ak

 A2 ∗ A1 A2 ∗ A2 . . . A2 ∗ Ak
P =
 ...
...
...
...

Ak ∗ A1 Ak ∗ A2 . . . Ak ∗ Ak



.


(4.4)
Recordemos a hipótese de que em C nenhuma palavra é sub-palavra de uma
outra. Esta suposição nos garante que no momento τ somente uma das palavras
20
CAPÍTULO 4. A ABORDAGEM DE MARTINGAIS
em C ocorre. Ainda, os mesmos argumentos da seção 4.1 são válidos para (4.3).
Após tomarmos a esperança em ambos os lados de (4.3), obtemos
0 = E(Sτ ) = (y1 + . . . + yk )E(τ ) − µ> P Y,
(4.5)
A partir deste ponto, utilizaremos a relação (4.5) para obter resultados explícitos para E(τ ) e µ = (µ1 , . . . , µk )> , isto é, escolheremos as apostas (y1 , . . . , yk )
convenientemente a fim de conseguir calcular E(τ ) e µ = (µ1 , . . . , µk )> .
Observação 4.9 Em [7], Gerber e Li provam que a matriz P em (4.4) é invertível. Portanto, existem soluções únicas para os sistemas lineares da Proposição
4.10 e da Proposição 4.11, logo abaixo apresentadas.
Proposição 4.10 Se existe uma solução Y ∗ = (y1∗ , . . . , yk∗ )> para o sistema linear
P Y = 1, onde 1 = (1, . . . , 1)> , então
E(τ ) =
y1∗
1
.
+ . . . + yk∗
Prova Observemos que
>
µ AY =
k
X
µi = 1.
i=1
Daí,
0 = (y1∗ + . . . + yk∗ )E(τ ) − 1,
o que encerra a demonstração.
4.3
Probabilidades de parada
De posse da esperança de τ , podemos escolher as apostas de modo a obter as
probabilidades de parada µ = (µ1 , . . . , µk )> , onde, lembremos, µi = P(τ = τAi ),
i = 1, . . . , k.
Proposição 4.11 O vetor de probabilidades µ = (µ1 , . . . , µk )> satisfaz a equação
P > µ = E(τ )1, onde 1 = (1, . . . , 1)> .
4.3. PROBABILIDADES DE PARADA
21
Prova Para j = 1, . . . , k, considere o seguinte vetor de apostas
Y j = (0, . . . ,
, 0, . . . , 0)> .
1
|{z}
j−ésima posição
Daí, o produto P Y j nos dá a j-ésima coluna de P , isto é, (4.5) implica que
0 = E(Sτ ) = E(τ ) − (A1 ∗ Aj , . . . , Ak ∗ Aj )> µ,
(4.6)
para todo j ∈ {1, . . . , k}. Logo, o resultado segue.
Exemplo 4.12 Voltemos ao exemplo 4.6. Lá temos que A = {H, T } e as probabilidades P(Xn = H) = P(Xn = T ) = 1/2 para n ≥ 1. Vimos que se
A1 = HHHHH e A2 = HT HT H, E(τA1 ) = 62 e E(τA2 ) = 42.
Seja τ = min{τA1 , τA2 }. Inicialmente, encontraremos a matriz de lucros P .
Neste caso, temos que
"
P =
62
A1 ∗ A2
A2 ∗ A1
42
#
.
Calculemos A1 ∗ A2 . Como δi2 = 0 para i ∈ {1, . . . , 5} e δ51 = 2, então
A1 ∗ A2 = 0 + 0 + 0 + 0 + 2 = 2. Por outro lado, temos que A2 ∗ A1 = 2, já que
δ2i = δ4i = 0 para i ∈ {1, . . . , 5} e δ51 = 2.
Para encontrar E(τ ), temos de resolver o sistema linear
"
#"
# " #
62 2
y1
1
=
,
2 42
y2
1
cuja solução única é dada por y1∗ = 10/650 e y2∗ = 15/650. Usando a Proposição
4.10, temos que E(τ ) = 26.
Para achar µ = (µ1 , µ2 )> , de acordo com a Proposição 4.11, temos de resolver
o sistema
"
62
2
2
42
#"
µ1
µ2
#
"
=
26
26
#
,
cuja solução única é dada por µ1 = 26/65 = 0, 4 e µ2 = 39/65 = 0, 6.
Exercício 4.13 Retomemos as condições do exercício 4.7, qual seja, o alfabeto
é dado por A = {A, C, G, T } e as probabilidades por P(Xn = A) = 1/3, P(Xn =
22
CAPÍTULO 4. A ABORDAGEM DE MARTINGAIS
C) = 1/4, P(Xn = G) = 1/4 e P(Xn = T ) = 1/6 para n ≥ 1. As palavras são A1 = ACGT AC, A2 = CAACG e A3 = AACCGT T . Defina
τ = min{τA1 , τA2 , τA3 }. Calcule E(τ ) e as probabilidades de parada P(τ = τAi ),
i = 1, 2, 3.
Exercício 4.14 Voltemos ao exemplo 2.9 e suas hipóteses. Use a abordagem de
martingais apresentada acima para mostrar que, se
A1 = HH
. . HH} e A2 = T
. . T T} ,
| .{z
| T .{z
α vezes
β vezes
então
(1 − pα )(1 − q β )
pα−1 (1 − q β )
e E(τ ) = α
.
P(τ = τA1 ) = α−1
p
+ q β−1 − pα−1 q β−1
p q + pq β − pα q β
4.4
Função geradora de probabilidades
Lembremos a definição de função geradora de probabilidade antes de obtermos
a função geradora para o tempo de parada τ .
Definição 4.15 Seja Y uma v.a. inteira e não-negativa. A função geradora de
probabilidade de Y é definida por
Y
G(s) = E(s ) =
∞
X
si P(Y = i), para s ∈ [−1, 1].
i=0
Observe que E(sY ) é uma série de potências com raio de convergência maior ou
igual a 1. Além disso,
P(Y = i) =
G(i) (0)
, para i ≥ 0,
i!
(4.7)
isto é, G determina unicamente a distribuição de Y .
Exercício 4.16 Seja Y uma v.a. com distribuição de Poisson de parâmetro λ >
0. Mostre que a) E(sY ) = eλ(s−1) e b) verifique a relação (4.7).
Para encontrar a função geradora para τ , temos de mudar os valores das
apostas. Adaptamos os argumentos e a prova de [16] em que {Xn }n≥1 é uma
cadeia de Markov para o nosso caso, em que as v.a.’s são i.i.d..
4.4. FUNÇÃO GERADORA DE PROBABILIDADES
23
Considere α ∈ [0, 1]. Continuamos com k times de apostadores, mas agora
supomos que cada jogador do time i que inicia sua aposta no instante n aposta
αn yi , i = 1, . . . , k. Neste caso, a quantia paga pelo casino ao time de apostas j
caso a palavra Ai seja a primeira a ocorrer é uma função de α e é proporcional
a ατ yj . Assim, escrevemos essa quantidade da forma ατ yj Ai ∗ Aj (α) , onde
Ai ∗ Aj (α) é uma função de α, mas não é variável aleatória.
Dadas duas palavras A = a1 . . . am e B = b1 . . . bp , definamos claramente
A ∗ B(α):
A ∗ B(α) =
δ11 δ22 . . . δmm δ21 δ32 . . . δmm−1
δm−11 δm2
+ δm1 ,
+
+
.
.
.
+
αm−1
αm−2
α
(4.8)
onde δij está definida em (4.1). Aqui a matriz de lucros P (α) é da forma


A1 ∗ A1 (α) A1 ∗ A2 (α) . . . A1 ∗ Ak (α)


 A2 ∗ A1 (α) A2 ∗ A2 (α) . . . A2 ∗ Ak (α) 
.

P (α) = 

...
...
...
...


Ak ∗ A1 (α) Ak ∗ A2 (α) . . . Ak ∗ Ak (α)
Ademais, a fortuna do casino no instante τ é dada por
Sτ = (α + . . . + ατ )
k
X
yi −
i=1
=α
k
τ X
1−α
1−α
yi −
i=1
k
X
1{τ =τAi } ατ
i=1
k
X
i=1
1{τ =τAi } ατ
k
X
yj Ai ∗ Aj (α)
j=1
k
X
yj Ai ∗ Aj (α) .
j=1
Tomando a esperança em ambos os lados da igualdade acima, temos
0 = E(Sτ ) = α
k
k
k
X
X
1 − E(ατ ) X
yi − E(ατ )
P(τ = τAi )
yj Ai ∗ Aj (α)
1 − α i=1
i=1
j=1
k
1 − E(ατ ) X
yi − E(ατ )µ> P (α)Y,
=α
1 − α i=1
(4.9)
onde Y = (y1 , . . . , yk )> .
Proposição 4.17 Se existe uma solução Z ∗ = (z1∗ , . . . , zk∗ )> para o sistema linear
P (α)Z ∗ = 1, onde 1 = (1, . . . , 1)> e 0 ≤ α ≤ 1, então
P
α ki=1 zi∗
τ
E(α ) =
.
P
1 + α( ki=1 zi∗ − 1)
(4.10)
24
CAPÍTULO 4. A ABORDAGEM DE MARTINGAIS
Prova Observemos que
E(ατ )µ> P (α)Z ∗ = E(ατ ).
Assim, a expressão em (4.9) se torna
k
0=α
1 − E(ατ ) X ∗
zi − E(ατ ),
1 − α i=1
o que implica a igualdade (4.10).
Observação 4.18 Problema em aberto: será que a matriz P (α) é invertível para
todo α ∈ [0, 1]? Observe que P (1) = P , onde P é a matriz de lucros da seção
anterior e que, de acordo com [7](leia a Observação 4.9), é invertível. Como todos
os elementos de P (α) são polinômios em α, então ao menos numa vizinhança de 1
P (α) é não-singular. Caso a resposta para a pergunta seja sim, podemos afirmar
que sempre existirá uma única solução para o sistema linear da Proposição 4.10.
Exemplo 4.19 Seja A = {H, T } nosso alfabeto e seja P(Xn = H) = P(Xn =
T ) = 1/2 para n ≥ 1. Considere A1 = HHHHH. Encontremos E(ατA1 ).
Neste caso, a matriz P (α) é 1×1 e resume-se ao termo A1 ∗A1 (α). Calculemos
α (A1 ∗ A1 (α)):
τ
ατ (A1 ∗ A1 (α)) = ατ −4 25 + ατ −3 24 + ατ −2 23 + ατ −1 22 + ατ 2
24
23
22
25
= ατ 4 + 3 + 2 + 1 + 2 ,
α
α
α
α
ou seja,
A1 ∗ A1 (α) =
25
24
23
22
+
+
+
+ 2.
α4 α3 α2 α1
Por (4.10), temos que
τ
E(α ) =
α A1 ∗ A1 (α)
−1
−1
1 − α + α A1 ∗ A1 (α)
α5 α6 α7 α8 α9
= 5 + 6 + 6 + 6 + 6 + O(α10 )
2
2
2
2
2
Na expressão acima, O(α10 ) significa que na vizinhança de 0 os demais termos
da série de Taylor são dominados por M α10 , onde M > 0 é uma constante.
4.4. FUNÇÃO GERADORA DE PROBABILIDADES
25
Observe-a atentamente. É um polinômio em α com o termo de grau mínimo
igual a 5. Isso implica que se aplicarmos (4.7) em E(ατ ), teremos G(s)(i) = 0
para i = 1, 2, 3, 4, como se esperava. Afinal, uma palavra de tamanho 5 não pode
ocorrer antes que ao menos 5 ensaios tenham sido realizados.
Exercício 4.20 Encontre a função geradora de probabilidade para a v.a. τ do
exemplo 4.12.
Exercício 4.21 Encontre a função geradora de probabilidade para a v.a. τ do
exercício 4.13.
Observação 4.22 Ao leitor mais interessado indicamos simular computacionalmente os exemplos e exercícios desta capítulo. A simulação ajudará a fixar os
resultados e a "comprovar"a validade dos resultados através da Lei dos Grandes
Números.
26
CAPÍTULO 4. A ABORDAGEM DE MARTINGAIS
Capítulo 5
Conclusão
Nestas notas, mostramos a abordagem de martingais para a ocorrência de
palavras no caso em que os ensaios {Xn }n são i.i.d.. Mas podemos refazer as
perguntas do Capítulo 1 para sequências mais gerais. Por exemplo, podemos usar
a técnica de martingais quando {Xn }n é uma cadeia de Markov? Nesta caso, as
respostas para as médias de (1.1) e (1.2) e para as probabilidade de (1.3) foram
dadas em [8], para cadeias de Markov com apenas dois estados, e em [6, 16],
para cadeias de Markov com um número finito qualquer de estados. Nos três
artigos, não se exige que a cadeia seja irredutível ou que a distribuição inicial seja
estacionária: apenas pedimos que, dada uma palavra A = a1 . . . am , as transições
de uma letra à outra sejam possíveis, isto é, P(Xn+1 = ai |Xn = ai−1 ) > 0; caso
contrário, o tempo de espera será infinito quase certamente.
Assim como no caso i.i.d., também no caso em que temos uma cadeia de Markov temos de resolver sistemas lineares. Naquele caso, Gerber e Li [7] mostram
que a matriz de lucros P de (4.4) é não-singular; nesse caso, ainda permanece
em aberto saber se a matriz de lucros correspondente é invertível ou não. Esse
é um possível problema a ser estudado. Outro problema em aberto é estudar
a aplicação da técnica para cadeias de Markov de ordem r. Um questão ainda
mais interessante é verificar se nossa abordagem pode ser aplicada a um processo
de renovação, o que generalizaria todos os resultados anteriores. Por fim, outra
questão também muito instigante é tentar pensar numa maneira de adaptar a
abordagem para palavras bidimensionais.
27
28
CAPÍTULO 5. CONCLUSÃO
Referências Bibliográficas
[1] Blom, G. (1982). On the mean number of random digits until a given sequence occurs J. Appl. Prob. 19, 136–143.
[2] Blom, G.; Thorburn, D. (1982). How many random digits are required
until given sequences are obtained? J. Appl. Prob. 19, 518–531.
[3] Daudin, J.J.; Robin, S. (1999). Exact distribution of word occurrences in
a random sequence of letters. J. Appl. Prob. 36, 179–193.
[4] Feller, W.(1971). An introduction to the probability theory and its applications, vol.1, 2nd edn., Wiley, New York.
[5] Fu, J. C., Lou,W. Y.W. (2003). Distribution Theory of Runs and Patterns,
World Scientific Publishing, Singapore.
[6] Gava, R.J., Salotti, D.(2014). Stopping probabilities for patterns in Markov chains. J. Appl. Prob. 51, 287–292.
[7] Gerber, H., Li, S.Y.R.(1981). The ocurrence of sequence patterns in repeated experiments and hitting times in a Markov chain. Stoch. Process. Appl.
11, 101–1086.
[8] Glaz, J., Kulldorff, M., Pozdnyakov, V., Steele, J.M.(2006).
Gambling teams and waiting times for patterns in two-state Markov chains.
J. Appl. Prob. 43, 127–140.
[9] Godbole, A.P.; Papastavridis, S.G. (1994) Runs and Patterns in Probability: Selected Papers (Mathematics and Its Applications), Kluwer Academic
Press.
29
30
REFERÊNCIAS BIBLIOGRÁFICAS
[10] Gut, A.(2009). An intermediate course in probability 2nd edn., Springer,
New York.
[11] Guibas, L., Odlyzko, A.(1981). Period of strings. J. Combin. Theory Ser.
A30, 19–42.
[12] Guibas, L., Odlyzko, A.(1981). String overlaps, patterns matching and
nontransitive games. J. Combin. Theory Ser. A30, 183–208.
[13] James, B.(2006). Probabilidade: um curso em nível intermediário, 3. ed.,
Coleção projeto Euclides, Rio de Janeiro.
[14] Kulldorff, M., Pozdnyakov, V.(2006). Waiting times for patterns and
a method of gambling teams . Amer. Math. Monthly. 113, 134–143.
[15] Li, S.Y.R.(1980). A martigale approach to the study of ocurrence of sequence patterns in repeated experiments. Ann. Prob. 8, 1171–1176.
[16] Pozdnyakov, V.(2008). On ocurrence of patterns in Markov chain: method
of gambling teams. Stat. Probab. Letters. 78, 2762–2767.
[17] Ross, S.(1996) Stochastic Processes, 2nd edn., Wiley, New York.
[18] Schwager, S.J.(1983). Run probabilities in sequences of Markov-dependent
trials. J. Am. Stat. Assoc. 78, 168–175.
[19] Williams, D.(1991). Probability and Martigales, Cambridge University
Press, Cambridge.
Download