Ergodicidade e Atratores Aleatórios para uma Família de ACP

Propaganda
Ergodicidade e Atratores Aleatórios para uma Família de ACP
Ergodicidade e Atratores Aleatórios
para uma Família de ACP
Cristian F. Coletti
2
S UMÁRIO
1 Acoplamento
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Eventos Acoplantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
8
2 Exercícios
10
3 Percolação de Sítio
3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Notação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 O Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Ponto crítico e transição de fase . . . . . . . . . . . . . . . .
3.5 Continuidade pela direita da probabilidade de Percolação
12
12
12
13
14
15
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Exercícios
17
5 Autômatos Celulares Probabilísticos
5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 O Processo . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Definindo o processo . . . . . . . . . . . . . . . . . . . .
5.4 Operadores de transição . . . . . . . . . . . . . . . . . .
5.5 Ergodicidade . . . . . . . . . . . . . . . . . . . . . . . . .
5.5.1 A medida de probabilidade invariante . . . . . .
5.6 Principais resultados e exemplos . . . . . . . . . . . . .
5.7 Exemplos e comparações com resultados conhecidos .
5.7.1 O modelo de Domany-Kinzel . . . . . . . . . . .
5.7.2 Exemplo bidimensional . . . . . . . . . . . . . .
5.7.3 Comparação com as condições de Dobrushin . .
5.8 Exemplos de autômatos celulares probabilísticos . . . .
5.8.1 Modelo do votante a vizinhos mais próximos . .
5.8.2 Modelo do votante com maioria determinística .
19
19
20
21
22
22
23
23
25
25
26
26
27
27
27
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Sumário
5.9
Ergodicidade de autômatos celulares probabilísticos . . . . . . . . . .
6 Atratores Aleatórios
6.1 Sistemas dinâmicos aleatórios . . . . . . . . . . . . . . . . . .
6.1.1 Definições gerais . . . . . . . . . . . . . . . . . . . . .
6.1.2 Conjuntos aleatórios, pontos de equilíbrio e atratores
6.2 Sistemas dinâmicos aleatórios monótonos . . . . . . . . . . .
6.2.1 Ergodicidade, monotonicidade e atratores . . . . . .
6.2.2 Comentário Final . . . . . . . . . . . . . . . . . . . . .
7 Apêndice
7.1 Probabilidade: Definições e propriedades . . . . . . .
7.2 Propriedades de uma probabilidade . . . . . . . . . .
7.3 Probabilidade condicional e independência . . . . . .
7.4 Conjuntos limites e continuidade da probabilidade . .
7.4.1 Continuidade por baixo da probabilidade . . .
7.4.2 Continuidade por cima da probabilidade . . .
7.5 Variáveis Aleatórias: Definições . . . . . . . . . . . . .
7.6 Independência de variáveis aleatórias . . . . . . . . .
7.6.1 Critério para independência no caso discreto:
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
.
.
.
.
.
.
31
31
31
32
34
35
36
.
.
.
.
.
.
.
.
.
37
37
38
38
39
39
39
39
40
40
R ESUMO
Neste minicurso vamos estudar um tipo de processo markoviano em tempo discreto com espaço de estados {a, b}Z (a, b ∈ Z) e alcance de interação finito chamados
automatas celulares probabilísticos (ACP) com raio um. Mais especificamente, os
ACPs são cadeias de Markov onde um número infinito de componentes evoluem
em tempo discreto seguindo uma dinâmica estocástica local.
A importância destes processos deve-se a dois fatos: por um lado, eles constituem
uma classe rica de processos markovianos capaz de gerar um grande número de
problemas matemáticos desafiantes e relevantes; por outro lado, são úteis para modelar sistemas físicos e biológicos.
Vamos focar nossa atenção no estudo de condições suficientes para a existência e
ergodicidade destes processos. Também será abordada a noção de atratores aleatórios.
5
1 ACOPLAMENTO
1.1 Introdução
Intuitivamente, acoplar significa construir duas variáveis aleatórias ou mais no mesmo
espaço de probabilidade. Nesta seção buscamos formalizar esta ideia assim como
apresentar algumas aplicações desta teoria.
Definição 1 Seja X uma variável aleatória definida em um espaço de probabilidade (Ω, F, P).
Diremos que a variável aleatória X̃ (definida em algum espaço de probabilidade) é uma cópia
de X se, e somente se, elas têm a mesma distribuição.
Exemplo 1 Seja X uma variável aleatória com distribuição de Bernouilli de parâmetro p.
Vamos construir uma cópia de X. Para isto considere uma variável aleatória U ∼ U([0, 1])
e defina
X̃ = 1{U ≤ p}.
Note que
P[X̃ = 1] = P[U ≤ p] = p = 1 − P[X̃ = 0].
Logo, X̃ ∼ Bernoulli (p). Isto é, X̃ é uma cópia da variável aleatória X.
Exemplo 2 Sejam X e Y duas variáveis aleatórias com distribuição Bernouilli de parâmeros
p e q com p < q. Queremos construir um acoplamento X̃, Ỹ de X e Y em um espaço de
probabilidade comum tal que P[X ≤ Y ] = 1. Note que as variáves aleatórias X e Y não
precissam estar definidas no mesmo espaço de probabilidade. Neste caso não teriamos como
comparar as variáveis X e Y . Dai a importância de construir este acoplamento.
Seja U ∼ U([0, 1]). Defina novas variáveis aleatórias X̃, Ỹ por
X̃ = 1{U ≤ p}
e Ỹ = 1{U ≤ q}.
6
1 Acoplamento
Logo,
P[X̃ ≤ Ỹ ] = P[U ∈ [0, 1]]
= 1,
(1.1)
como queriamos mostrar.
Exemplo 3 De fato a construção realizada no exemplo anterior pode ser estendida a qualquer variável aleatória discreta. Para evitar problemas com a notação consideraremos apenas
o caso em que a imágem de X seja finita. Seja X uma variável aleatória discreta assumindo
valores em um conjunto finito {xj : j = 1, . . . k} com função de probabilidade p(j). Isto é,
p(j) = P[X = xj ]
e
k
X
p(j) = 1.
j=1
Considere uma variável aleatória U ∼ U([0, 1]) e defina uma partição do intervalo [0, 1] da
seguinte forma:
Seja A1 = [0, p(1)) e para j ≥ 1 considere
j−1
j
X
X
Aj = [
pl ,
pl ), j = 2, . . . , k.
l=1
l=1
Logo, defina X̃ por
X̃ =
k
X
xj 1{U ∈ Aj }.
j=1
Assim,
P[X̃ = xj ] = P[U ∈ Aj ]
j
j−1
X
X
=
pl −
pl
l=1
= p(j).
Isto é, X̃ é uma cópia de X.
7
l=1
1 Acoplamento
Definição 2 Diremos que a família de variáveis aleatórias (X̃λ )λ∈Λ (onde Λ é algum conjunto de índices) é um acoplamento da coleção de variáveis aleatórias (Xλ )λ∈Λ se, e somente
se, X̃λ = Xλ ( em distribuição ) ∀ λ ∈ Λ.
1.2 Eventos Acoplantes
Seja (Xλ )λ∈Λ uma familia de variáveis aleatórias discretas. Suponhamos que todas
as variáveis aleatórias assumen seus valores em um conjunto finito ou enumerável
A e denotemos por pλ a função de probabilidade da variável aleatória Xλ .
Nosso objetivo é acoplar as variáveis aleatórias Xλ de forma tal a maximizarmos a
probabilidade de todas as variavéis coincidirem.
Definição 3 Seja X̃λ
um acoplamento das variáveis aleatórias (Xλ )λ∈Λ e seja C um
λ∈Λ
evento. Diremos que C é um evento acoplante se
C ⊂ {X̃λ = X̃λ ∀ λ, λ ∈ Λ}.
Teorema 1 Seja (Xλ )λ∈Λ uma familia de variáveis aleatórias discretas assumindo seus valores em um conjunto finito ou enumerável A. Se C é um evento acoplante das variáveis
aleatórias (Xλ )λ∈Λ então
X
inf pλ (x).
(1.2)
P[C] ≤
x∈A
Prova 1 Seja X̃λ
λ∈Λ
λ∈Λ
um acoplamento da variáveis aleatórias (Xλ )λ∈Λ . Notemos que se
x ∈ A e µ ∈ Λ então P[X̃µ = x, C] é um limitante inferior do conjunto {pλ (x) : λ ∈ Λ}.
X
Portanto P[X̃µ = x, C] ≤ inf pλ (x). Como P[C] =
P[X̃µ = x, C] concluimos que
λ∈Λ
x∈A
P[C] ≤
X
x∈A
inf pλ (x),
λ∈Λ
(1.3)
como queriamos mostrar.
Definição 4 Considere um acoplamento de variáveis aleatórias com evento acoplamente C
X
tal que P[C] =
inf pλ (x). Chamaremos a tal acoplamento, acoplamento maximal, e a C
x∈A
λ∈Λ
um evento acoplante maximal.
Teorema 2 Seja (Xλ )λ∈Λ uma familia de variáveis aleatórias discretas assumindo seus valores em um conjunto finito ou enumerável A. Então existe um acoplamento maximal.
8
1 Acoplamento
Prova 2 Seja c :=
X
x∈A
inf pλ (x).
λ∈Λ
1. Se c = 0 considere X̃λ independentes e seja C = ∅.
2. Se c = 1 considere as X̃λ idênticas e seja C = Ω.
3. Se 0 < c < 1 sejam I, V, e Yλ , λ ∈ Λ variáveis aleatórias independentes definidas por
• P[I = 1] = c = 1 − P[I = 0].
• P[V = x] = inf pλ (x)/c, x ∈ A.
λ∈Λ
• P[Yλ = x] = (pλ (x) − cP[V = x])/(1 − c), x ∈ A.
Por fim, defina
(
X̃λ =
V
Yλ
se I = 1,
se I = 0.
Logo,
P[X̃λ = x] = P[V = x|I = 1]P[I = 1] + P[Yλ = x|I = 0]P[I = 0]
= P[V = x]P[I = 1] + P[Yλ = x]P[I = 0]
= (inf pλ (x)/c)c + ((pλ (x) − cP[V = x])/(1 − c))(1 − c)
λ∈Λ
= P[Xλ = x].
Observação 1 Na próxima seção construiremos várias realizações de um mesmo processo
estocástico em um mesmo espaço de probabilidade utilizando as ferramentas apresentadas
nesta seção. Acoplar duas ou mais realizações destes processos será fundamental para provar
resultados que dizem respeito à ergodicidade do processo.
Observação 2 Nesta primeira seção introduzimos a poderosa ferramenta de acoplamento
que tem sido de grande utilidade para provar um grande número de resultados na área de
Probabilidade.
Como já fora dito, acoplar é um método que consiste em estabelecer propriedades de variáveis
aleatórias e processos estocásticos a través de uma construção comum em um único espaço de
probabilidade. O leitor certamente achará interesantes os trabalhos de Ferrari e Galves [21],
Lindvall [27] e Thorisson [35].
9
2 E XERCÍCIOS
1. Seja X uma variável aleatória com distribuição de Bernoulli de parâmetro
p, p ∈ (0, 1). Utilizando uma variável aleatória uniforme U em [0, 1] construa
uma cópia de X diferente da apresentada no exemplo 1.
2. Seja X uma variável aleatória discreta assumindo valores em {x0 , x1 , . . . , xn , . . .}.
Seja pX (j) = P[X = xj ] sua função de probabilidade. Utilizando uma variável
aleatória uniforme U em [0, 1] construa uma cópia de X.
3. Sejam X e Y duas variáveis aleatórias discretas assumindo valores em {x0 , x1 , . . . , xn }
para algum n ∈ N. Utilizando apenas uma variável aleatória U com distribuição uniforme em [0, 1] costrua um acoplamento de X e Y e uma terceira
variável aleatória T assumindo valores em {x0 , x1 , . . . , xn } tal que
P[max{X, Y } = T ] = 1
4. Sejam X e Y duas variáveis aleatórias assumindo valores inteiros não negativos e com função de probabilidade pX e pY respectivamente.
Suponha que P[X ≥ k] ≥ P[Y ≥ k] para cada k ∈ N0 . Construa um acoplamento de X e Y tal que P[X ≥ Y ] = 1.
5. Seja (Xn )n≥1 uma sequência de variáveis aleatórias IID com X1 ∼ Bernoulli (p).
n
X
Seja S0 = 0 e para n ≥ 1 seja Sn =
Xi . O processo (Sn )n≥0 assim definido
i=1
é conhecido pelo nome de passeio aleatório simples de parâmetro p. Quando
p = 1/2 o passeio aleatório correspondente é chamado passeio aleatório simples simétrico.
10
2 Exercícios
a) Forneça uma construção deste processo utilizando apenas uma família de
variáveis aleatórias IID (Un )n≥0 com U0 ∼ Uniforme ([0, 1]).
b) Considere dois passeios aleatórios simples Sn e Sn0 com parâmetros p e
p0 respectivamente. Mostre que é possível construir Sn e Sn0 no mesmo
espaço de probabilidade de forma tal que S0 = S00 e Sn ≤ Sn0 para cada
n ≥ 1.
c) Um resultado clásico na teoria de probabilidades diz que o passeio aleatório simples simétrico começando na origem retorna a origem com probabilidade 1. Utilize este fato para mostrar que se Sn é um passeio aleatório
simples com parâmetro p ≤ 1/2 então o processo Sn começando na origem retorna à origem com probabilidade 1.
11
3 P ERCOLAÇÃO
DE
3.1 Introdução
A teoria de percolação (Galves e Andjel [1], Grimmett[15], Durrett [9], Fontes [22])
tem sua origem num problema prático: a compreensão do fenômeno de infiltração
de um gas atavés de um mateial poroso. Os poros podem ser vistos como canais que
se unem as outros, formando uma espécie de labirinto. Se esses canais são suficientemente largos e se comunicam bem entre si, então o gás penetra profundamente.
Em caso contrário, o gás não vai além da superficie do material. O problema é dar
sentido formal a descrição feita acima.
3.2 Notação
Seja Zd = {(x1 , . . . , xd ) : xi ∈ Z, i = 1, . . . , d}. Para x, y ∈ Zd definimos
|x − y| =
d
X
|xi − yi |.
(3.1)
i=1
Cada vetor de Zd será chamado de vértice. A seguir construimos um grafo dirigido
com conjunto de vértices V = Zd especificando uma família de arestas dirigidas
A(V ) para o conunto de vértices V.
Começamos reescrevendo cada vértice x = (x1 , . . . , xd ) como x = (χ, t) onde χ =
(x1 , . . . , xd−1 ) e t = xd . Definimos uma família de arestas A(V ) da seguinte forma:
d−1
X
e =< (χ, t), (χ̃, v) > ∈ A(V ) se e somente se
|xi − x̃i | ≤ 1 e v = t + 1. Vamos
i=1
denotar por G~ = (V, A(V )) o grafo dirigido resultante.
Observação 3 Se denotarmos por d(v) o grau do vértice v do grafo G~ temos que d(v) =
~
2d + 1 para todo vértice de G.
12
S ÍTIO
3 Percolação de Sítio
3.3 O Modelo
Considere o grafo dirigido G~ descrito acima. Cada vértice (sítio) de G~ estará aberto
com probabilidade p e estará fechado com probabilidade 1 − p, onde p ∈ (0, 1)
é o parâmetro do modelo. Para formalizar esta descrição considere uma família
S = {S((χ, t)) : (χ, t) ∈ V } de variáveis aleatórias independentes assumindo os valores 0 e 1, com probabilidade p e 1 − p respectivamente e seja (Ω, F, P) o espaço de
probabilidade onde está definida a família S.
Definição 5 Dados dois pontos x = (χ, t), x̃ = (χ̃, u) em V diremos que x e x̃ estão conectados e escrevemos x → x̃, ou ainda (χ, t) → (χ̃, u), se e somente se existir um conjunto
finito de sítios {x0 , . . . , xn } (para algum n) tal que:
1. x0 = x e xn = x̃
2. |xi − xi+1 | ≤ 1, i = 0, 1, . . . n − 1
3. S(xi ) = 1.
Observação 4 Quando C ⊂ Zd diremos que x → y em C se e somente se x e y estão
conectados utilizando apenas sítios de C.
Para cada x ∈ Zd definimos o aglomerado do sítio x por
Cx = {y ∈ Zd : x → y}.
Para cada n ∈ N0 seja An o conjunto de vértices conectados com a origem através
de, pelo menos, um caminho aberto de comprimento n. Isto é,
An = {(x, n) ∈ V |(0, 0) → (x, n)}.
Note que para todo n ∈ N0 tem-se [An 6= ∅] ⊇ [An+1 6= ∅]. Logo, 1 ≥ P[An 6=
∅] ≥ P[An+1 6= ∅] ≥ 0. Como toda sequência monotona e limitada tem limite concluimos que lim P[An 6= ∅] existe. Como a sequência de eventos [An 6= ∅], n ∈ N0
n→∞
é decrescente concluimos, pela continuidade da probabilidade, que P[∩n∈N0 An ] =
lim P[An 6= ∅]. Como [|C| = ∞] = [∩n∈N0 An ] definimos a probabilidade de percolan→∞
ção por
θ(p) := Pp [|C| = ∞],
onde C é o aglomerado da origem.
13
3 Percolação de Sítio
3.4 Ponto crítico e transição de fase
Outro conceito de interesse na teoria de percolação é o de parâmetro crítico que é
definida em termos da função θ(p). Mais especificamente estamos interessados em
definir a probabilidade crítica por
pc = sup{p ∈ (0, 1) : θ(p) = 0}.
Para isto precisamos garantir que o supremo acima existe. Isto é garantido pelo
seguinte lema
Lemma 1 A função θ(p) é não decrescente.
Antes de provar este lema vamos realizar um acoplamento , em um mesmo espaço
de probabilidade, dos modelos de percolação para distintos valores de p ∈ [0, 1].
Seja {Uv |v ∈ V } uma família de variáveis aleatórias IID com U0 ∼ U([0, 1]). Seja
(Ω, F, P) o espaço de probabilidade onde está definida esta família de variáveis aleatórias uniformes.
Seja p ∈ [0, 1]. Diremos que um vértice v está aberto se, e somente se,
Uv ≤ p
e que está fechado em caso contrário. Desta forma podemos considerar o modelo de
percolaçao associado a esta família de uniformes. Chamando C(p) ao aglomerado
da origem no modelo acima segue-se facilmente que θ(p) = P[|Cp | = ∞].
Agora podemos proceder a provar a monotonicidade da função θ(p).
Prova 3 Sejam p, p̃ ∈ [0, 1] tal que p ≤ p̃. Logo, como para qualquer vértice v ∈ V tem-se
que Uv ≤ p implica em que Uv ≤ P̃ concluimos que
C(p) ⊂ C(p̃).
Logo,
θ(p) = P[|C(p)| = ∞] ≤ P[|C(p̃)| = ∞] = θ(p̃).
Sendo a função θ(p) monótona (limitada), o parâmetro crítico pc está bem definido.
Definição 6 Diremos que o modelo de percolação apresenta transição de fase se o parâmetro
crítico é não trivial. Isto é, se pc ∈ (0, 1).
14
3 Percolação de Sítio
Estamos em condições de enunciar o seguinte
Teorema 3 O processo de percolação de sítios apresenta transição de fase;
1
3
≤ pc ≤
3
4
Prova 4 Seja N (n) o número de caminhos abertos de comprimento n no modelo de percola~ Note que em G~ todo caminho é auto-evitante. Dai
ção de sítio em G.
lim P[N (n) ≥ 1] ≤ lim E[N (n)] ≤ lim pn 3n = 0
n→∞
n→∞
n→∞
desde que p < 1/3. Logo,
lim P[N (n) ≥ 1] = 0.
n→∞
~ ≥ 1/3.
Desta forma concluimos que pc (G)
Por outro lado, Liggett estudou o problema de percolação de sítios no grafo G̃ e mostrou que
pc (G̃) ≤ 3/4.
~ ≤ pc (G̃) ≤ 3/4, como queriamos mostrar.
Como G~ ⊂ G̃ temos que pc (G)
Observação 5 A prova de pc (G̃) ≤ 3/4 é técnica (e clássica) porém longa e foge do escopo
destas notas. No entanto, convido o leitor interessado a debruçar-se no trabalho de Liggett.
3.5 Continuidade pela direita da probabilidade de
Percolação
Outra aplicação interessante feita através a de acoplamento é a da continuidade pela
direita da probabilidade de percolação, isto é a continuidade pela direita da função
θ(p).
Proposição 1 A função θ(p) é continua pela direita.
Prova 5 Seja p ∈ [0, 1] e seja Cx (p) o aglomerado do sítio x quando a probabilidade de un
vértice qualquer estar aberto é p. Dizemos que x está conectado com o infinito se, e somente
p
p
se, |Cx (p)| = ∞ e denotamos este fato por x ↔ ∞. Por tanto θ(p) = P[0 ↔ ∞]. Seja
(pn )n∈N0 uma sequência em [0, 1] tal que lim pn = p e pn ≥ Pn+1 . Logo,
n→∞
pn
lim θ(pn ) = lim P[0 ↔ ∞]
n→∞
pn ↓p
pn
= P[0 ↔ ∞ ∀pn > p],
15
3 Percolação de Sítio
já que a probabilidade é contínua com relação a eventos decrescentes. Agora tudo o que temos
pn
p
que provar é que 0 ↔ ∞ ∀pn > p se, e somente se, 0 ↔ ∞.
p
pn
pn
Suponha que 0 ↔ ∞. Logo 0 ↔ ∞ ∀pn > p. Resta provar que se 0 ↔ ∞ ∀pn > p então
p
0 ↔ ∞.
Seja Bn = {(x, y) ∈ Z × N0 | y ≥ |x| ∧ y ≤ n}. Denote a fronteira de Bn por ∂Bn . Note
p
p
que ∂Bn = Bn+1 \ Bn . Diremos que 0 ↔ ∂Bn se, e somente se, 0 ↔ y para algum y ∈ ∂Bn .
É facil ver que
p
p
0↔∞
se, e somente se,
0 ↔ ∂Bn ∀ n ∈ N.
pn
Suponha que 0 ↔ ∞ ∀pn > p. Seja l ∈ N e seja v = (v0 , . . . , vm ) um caminho conectando
a origem com ∂Bn que permanece em Bn+1 . Seja M (v) := max{Uvk | k = 0, . . . , m} o
máximo das variáveis aleatórias uniformes nos vértices de v (ou peso de tal caminho). Como
o número de tais caminhos é menor ou igual que 3m+1 existe um caminho ṽ com peso mínimo.
pn
p
Como 0 ↔ ∞ ∀pn > p temos que M (ṽ) ≤ p. Logo, 0 ↔ ∂Bn . Como o raciocínio é válido
para todo n ∈ N0 conluimos que
pn
lim θ(pn ) = P[0 ↔ ∞ ∀pn > p],
n→∞
para toda seguência (pn )n∈N0 em [0, 1] tal que lim pn = p e pn ≥ pn+1 . De esta forma,
n→∞
concluimos que
lim θ(p̃) = θ(p),
p̃↓p
como queriamos mostrar.
Observação 6 Esta é apenas uma pequena introdução à fascinante área da teoria de Percolação. Utilizando uma frase extraida do trabalho de Andjel e Galves [1]: o objetivo destas
notas não é outro senão atrair o leitor para a zona de audição do canto da sereia.
16
4 E XERCÍCIOS
1. Seja α ∈ N. Considere a rede de Bethe S definida por
S = ∪∞
n=0 Sn
onde Sn = (n, i) : i = 1, . . . , αn , n ≥ 0.
Considere uma familia de variáveis aleatórias (Xs )s∈S IID com X(0,1) ∼ Bernoulli (p)
onde p ∈ (0, 1) e seja (Ω, F, P) o espaço onde estão definidas estas variáveis
aleatórias.
Definição 7 Seja (n, i) ∈ S. Chamamos aos pontos (n+1, (i−1)α+k), k = 1, . . . , α
de descendentes do ponto (n, i).
Seja (An )n≥0 uma família de conjuntos aleatórios definidas da seguinte forma.
A0 = S0 e para n ≥ 1,
An = {s ∈ S : s é descendente de algum t de An−1 tal que Xt = 1}.
Mostre que:
a) Existe lim P[An 6= ∅] quando n → ∞.
n→∞
b) Defina γ(p) = lim P[An 6= ∅]. Mostre que γ(p) é monótona crescente em
n→∞
p.
c) Defina pc = sup{p ≥ 0 : γ(p) = 0}. Mostre que se α ≥ 2 então pc ∈ (0, 1) e
que γ(pc ) = 0.
d) Mostre que se α = 1 então γ(p) = 0 para p < 1.
2. Seja (x, t) ∈ Z × N0 e associe a cada (x, t) uma variável aleatória Y(x,t) ∼
Bernoulli (p). Vamos a supor que a familia {Y(x,t) : (x, t) ∈ Z × N0 } é uma
17
4 Exercícios
familia de variáveis aleatórias IID. Seja (Ω, F, P) o espaço de probabilidade
onde está definida esta familia de variáveis aleatórias.
Sejam x e y ∈ Z, s, t ∈ N. Diremos que (x, s) ⇒ (y, t), quando s = t e x = y ou
quando s < t e existem x0 , . . . , xn ∈ Z, onde n = t − s tais que:
a) x0 = x, xn = y,
b) xi+1 = xi ou xi+1 = xi + 1 e
c) Y(xi ,ss+i ) = 1, i = 0, 1, . . . n − 1.
Defina um processo estocástico (ηt )t∈N0 da seguinte forma:
(A,s)
ηt
= {y ∈ Z : Existe x ∈ A, tal que (x, s) ⇒ (y, t)}
Refaça a teoria deste capítulo para achar um valor pc ∈ (0, 1) tal que para todo
p < pc o processo se extingue. ,
3. Considere o grafo G = (Z, E) onde E = {(x, y) ∈ Z × Z : |x − y|1 = 1} é o seu
conjunto de vizinhos mais próximos.
A cada elo de E será atribuido aleatóriamente o status aberto ou fechado da
seguinte maneira. Seja X = Xe , e ∈ E uma família de variáveis aleatórias IID
com distribuição de Bernoulli de parâmetro p e seja Pp a medida de probabilidade associada a X.
Xe = 1 indica que o elo e está aberto e Xe = 0 indica que o elo e está fechado.
Um conjunto de elos de E, {e1 , . . . , en }, n ≥ 1, onde ei = (xi , yi ), i = 1, . . . , n,
é dito caminho se x1 , . . . , xn forem distintos e yi+1 = xi , i = 1, . . . , n − 1. Um
caminho é dito aberto se todos seus elos estiverem abertos.
Diremos que dois sitios da rede, x e y estão conectados (x ↔ y) se existir um
caminho aberto {e1 , . . . , en } com x1 = x e yn = y. Denote por C o conjunto dos
sítios x que estão conectados com a origem.
Mostre que não há aglomerados infinitos quase-certamente se p < 1.
Observação 7 O caso unidimensional é realmente trivial. O caso interesante ocorre
quando o problema acima é estudado na rede hipercúbica G = (Zd , E), d ≥ 2 onde o
fenômeno de transição de fase é observado. Recomendo como introdução a este assunto
as notas em Teoria de Percolação de L. R. G. Fontes [22].
18
5 AUTÔMATOS C ELULARES P ROBABILÍSTICOS
5.1 Introdução
Autômatos Celulares Probabilísticos são processos estocásticos markovianos a tempo
discreto que tem sido intensamente estudados desde pelo menos o trabalho de
Stavskaja e Pjatetskii-Shapiro [34] (1968). Esta clase de processos tem como espaço
d
de estados um espaço produto X = AZ onde A é um conjunto finito e d é um inteiro
positivo qualquer.
Podemos pensar a um autômato celular probabilístico como sendo um sistema de
partículas interagentes onde as partículas atualizam seus estados de forma independente. O objetivo deste minicurso é estudar condições de ergodicidade para
autômatos unidimensioanis de rádio um. Em palavras, um autômato celular probabilístico é ergódico se existe uma única medida invariante (isto é, se o sistema
começa com esta medida (invariante) a distribuição do sistema ao longo do tempo
é dado pela medida invariante) e começando de qualquer medida inicial o sistema
converge à única medida invariante (Veja uma definição formal abaixo).
Recentemente, Coletti e Tisseur utilizando a técnica de dualidade generalizada (introduzida por Lopez et al. [30]) encontraram condições suficientes de ergodicidade
para uma certa família de autômatos celulares probabilísticos (atratívos). Nestas
notas revisaremos rápidamente estes resultados e logo nos concentraremos em uma
metodologia diferente para provar ergodicidade de sistemas estocásticos interagentes.
Por muito tempo se acreditou que autômatos celulares unidimensionais com ruido
positívo eram ergódicos. Porém, em 2002 P. Gacks encontrou um complicado contraexemplo de um autômato unidimensional com ruido positívo que não esquece o
passado e que começando de diferentes distribuições iniciais converge a diferentes
medidas invariantes .
19
5 Autômatos Celulares Probabilísticos
5.2 O Processo
Neste trabalho focaremos nossa atenção em autômatos celulares probabilísticos unidimensionais de radio um. Logo neste texto trataremos aos autômatos celulares
probabilísticos como procesos estocásticos a tempo discreto com espaço de estado
X = {0, 1}Z , ao menos que o contrário seja explicitado.
Um estado o configuração deste processo é um elemento η ∈ X. Isto é, η é uma função com domínio o conjunto dos inteiros Z e com contradomínio o conjunto {0, 1}.
Os elementos de Z são tipicamente chamados de sítios. O estado de cada sítio x ∈ Z
na configuração η ∈ X é denotado por η(x) ∈ {0, 1}.
A partir de uam configuração η em X e de um sítio j ∈ Z definimos uma nova
configuração η j por
(
1 − η(i) , se i 6= j
η j (i) =
.
η(i) ,
se i = j
Será útil também introoduzir o operador translação τi : Z → Z definido por
τi (η)(j) = η(i + j).
Em X consideramos a topologia produto usual e consideramos o espaço de Banach
C(X) = {f : X → R | f é contínua } com a norma
||f || = sup |f (η)|.
η∈X
A seguir introduzimos uma forma de mensurar a dependência da configuração η
em um sítio i ∈ Z. Para f ∈ C(X), a dependência da configuração η no sítio i é
mensurada a través da grandeza
δi f = sup |f (η i ) − f (η)|.
η∈Ω
em quanto que sua oscilação total é dada por
|||f ||| =
X
δi f.
i
Por fim, o conjunto
D(X) = {f ∈ C(X) : |||f ||| < ∞}
contem, pelo menos, todas as funções cilíndricas, que são aquelas que dependen da
20
5 Autômatos Celulares Probabilísticos
configuração η apenas a través de um número finito de sítios.
5.3 Definindo o processo
Por fim, estamos em condições de definir o processo formalmente.
Seja p0 : X → [0, 1], U ⊂ Z, |U | < ∞ tal que
p0 (η j ) = p0 (η)
sempre que j ∈
/ U.
Desta forma o alcance o radio do processo é definido como o menor número real
positivo tal que
U ⊂ ([−r, r] ∩ Z)d .
Consideremos as translações pi de p0 definidas por
pi (η) = p0 (τi (η)).
Uma vez defindida a família de funções {pi : X → [0, 1] | i ∈ Z podemos definir
uma família de medidas produto da seguinte forma. Para η ∈ X defina a medida
produto p(dσ, η) com marginais
P[σ(i) = 1|η] = pi (η).
Note que se A ⊂ Z com |A| < ∞ temos que
Z Y
σ(i)p(dσ|η) =
Y
pi (η).
i∈A
i∈A
Definição 8 O autômato celular probailístico determinado por p0 é o processo markoviano
(ηn )n com espaço de estado X e probabilidades de transição p(dσ, η).
Notação 1 Seja
Ir := {i = (i1 , . . . , id ) ∈ Zd : −r ≤ i1 , . . . , id ≤ r}.
Como há tão dois estados possíveis para cada sítio podemos caracterizar o autômato celular
21
5 Autômatos Celulares Probabilísticos
probabilístico utilizando a família de probabilidades de transição {p(J) : J ∈ ℘(Ir )}, onde
p(J) := P{ηt+1 (z) = 1|ηt (z + j) = 1 : j ∈ J}.
d
Observação 8 Logo, um autômato celular probabilístico com espaço de estados {0, 1}Z
está completamente caracterizado por um número positivo r chamado radio do autômato e
um conjunto de probabilidades de transição {p(J) : J ∈ ℘(Ir )}.
5.4 Operadores de transição
No espaço de Banach C(X) podemos definir um operador de transição P dado por
Z
P f (η) =
f (σ)p(dσ|η).
A partir deste operador e seus iterados podemos definir uma sequência de medidas
de probabilidades em X da seguinte forma
νn = νn−1 P = νP n , n ∈]N
e ν0 = ν.
Para qualquer medida de probabilidade µ em X temos que
Z
Z
f (σ)µP (dσ) =
P f (σ)µ(dσ).
Observação 9 Note que νn é simplesmente a distribuição do processo no instante n.
5.5 Ergodicidade
Para poder definir o conceito de ergodicidade precisamos intoduzir o conceito de
medida invariante.
Definição 9 Seja µ uma medida de probabilidade em X. Diremos que µ é invariante para
o autômato celular probabilístico com operador de transição P se, e somente se µ satisfaz a
seguinte equação
µP = µ
22
5 Autômatos Celulares Probabilísticos
Observação 10 Note que µ é uma medida invariante para um autômato se, e somente se, o
estado inicial do processo for escolhido de acordo com a medida µ e a distribuição do processo
não mudar ao longo do tempo. Isto é, se νn = µ ∀ n ∈ N.
Agora podemos definir o conceito de ergodicidade.
Definição 10 Diremos que um autômato celular probabiístico é ergódico se, e somente se,
para toda medida inicial µ há convergência a única medida invariante:
µn → ν,
no sentido fraco
quando n ↑ ∞. Isto é, se
Z
lim
n→∞
Z
f dµn =
X
f dν,
X
para cada f ∈ Cb (X).
Observação 11 Pelo teorema de Tychonoff sabemos que o espaço de estado ou de configurações X = {0, 1}Z é compacto. Assim sendo, temos que Cb (X) = C(X).
5.5.1 A medida de probabilidade invariante
Definição 11 Seja T uma transformação que preserva medida do espaço de probabilidade
(X, F, µ), onde F é a σ-álgebra gerada pelos conjuntos cilíndricos em X. Dizemos que uma
medida de probabilidade µ é T -mixing se ∀ U, V ∈ F
lim µ(U ∩ T −n V ) = µ(U )µ(V ).
n→∞
Dado que a família dos conjuntos cilíndricos geram a σ-álgebra F, segue-se que a
medida µ é T -mixing quando esta última reláCão seja satisfeita por qualquer par de
conjuntos cilíndricos U e V (para mais detalhes veja [38]).
5.6 Principais resultados e exemplos
Um autômato probabilístico de radio r é chamado atrativo se para qualquer J ⊂ Ir e
j ∈ Ir temos que
p(J ∪ {j}) ≥ p(J).
Aqui consideramos a seguinte subclase de autômatos probabilísticos atratívos
23
5 Autômatos Celulares Probabilísticos
Definição 12 Dizemos que um autômato celular probabilístico de dois estados e de rario r
pertence a C se suas probabilidades de transição satisfazem
p(J) =
X
λ(J 0 )
J 0 ⊆J
para qualquer J ∈ ℘(Ir ) onde λ é alguma aplicação de P(Ir ) → [0, 1). Ir .
A seguinte proposição dá condições suficientes para que um autômato celular probabilístico atratívo pertença a C.
Proposição 2 Um autômato celular probabilístico de dois estados e de rario r, η. pertence a
C se suas probabilidades de transição satisfazerem as seguintes desigualdades:
(a) para qualquer i ∈ Ir ,
p({i}) ≥ p(∅).
(b) Para qualquer 1 ≤ k ≤ |Ir | − 1 e para qualquer j0 , . . . , jk ∈ Ir
p({j0 , . . . , jk }) ≥ (−1)k p(∅) −
k−1
X
(−1)k+1−n
n=0
X
p({l0 , . . . ln }).
{l0 ,...,ln }⊂{j0 ,...,jk }
Teorema 4 Seja η. um autômato celular probabilístico de dois estados, d-dimensional e de
radio r que pertence a C. Se p(Ir ) < 1 então η. é um autômato celular probabilístico ergódico.
Observação 12 Quando p(Ir ) = 1 o autômato probabilístico pode não ser ergódico. Por
exemplo, se λ(∅) = 0 existem pelo menos duas medidas invariantes. A saber, δ∞ 0∞ e δ∞ 1∞ .
Corolário 1 Nas condições do Teorema 4 (p(Ir ) < 1), se λ(∅) = 0 então δ∞ 0∞ é a única
medida invariante.
Teorema 5 Seja η. um autômato celular probabilístico unidimensional ∈ C de radio r com
p(Ir ) =: D ∈ [0, 1). Logo„ a única medida invariante µ é shift-mixing. Mais ainda, se
D 6= 0, para qualquer par de cilíndros [U ]0 = [u0 . . . uk ]0 , [V ]0 = [v0 . . . vk0 ]0 e t ≥ |U | + |V |
temos que
|µ([U ]0 ∩ σ −t [V ]0 ) − µ([U ]0 ) × µ([V ]0 )| ≤ exp (−a × t) × K(U, V ),
onde σ é o shift em {0, 1}Z , a = 1/2r × ln(1/D) e K(U, V ) é uma constante que depende
apenas de U , V , D and r.
24
5 Autômatos Celulares Probabilísticos
Observação 13 Este útlimo resultado pode ser estendido a autóamtos celulares probabilísticos d-dimensionais.
5.7 Exemplos e comparações com resultados
conhecidos
5.7.1 O modelo de Domany-Kinzel
Este é um autômato celular probabilístico unidimensional η. de radio r = 1 introduzido em [7] com probabilidades de transição
P{ηt+1 (z) = 1|ηt (z − 1, z, z + 1) = 000 ou 010}
= p(∅) = p({0}) = a0 ,
P{ηt+1 (z) = 1|ηt (z − 1, z, z + 1) = 100 ou 110}
= p({−1})
= p({−1, 0}) = a1 ,
P{ηt+1 (z) = 1|ηt (z − 1, z, z + 1) = 001 ou 011}
= p({1}) = p({0, 1}) = a1
e
P{ηt+1 (z) = 1|ηt (z − 1, z, z + 1) = 101 ou 111}
= p({−1, 1})
= p({−1, 0, 1}) = a2 ,
onde, para qualquer subconjunto V ⊂ Z, η(V ) ∈ {0, 1}V denota a restrição de uma
configuração η ∈ {0, 1}Z ao conjunto de posições em V .
Utilizando a proposição 2 temos que η. ∈ C desde que p({−1, 1}) ≥ p({−1}) +
p({1})−p(∅), que por sua vez é equivalente à condição a2 ≥ 2a1 −a0 . Do Teorema 4 o
autômato probabilístico η. é ergódico se, e somente se, p(Ir ) = p({−1, 0, 1}) = a2 < 1.
Do Teorema 5 a única medida invariante é shift-mixing com decaimento exponencial
das correlações espaciais. Mais especificamente, para qualquer par de cilindros [U ]0
e [V ]0 and para todo t ≥ |U | + |V | temos que
|µ([U ]0 ∩ σ −t [V ]0 ) − µ([U ]0 ) × µ([V ]0 )| ≤ K exp (−(1/2 ln (1/a2 ))t),
onde K pode ser calculada explicitamente.
25
5 Autômatos Celulares Probabilísticos
5.7.2 Exemplo bidimensional
Seja η um autômato probabilístico bidimensional, de radio um e com dois estados
possíver por cada sítio. Neste caso I1 = {(l, k)| − 1 ≤ l, k ≤ 1} é um retângulo de 9
sítios. As probabilidades de transição {p(J)|J ⊆ I1 } of η. estão dadas por
p(J) = α
|J|
X
Ck9 = α × 2|J|
k=0
onde Ckl são os coeficientes binomiais.
Este autômato probabilístico pertence a C já que para qualquer J ⊆ I1 podemos esP
crever λ(J) = α obtendo P (J) = J 0 ⊆J λ(J 0 ). Este autômato é uma especie de genralização a duas dimensões do modelo de Domany-Kinzel com só um parâmetro. A
condição suficiente de ergodicidade é p(Ir ) < 1 que por sua vez implica α × 29 < 1
(α < 2−9 ). A constante de decaimento de correlações é dada por a = 21 ln(1/(29 × α)).
5.7.3 Comparação com as condições de Dobrushin
Em [8], Dobrushin da condições suficientes de ergodicidade para sistemas de partículas interagentes. Utilizando a notação introduzida por Coletti e Tisseur a referida
condição de Dobrushin poder ser traduzida como γ < 1 (veja [31] and [32]), onde
γ=
X
j∈Ir
sup |p(J ∪ {j}) − p(J)|.
J⊆Ir
No caso do modelo de Domany-Kinsel, o qual pertence à clase C, temos que
γ = sup |p(J ∪ {−1}) − p(J)| + sup |p(J ∪ {1}) − p(J)| = 2(a2 − a1 )
J⊆Ir
J⊆Ir
já que η. ∈ C (a2 ≥ 2a1 − a0 ). Se a2 < 1 (condição do Teorema 4) e 2(a2 − a1 ) ≥ 1 a
condição de suficiência de Dobrushin não pode ser aplicada.
Já no caso do exemplo bidimensional temos que
γ=α
9
X
!
k × Ck9 .
k=1
Neste caso γ > p(Ir ) e mesmo que γ < 1 a constante do decaimento de correlações
1
ln(1/(p(Ir )) é mairo do que 12 ln(1/(γ)), que é a constante de correlações dada em
2
26
5 Autômatos Celulares Probabilísticos
[31].
De forma geral, se um autômato probabilístico pertence à C a condição de suficiência p(Ir ) < 1 pode ser rescrita como
p(Ir ) =
X
λ(J) < 1
J⊆Ir
e a condição de suficiência de Dobrushin pode ser rescrita como
X
γ=
λ(J) × |J| < 1.
J6=∅, J⊆Ir
5.8 Exemplos de autômatos celulares probabilísticos
5.8.1 Modelo do votante a vizinhos mais próximos
O modelo do votante a vizinhos mais próximos é um autômato celular probabilístico
(ηn )n com espaço de estados {−1, 1}Z e probabilidades de transição dadas por
px (.|η) =
1
2
X
y||y−x|=1
|η(x) − η(x + y)|
.
2
Este sistema não é ergódico já que admite pelo menos duas medidas invariantes: as
medidas que dão massa total (probabilidade 1) às configurações todos um e todos
menos um respectivamente. Isto é, δ1 e δ−1 onde 1 ∈ {−1, 1}Z é definida como
1(x) = 1 ∀ x ∈ Z. A configuração −1 é definida análogamente.
5.8.2 Modelo do votante com maioria determinística
Neste caso a probabilidade de transição do autômato celular probabilístico é dada
por
X |η(x) − η(x + y)|
px (.|η) = 1{
> 1}.
2
y||y−x|=1
favorecendo mudanças do spin caso a maioria dos vizinhos mais próximos tiverem
spins diferentes.
27
5 Autômatos Celulares Probabilísticos
5.9 Ergodicidade de autômatos celulares
probabilísticos
Estamos em condições de enunciar o resultado que motivou o título deste trabalho.
Seja A um conjunto finito e seja X = AZ . Seja p = {p(a|η) : a ∈ A e η ∈ X}
uma família de probabilidades de transição de raio um. Como usual supomos que a
família p seja invariante por translações. Seja (ηn )n o autômato celular probabilístico
correspondente à família p. Definimos o coeficiente de ergodicidade associado a p
por
X
α :=
inf p(a|η).
a∈A
η∈X
O seguinte resultado da uma condição suficiente para a ergodicidade de autômatos
celulares probabilísticos com coeficiente de ergodicidade α.
Teorema 6 Seja (ηn )n um autômato celular probabilístico atrativo, de raio um, com espaço
de estados X e com probabilidades de transição invariante por translações p = {p(a|η), a ∈
A, η ∈ X}. Suponha que o coeficiente de ergodicidade α seja tal que 1 − α < 1/3. Logo, o
processo (ηn )n é ergódico.
A idéia que está por trás da construção do processo é a seguinte:
• Dada uma configuração inicial η ∈ X definimos η0 = η.
• A cada instante de tempo n, n ∈ N o valor do processo no sítio x ∈ Z é substituido por uma variável aleatória Y(x,n) com função de densidade de probabilidade
px (.|ηn−1 ).
A variável aleatória Y(x,n) é construida como uma função determinística de
variável uniforme associada ao par (x, n) utilizando um acoplamento maximal
(Y (x,n) : η ∈ X) para a família de variáveis aleatórias Y(x,n) , η ∈ X com funções
de desnsidade de probabilidade px (.|η), η ∈ X.
Sem mais delongas procedemos a provar o teorema.
Prova 6 Seja α o coeficiente de ergodicidade associado ao autômato celular probabilístico
(ηn )n . A primeira etapa da prova consiste em realizar a construção gráfica do processo a qual
nos proverá uma versão do processo de nosso interesse.
28
5 Autômatos Celulares Probabilísticos
Seja {U (x, n) : (x, n) ∈ Z× ∈ N0 } uma familia de variáveis aleatórias IID com U (0, 0) ∼
U([0, 1]). Para cada (x, n) ∈ Z× ∈ N0 e cada η ∈ X podemos definir uma variável aleatória
discreta Y(x,n)|η com função de probabilidade (p(a|η) : a ∈ A) utilizando apenas a variável
aleatória U (x, n).
Desta forma, utilizando o acoplamento maximal para a família {Y(z,n) : z ∈ Z, η ∈ X}
podemos definir o processo indutivamente para uma configuração inicial η dada.
A segunda parte da prova consiste em determinar a região de influência que determinará
o valor do processo no instante n no sítio z para n e z dados. A idéia e utilizar a teoria
de percolação dessenvolvida nestas notas para provar que a região de influência é finita com
probabilidade um; isto é, o autômato esquece o passado.
Note que para determinar ηn (z), isto é o valor do processo no instante n no sítio z ∈
Z devemos inspeccionar a estructura aleatória para atrás definida a partir da dinâmica do
processo e do coeficiente de ergodicidade.
Sejam z ∈ Z e n ∈ N0 e seja U (z, n) a variável aleatória uniforme em [0, 1] associada ao
par (z, n). Existem duas possibilidades: U (z, n) ≤ α ou U (z, n) > α.
Se U (z, n) ≤ α, defina
ηn (z) := α−1 (U (z, n)),
onde α(x) é a função definida por
α(x) =
X
a:a≤x
inf p(a|η)
η∈X
Neste caso o valor de ηn (z) está bem definido e é apenas uma função da variável aleatória
U (z, n).
Se U (z, n) > α, determine os valores do processo nos sítios z − 1, z, z + 1 no instante de
tempo n − 1 e definimos o valor do processo no sitio z no instante n utilizando o acoplamento
maximal de forma análoga ao caso anterior.
Neste caso o valor de ηn (z) é uma função determinística de U (z, n) e de ηn−1 (z−1), ηn−1 (z)
e ηn−1 (z + 1). O valor de ηn (z) está bem definido desde que os valores ηn−1 (z − 1), ηn−1 (z)
e ηn−1 (z + 1) o estejam.
Note que o esquema recursivo para definir o valor de ηn (z) origina um modelo de percolação
orientada para atrás no tempo.
Para z ∈ Z seja V (z) = {z − 1, z, z + 1}. Para (n, z) definimos a primeira geração de
(n,z)
ancestros de (n, z) da seguinte forma: Se U (n, z) ≤ α definimos A1
= ∅. Se U (n, z) > α
(n,z)
definimos A1
= V (z).
Indutivamente, definimos a n-ésima geração de ancestros de (n, z), n ≥ 2 da seguinte
29
5 Autômatos Celulares Probabilísticos
forma:
(n,z)
A(n,z)
= ∪x0 ∈A(n,z) A1
n
.
n−1
O clan de ancestros de (n, z) é definido por
A(n,z) = ∪m≥1 A(n,z)
m
(n,z)
Diremos que há percolação orientada para atrás se Am 6= ∅ para cada m ∈ N.
Observamos que este modelo de percolação corresponde-se exatamente ao modelo de percolação de sítios estudado na seção 3 com probabilidade do sítio estar aberto p = 1 − α. Desta
forma, se p < 1/3 não há percolação com probabilidade um. Desta forma vemos que de fato
o processo esquece o passado.
Por fim, observamos que sendo o autômato um processo atrativo temos que existem (em
princípio) duas medidas invariantes para o processo (Ver prova na próxima seção). Porém,
pelo argumentado no parágrafo anterior estas duas distribuições coincidem. Provando, desta
forma, a ergodicidade do processo.
Observação 14 Este tipo de construção para provar ergodicidade foi introduzido por Ferrari [18], [19], [20] para o estudo de hidrodinâmica e ergodicidade em dinâmicas de GlauberKawasaky.
No caso de dinâmicas de Glauber com spins contínuos este tipo de idéias foi utilizada por
Grynberg [16].
30
6 ATRATORES A LEATÓRIOS
Por último, consideramos a noção de atrator aleatório para sistemas dinâmicos aleatórios (processos estocásticos). O objetivo é apresentar a riqueza desta teoria para
que o leitor interessado se aprofunde nela e descobra a quantidade de problemas em
aberto que existem na área. Isto tal vez possa ser explicado ao comparar a idade da
probabilidade com outras áreas da matemática. Deve ser levado em consideração
que só em 1933, com o trabalho de Kolomogorov, os conceitos probabilísticos foram
definidos de forma rigorosa. Desde este ponto de vista, a probabilidade é vista como
uma área moderna da Matemática.
Sem mais delongas vamos introduzir, então, o conceito de atrator para processos
estocásticos. Primeiro, será necessário introduzir um pouco de notação.
6.1 Sistemas dinâmicos aleatórios
6.1.1 Definições gerais
Definição 13 Um sistema dinâmica métrico θ = ((Ω, F, P), (θt )t∈T ) com conjunto de índices temporal T (T = Z ou T = R) é um espaço de probabilidade (Ω, F, P) junto com uma
família de transformações {θt : Ω → Ω, t ∈ T } tal que:
1. (t, ω) 7→ θt ω é mensurável
2. (θt )t∈T é um grupo a um parâmetro, isto é
θ0 ≡ IdΩ ,
θt ◦ θs = θt+s para todo s, t ∈ T
3. Para cada t ∈ T, θt preserva medida, isto é
P[θt ∈ B] = P[B] para cada B ∈ F.
Para a seguinte definição supomos que (X, d) é um espaço polonês. Isto é, X é um
31
6 Atratores Aleatórios
espaço métrico completo e separável e seja B(X) a σ-álgebra de Borel correspondente.
Definição 14 Um sistema dinâmico aleatório com tempo T+ e espaço de estado X sobre um
sistema dinâmico métrico θ, é uma aplicação mensurável
ϕ : T+ × Ω × X −→ X,
(t, ω, x) 7−→ ϕ(t, ω, x) ≡ ϕ(t, ω)x
tal que a família de aplicações {ϕ(t, ω), t ∈ T, ω ∈ Ω} satisfaz a propriedade do cociclo
ϕ(0, ω) = IdX ,
ϕ(t + s, ω) = ϕ(t, θs ω) ◦ ϕ(s, ω)
para cada s, t ∈ T e ω ∈ Ω.
O estado ϕ(t, θs ω)x é o estado do sistema dinâmico após t unidades de tempo começando no instante s no estado x. A propriedade do cociclo
ϕ(t + s, ω) = ϕ(t, θs ω) ◦ ϕ(s, ω)
diz que se começarmos no estado x no instante 0, logo o estado do sistema após s + t
unidades de tempo é o mesmo que se começarmos no instante s no estado ϕ(s, ω)x
e esperarmos t unidades de tempo (propriedade de semifluxo).
6.1.2 Conjuntos aleatórios, pontos de equilíbrio e atratores
Definição 15 Seja (X, d) um espaço polonês e (Ω, F) um espaço mensurável. Um conjunto
aleatório D é uma aplicação
D : Ω −→ P(X)
tal que para cada ω ∈ Ω, D(ω) é um subconjunto fechado de X e, para cada x ∈ X a
aplicação ω 7−→ d(x, D(ω)) é mensurável.
Um conjunto aleatório compacto D é um conjunto aleatório D tal que para cada ω ∈
Ω, D(ω) é compacto.
Definição 16 Um conjunto aleatório D é dito ϕ-invariante se, para cada t ∈ T+ e ω ∈ Ω,
temos
ϕ(t, ω)D(ω) = D(θt ω).
32
6 Atratores Aleatórios
Observação 15 Se na definição acima substituimos o = por ⊂ dizemos que D é ϕ-a frente
invariante.
Definição 17 Um ponto de equilíbrio é um ponto aleatório que é ϕ-invariante.
Observação 16 Um ponto de equilíbrio e em sistemas dinâmicos aleatórios é o análogo de
pontos fixos em sistemas dinâmicos determinísticos.
A seguir introduzimos a noção de trajetórias pullback.
Definição 18 Seja ω ∈ Ω. A função t 7−→ ϕ(t, θ−t ω) é chamada trajetória pullback começando em x.
Agora estamos em condições de discutir a noção de atratores aleatórios.
Definição 19 Seja B ⊂ P(X). Um B-atrator aleatório pullback para um sistema dinâmico
aleatório aleatório ϕ é um conjunto compacto aleatório A que é ϕ-invariante e atrai todo
B ∈ B, isto é, para todo B ∈ B tem-se que
lim d(ϕ(t, θ−t ω)B, D(ω)) = 0 q.c.
t→∞
onde d(A, B) = sup d(x, B) = sup{ inf d(x, y)}.
x∈A
x∈A y∈B
Observação 17 Se na definição acima B = {B ⊂ X | B é limitado } dizemos que A é um
atrator global para ϕ.
Agora nosso propósito é provar a existência de atratores aleatórios. Porém mas uma
definição faz-se necesária.
Definição 20 Seja D um conjunto aleatório. O conjunto pullback, ω-limite de D é definido
por
ΩD (ω) = ∩T ≥0 ∪t≥T ϕ(t, θ−t ω)D(θ−t ω).
Observação 18 Note que y ∈ ΩD (ω) se, e somente se, existem sequências (tn )n∈N ⊂
T+ com lim tn = ∞ e (xn )n∈N ⊂ X com xn ∈ D(θ−tn ω) para cada n, tal que y =
n→∞
lim ϕ(tn , θ−tn ω)xn .
n→∞
Teorema 7 Seja ϕ um sistema dinâmica aleatório com espaço de estados compacto X. Logo,
cada ΩX é um B-atrator para cada família de conjuntos B.
33
6 Atratores Aleatórios
Prova 7 Da compacidade de X segue-se que ΩX 6= ∅. Mais ainda, é uma multi-função
ϕ-invariante que atrai todo subconjunto de X. Mais ainda, ΩX é um conjunto aleatório
compacto. Como ϕ é mensurável e ϕ(t, ω) é contínua temos que para cada t fixo, a aplicação
ω 7→ ϕ(t, θ−t ω)X define um conjunto aleatório compacto. Mais ainda, a família de conjuntos aleatórios {ϕ(t, θ−t .)X; t ≥ 0} é decrescente em t. Utilizando a propriedade de cocíclo,
para cada h > 0 temos
ϕ(t + h, θ−t−h ω)X = ϕ(t, θ−t ω)ϕ(h, θ−t−h ω)X
⊂ ϕ(t, θ−t ω)X
Logo,
ΩX (ω) = ∩t>0 ϕ(t, θ−t ω)X = ∩n∈Z+ ϕ(n,θ−n ω)X.
Logo, ΩX é um conjunto compacto aleatório.
6.2 Sistemas dinâmicos aleatórios monótonos
Nestas notas nos focamos em uma família restrita de sistemas dinâmicos aleatórios.
A saber, sistemas monótonos.
Definição 21 Um sistema dinâmico aleatório ϕ é dito monótono se
x ≤ y implica ϕ(t, ω)x ≤ ϕ(t, ω)y para cada t ∈ T + e ω ∈ Ω.
Para sistemas dinâmicos monótonos, se o espaço de estado têm um elemnto minimal
0 e um elemento maximal 1 em X tal que 0 ≤ x ≤ 1 para cada x ∈ X e se toda
sequência monótona em X convergir a um ponto de X, então podemos obter dois
pontos de equilíbrio.
De fato, para ω ∈ Ω fixo a família de pontos em X{ϕ(t, θ−t ω)1}t∈T+ é decrescente
em t. Isto é,
s ≤ t ⇒ ϕ(s, θ−s ω)1 ≥ ϕ(t, θ−t ω)1.
Esta propriedade segue-se facilmente da propriedade do cociclo e da monotonicidade de ϕ
ϕ(t, θ−t ω)1 = ϕ(s, θ−s ω)ϕ(t − s, θ−t ω)1
≤ ϕ(t, θ−t ω)1
34
(6.1)
6 Atratores Aleatórios
Análogamente, prova-se que {ϕ(t, θ−t ω)0}t∈T+ é crescente em t.
Por tanto, para cada ω ∈ Ω os seguintes limites existem
σ + (ω) := lim ϕ(t, θ−t ω)1 e σ − (ω) := lim ϕ(t, θ−t ω)0.
t→∞
t→∞
A seguinte proposição mostra que σ + e σ − são pontos de equilíbrio para ϕ.
Proposição 3 As variáveis aleatórias σ + e σ − são pontos de equilíbrio para ϕ. Isto é,
ϕ(t, ω)σ + (ω) = σ + (θt ω) e ϕ(t, ω)σ − (ω) = σ + (θt ω)
para cada t ∈ T+ e ω ∈ Ω.
Prova 8 Para t e ω fixo, pela continuidade de ϕ(t, ω) temos que
ϕ(t, ω)σ + (ω) = ϕ(t, ω)( lim ϕ(s, θ−s ω)1)
s→∞
=
=
=
(6.2)
lim ϕ(t, ω)ϕ(s, θ−s ω)1
(6.3)
lim ϕ(t + s, θ−s ω)1
(6.4)
lim ϕ(t + s, θ−(t+s) ω)1 = σ + (θt ω).
(6.5)
s→∞
s→∞
s→∞
Observação 19 Note que se ϕ é uma realização de um processo markoviano então as distribuições de σ − e σ + são medidas invariantes para o processo.
6.2.1 Ergodicidade, monotonicidade e atratores
Finalizamos esta modesta introdução aos atratores aleatórios mencionando a relação
existente entre atratatores aleatórios para sistemas dinâmicos aleatórios, monotonicidade e ergodicidade.
Muitos autores tem provado a existência de atratores aleatórios para sistemas dinâmicos aleatórios particulares utilizando fortemente alguma característica peculiar
do processo em consideração tornando a prova obviamente processo dependente.
Michael Scheutzow and Igor Chueshov ([5], [6]) vêm dessenvolvendo um trabalho
sistemático na área de sistemas dinâmicos aleatórios; primeiro dando uma boa definição de atrator aleatório já que ao contrário do que ocorre em sistemas dinâmicos
clássicos mesmo a noção correta de atrator aleatório não é clara. Em segundo lugar,
estão dedicados a tarefa de apresentar condições suficientes para a existência de
atratores aleatórios gerais o suficiente como para que possam ser aplicadas a uma
35
6 Atratores Aleatórios
determinada família de sistemas dinâmicos aleatórios e não apenas a um membro
desta família em particular.
Em particular, eles provam que certos sistemas dinâmicos aleatórios monótonos
e ergódicos possuim um único atrator aleatório. Antes de enunciar o resultado de
Chueshov e Scheutzow introduzimos um pouco de notação.
Seja V um espaço de Banach e seja V+ ⊂ V um cone. O cone V+ define uma ordem
parcial em V da seguinte forma: x ≤ y se, e somente se y − x ∈ V+ . O cone V+ é dito
sólido se V+ 6= ∅. Para a, b ∈ V definimos o intervalo fechado [a, b] por
[a, b] = {x ∈ V : a ≤ x ≤ b}.
Se o cone V+ for sólido então qualquer conjunto limitado B ⊂ V está contido em
algum intervalo. Um cone V+ é dito normal se todo intervalo [a, b] for limitado. O
resultado de Chueshov e Scheutzow pode ser enunciado da seguinte forma:
Teorema 8 Considere um sistema dinâmico aleatório (sda) monótono e ergódico assumindo
valores em um espaço de Banach V que admite um cone solido e normal V+ . Logo, o sda
possui um único atrator aleatório fraco.
Observação 20 A importância deste resultado está em que para para uma família de sistemas dinâmicos aleatórios o problema de achar seus atratores é transformado em um problema
de determinar sua ergodicidade. Embora provar que um sda dado seja ergódico não é uma
tarefa simples, provar a existência de atratores é uma tarefa mais complicada ainda.
6.2.2 Comentário Final
As técnicas utilizadas na seção anterior para determinar a ergodicidade de autômatos celulares probabilísticos podem ser exploradas para determinar a existência de
um único atrator forte para este tipo de processos. Isto constitue uma generalização do resultado de Chueshov e Scheutzow para uma família restrita de processos
estocásticos.
36
7 A PÊNDICE
Neste apêndice o leitor encontrará os conceitos mínimos necessários para ler estas
notas. Desde já o conteúdo deste apêndice está longe de abordar todos os conceitos
básicos da probabilidade.
Para uma primeira introdução à área recomendo o livro de W. Feller [17]. Já para
uma abordagem baseada em teoria da medida o leitor pode consultar o livro de N
Shiryaev [33]. Por outro lado, o conteudo de este apêndice corresponde a notas de
aula escritas em co-autoria com E. Lebensztayn [4].
7.1 Probabilidade: Definições e propriedades
Um experimento é aleatório se, ao ser repetido nas mesmas condições, é impossível
prever antecipadamente seu resultado. Em contrapartida, um experimento é determinístico se, quando repetido nas mesmas condições, conduz ao mesmo resultado.
Denominamos espaço amostral o conjunto de todos os resultados possíveis de um
experimento aleatório, e o denotamos por Ω.
Definição 22 Uma probabilidade é uma função P a valores reais definida em uma classe F
de subconjuntos (eventos) de um espaço amostral Ω que satisfaz as seguintes condições:
1. 0 ≤ P[A] ≤ 1 para cada A ∈ F,
2. P[Ω] = 1,
3. Aditividade enumerável: para qualquer sequência A1 , A2 , . . . ∈ F de eventos dois a
dois disjuntos,
∞
X
∞
P[∪i=1 Ai ] =
P[Ai ].
i=1
A tripla (Ω, F, P) é chamada um espaço de probabilidade.
Observação 21 No caso de Ω finito ou infinito enumerável, podemos definir a probabilidade
na clsse F de todos os subconjuntos de Ω, a qual é usualmente denotada por 2Ω ou P(Ω)
37
7 Apêndice
(conjunto das partes de Ω). Neste caso, escrevendo Ω como Ω = {ω1 , ω2 , . . .}, associamos
∞
X
a cada ωi , i = 1, 2, . . ., um número p(ωi ) tal que p(ωi ) ≥ 0 e
p(ωi ) = 1. Para i =
i=1
1, 2, . . . mp(ωi ) é a probabilidade do evento simples {ωi }. A probabilidade de um evento
A ⊂ Ω é definida por
X
P[A] =
p(ωi ).
i:ωi ∈A
Quando Ω é infinito não enumerável, é em geral impossível associar uma probabilidade bem
definida a todos os subconjuntos de Ω. Define-se então uma probabilidade em uma classe
mais restrita de subconjuntos de Ω. Esta família é chamada σ-álgebra de subconjuntos de Ω.
Para mais detalhes o leitor interessado deve aprofundar-se em estudos de teoria da medida.
7.2 Propriedades de uma probabilidade
1. P[∅] = 0.
2. Aditividade finita: Se A1 , . . . , An são eventos dois a dois disjuntos, então
P[∪ni=1 Ai ]
=
n
X
P[Ai ].
i=1
3. P[Ac ] = 1 − P[A].
4. Se A, B ∈ F e A ⊂ B então P[A] ≤ P[B].
5. Subaditividade enumerável: Para qualquer sequência A1 , A2 , . . . de eventos,
P[∪∞
i=1 Ai ]
≤
∞
X
P[Ai ].
i=1
7.3 Probabilidade condicional e independência
Seja (Ω, F, P) um espaço de probabilidade. Para eventos A, B com P[B] > 0, a probabilidade condicional de A dado que B ocorreu é definida por
P[A|B] =
P[A ∩ B]
.
P[B]
Por outro lado, dizemos que dois eventos A e B são independentes se P[A ∩ B] =
P[A]P[B].
38
7 Apêndice
Os eventos A1 , . . . , An são independentes se para qualquer escolha de k(2 ≤ k ≤ n)
e índices 1 ≤ i1 < i2 < . . . < ik ≤ n,
P[Ai1 ∩ Ai2 ∩ . . . ∩ Aik ] = P[Ai1 ]P[Ai2 ] . . . P[Aik ].
7.4 Conjuntos limites e continuidade da
probabilidade
Sejam A1 , A2 , . . . eventos em um espaço de probabilidade (Ω, F, P).
Por An ↑ A denotamos que
A1 ⊂ A2 ⊂ A3 ⊂ . . . e A = ∪∞
n=1 An .
Por An ↓ A denotamos que
A1 ⊃ A2 ⊃ A3 ⊃ . . . e A = ∪∞
n=1 An .
7.4.1 Continuidade por baixo da probabilidade
Se An ↑ A, então P[An ] ↑ P[A] quando n → ∞.
7.4.2 Continuidade por cima da probabilidade
Se An ↓ A, então P[An ] ↓ P[A] quando n → ∞.
7.5 Variáveis Aleatórias: Definições
Uma variável aleatória X em um espaço de probabilidade (Ω, F, P) é uma função a
valores reais definida em Ω, tal que
[X ≤ x] = {ω ∈ Ω : X(ω) ≤ x} ∈ F
para cada x ∈ R.
As variáveis aleatórias que assumem valores em um conjunto finito ou infinito enumerável são chamadas discretas e aquelas que assumem valores em um intervalo da
reta real são chamadas contínuas.
39
7 Apêndice
Observação 22 Se X é uma variável aleatória assumindo valores em {x1 , x2 , . . .} ⊂ R tal
que X(ω) ∈ {x1 , x2 , . . .}, ∀ ω ∈ Ω então a função p(x) = P[X = x] é chamada função de
∞
X
probabilidade de X. Note que
p(xi ) = P[Ω] = 1.
i=1
7.6 Independência de variáveis aleatórias
As variáveis aleatórias X1 , . . . , Xn são independentes se para quaisquer conjuntos
Ai ⊂ R (borelianos), i = 1, . . . , n,
P[X1 ∈ A1 , . . . , Xn ∈ An ] =
n
Y
P[Xi ∈ Ai ].
i=1
7.6.1 Critério para independência no caso discreto:
As variáveis aleatórias discretas X1 , . . . , Xn são independentes se, e somente se,
P[X1 = x1 , . . . , Xn = xn ] = P[X1 = x1 ] . . . P[Xn = xn ]
para qualquer escolha de x1 , . . . , xn .
40
R EFERÊNCIAS B IBLIOGRÁFICAS
[1] E. Andjel, A. Galves, Introdução à Teoria da Percolação, IMPA.
[2] A. Boborowski, Functional Analysis for Probability and Stochastic Processes,
Cambridge, University Press (2005)
[3] C. F. Coletti, P. Tisseur, Invariant Measures and Decay of Correlations for a
Class of Ergodic Probabilistic Cellular Automata. Journal of Statistical Physics,
v. 140, p. 103-121, 2010.
[4] C. F. Coletti, E. Lebensztayn. Probabilidade:
Teoria e Exercícios. Notas de Aula. Programa de Pós-Graduação do IME-USP,
https://sites.google.com/site/lebensztayn/livro .
[5] I. Chueshov, Monotone random systems: theory and applications, Volume
1779, Lecture notes on Mathematics, Springer.
[6] I. Chueshov, M. Scheutzow, (2004). On the structure of attractors and invariant
measures for a class of monotone random systems, Dynamical Systems: An
International Journal, 19, 127144.
[7] E. Domany, W. Kinzel, Equivalence of cellular automata to ising models and
directed percolation, Phys. Rev. Lett. 53, 311-314 (1984).
[8] R. L. Dobrushin, Markov processes with a large number of locally interacting
components: Existence of a limit process and its ergodicity, Problems Inform.
Transmission 7, 149-164 (1971)
[9] R. Durrett, Lectures Notes on Particle Systems and Percolation, Wadsworth and
Brooks/Cole Advanced Books and Software, 1988.
[10] R. Durrett, Probability: Theory and Examples, Duxbury Press; 2 edition (August 30, 1995)
[11] R. Durrett, Ten Lectures on Particle Systems, Lecture Notes in Mathematics
Volume 1608, Springer.
41
Referências Bibliográficas
[12] P. Gacs, Reliable Cellular Automata with Self-Organization, Journal of Statistical Physics, 103, 1-2 (2001) 45-267 (2001)
[13] L. F. Gray, A Reader’s Guide to Gacs’s ”Positive Rates” Paper, Journal of Stat.
Phys. 103, 1-2 1-44 (2001)
[14] G. Grimmett, P. Hiemer, Directed Percolation and Random Walk, arXiv:
math/0108062v1.
[15] G. Grimett, Percolation, Springer; 1 edition (April 1989).
[16] S. P. Grynberg, Construcción y simulación perfecta de campos markovianos
con spines acotados, Tese de doutorado em Matemática, UBA, 2009.
[17] W. Feller, An Introduction to Probability Theory and Its Applications, Vol. 1,
3rd Edition, (1968).
[18] A. De Masi, P.A. Ferrari, J.L. Lebowitz, Reaction-diffusion equations for interacting particle systems, J. Stat. Phys. 44 3/4: 589-644, 1986.
[19] P. A. Ferrari, Ergodicity for spin systems with stirring, Ann. Probab. 18(4), 15231538 (1990).
[20] P. A. Ferrari, Ergodicity for a class of Probabilistic Cellular automata, Rev. Mat.
Apl. 12 93-102 (1991)
[21] P. A. Ferrari, A. Galves, Coupling and Regeneration for Stochastic Processes,
Notes for a minicourse presented in XIII Escuela Venezolana de Matematicas,
2000, http://www.ime.usp.br/ pablo/publications.html .
[22] L. R. G. Fontes, Notas em Percolação, IMPA, http://www.ime.usp.br/ lrenato/per.pdf .
[23] N. Konno, Dualities for a class of finite range probabilistic cellular automata in
one dimension, Journal of Statistical Physics, 106, 5-6, 915-922 (2002)
[24] N. Konno, Self-duality for multi-state probabilistic cellular automata with finite
range interactions, Journal of Statistical Physics, 106, 5-6, 923-930 (2002)
[25] T. M. Liggett, Interacting particle systems. Springer-Verlag, New York (1985)
[26] T. M. Liggett, Survival of discrete time growth models, with application to oriented percolation, Ann. Appl. Prob., 5 (1995), 613-636.
42
Referências Bibliográficas
[27] T. Lindvall, Lectures on the Coupling Method, Dover Publications (August 30,
2002).
[28] F.J Lopez, G. Sanz, Stochastic Comparison for general Probabilistic Cellular Automata, Statistics and Probability letters 46 401-410 (2000)
[29] F. J. Lopez, G. Sanz, Duality for general interacting particle systems, Markov
Process and Relat. Fields 6 305-328 (2000)
[30] F.J Lopez, G. Sanz and M. Sobottka, Dualities for Multi-State Probabilistic Cellular Automata, Journal of statistical Mechanics P05006 (2008)
[31] C. Maes and S. Shlosman, Ergodicity of Probabilistic Cellular Automata: A
constructive Criterion, Commun. Math. Phys. 135, 233-251 (1991)
[32] C. Maes and S. Shlosman, When is an Interacting Particle System Ergodic?,
Commun. Math. Phys. 151, 447-466 (1993)
[33] A. N. Shyriaev, Probability (Graduate Texts in Mathematics) (v. 95), Springer;
2nd edition (December 8, 1995).
[34] O. N. Stavskaja and I. I. Pjatetskii-Shapiro, Homogeneous networks of spontaneously active elements, Problemy Kibernet. 20:91106 (in Russian) (1968)
[35] H. Thorisson, Coupling, Stationarity, and Regeneration. Probability and its Applications. Springer.
[36] A. Toom, Stable an attractive trajectories in multicomponent systems, Advances in Probabilities 6 549-575 (1980)
[37] A. L. Toom, N. B. Vasilyev, O. N. Stavskaya, G. L. Kurdyumov, S. A. Pirogov,
Discrete local Markov Systems. In: R. L. Dobrushin, V. I. Kryukov, A. L. Toom
(Eds.), Stochastic Cellular Systems: Ergodicity, Memory, Morphogenesis. Manchester University Press, Manchester, pp. 1-182 (1990)
[38] P. Walters, An introduction to Ergodic Theory, Graduate Texts in Mathematica
79, Springer (2000)
43
Download