Ergodicidade e Atratores Aleatórios para uma Família de ACP Ergodicidade e Atratores Aleatórios para uma Família de ACP Cristian F. Coletti 2 S UMÁRIO 1 Acoplamento 1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Eventos Acoplantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 8 2 Exercícios 10 3 Percolação de Sítio 3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Notação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 O Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Ponto crítico e transição de fase . . . . . . . . . . . . . . . . 3.5 Continuidade pela direita da probabilidade de Percolação 12 12 12 13 14 15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Exercícios 17 5 Autômatos Celulares Probabilísticos 5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 O Processo . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Definindo o processo . . . . . . . . . . . . . . . . . . . . 5.4 Operadores de transição . . . . . . . . . . . . . . . . . . 5.5 Ergodicidade . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.1 A medida de probabilidade invariante . . . . . . 5.6 Principais resultados e exemplos . . . . . . . . . . . . . 5.7 Exemplos e comparações com resultados conhecidos . 5.7.1 O modelo de Domany-Kinzel . . . . . . . . . . . 5.7.2 Exemplo bidimensional . . . . . . . . . . . . . . 5.7.3 Comparação com as condições de Dobrushin . . 5.8 Exemplos de autômatos celulares probabilísticos . . . . 5.8.1 Modelo do votante a vizinhos mais próximos . . 5.8.2 Modelo do votante com maioria determinística . 19 19 20 21 22 22 23 23 25 25 26 26 27 27 27 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sumário 5.9 Ergodicidade de autômatos celulares probabilísticos . . . . . . . . . . 6 Atratores Aleatórios 6.1 Sistemas dinâmicos aleatórios . . . . . . . . . . . . . . . . . . 6.1.1 Definições gerais . . . . . . . . . . . . . . . . . . . . . 6.1.2 Conjuntos aleatórios, pontos de equilíbrio e atratores 6.2 Sistemas dinâmicos aleatórios monótonos . . . . . . . . . . . 6.2.1 Ergodicidade, monotonicidade e atratores . . . . . . 6.2.2 Comentário Final . . . . . . . . . . . . . . . . . . . . . 7 Apêndice 7.1 Probabilidade: Definições e propriedades . . . . . . . 7.2 Propriedades de uma probabilidade . . . . . . . . . . 7.3 Probabilidade condicional e independência . . . . . . 7.4 Conjuntos limites e continuidade da probabilidade . . 7.4.1 Continuidade por baixo da probabilidade . . . 7.4.2 Continuidade por cima da probabilidade . . . 7.5 Variáveis Aleatórias: Definições . . . . . . . . . . . . . 7.6 Independência de variáveis aleatórias . . . . . . . . . 7.6.1 Critério para independência no caso discreto: 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 . . . . . . 31 31 31 32 34 35 36 . . . . . . . . . 37 37 38 38 39 39 39 39 40 40 R ESUMO Neste minicurso vamos estudar um tipo de processo markoviano em tempo discreto com espaço de estados {a, b}Z (a, b ∈ Z) e alcance de interação finito chamados automatas celulares probabilísticos (ACP) com raio um. Mais especificamente, os ACPs são cadeias de Markov onde um número infinito de componentes evoluem em tempo discreto seguindo uma dinâmica estocástica local. A importância destes processos deve-se a dois fatos: por um lado, eles constituem uma classe rica de processos markovianos capaz de gerar um grande número de problemas matemáticos desafiantes e relevantes; por outro lado, são úteis para modelar sistemas físicos e biológicos. Vamos focar nossa atenção no estudo de condições suficientes para a existência e ergodicidade destes processos. Também será abordada a noção de atratores aleatórios. 5 1 ACOPLAMENTO 1.1 Introdução Intuitivamente, acoplar significa construir duas variáveis aleatórias ou mais no mesmo espaço de probabilidade. Nesta seção buscamos formalizar esta ideia assim como apresentar algumas aplicações desta teoria. Definição 1 Seja X uma variável aleatória definida em um espaço de probabilidade (Ω, F, P). Diremos que a variável aleatória X̃ (definida em algum espaço de probabilidade) é uma cópia de X se, e somente se, elas têm a mesma distribuição. Exemplo 1 Seja X uma variável aleatória com distribuição de Bernouilli de parâmetro p. Vamos construir uma cópia de X. Para isto considere uma variável aleatória U ∼ U([0, 1]) e defina X̃ = 1{U ≤ p}. Note que P[X̃ = 1] = P[U ≤ p] = p = 1 − P[X̃ = 0]. Logo, X̃ ∼ Bernoulli (p). Isto é, X̃ é uma cópia da variável aleatória X. Exemplo 2 Sejam X e Y duas variáveis aleatórias com distribuição Bernouilli de parâmeros p e q com p < q. Queremos construir um acoplamento X̃, Ỹ de X e Y em um espaço de probabilidade comum tal que P[X ≤ Y ] = 1. Note que as variáves aleatórias X e Y não precissam estar definidas no mesmo espaço de probabilidade. Neste caso não teriamos como comparar as variáveis X e Y . Dai a importância de construir este acoplamento. Seja U ∼ U([0, 1]). Defina novas variáveis aleatórias X̃, Ỹ por X̃ = 1{U ≤ p} e Ỹ = 1{U ≤ q}. 6 1 Acoplamento Logo, P[X̃ ≤ Ỹ ] = P[U ∈ [0, 1]] = 1, (1.1) como queriamos mostrar. Exemplo 3 De fato a construção realizada no exemplo anterior pode ser estendida a qualquer variável aleatória discreta. Para evitar problemas com a notação consideraremos apenas o caso em que a imágem de X seja finita. Seja X uma variável aleatória discreta assumindo valores em um conjunto finito {xj : j = 1, . . . k} com função de probabilidade p(j). Isto é, p(j) = P[X = xj ] e k X p(j) = 1. j=1 Considere uma variável aleatória U ∼ U([0, 1]) e defina uma partição do intervalo [0, 1] da seguinte forma: Seja A1 = [0, p(1)) e para j ≥ 1 considere j−1 j X X Aj = [ pl , pl ), j = 2, . . . , k. l=1 l=1 Logo, defina X̃ por X̃ = k X xj 1{U ∈ Aj }. j=1 Assim, P[X̃ = xj ] = P[U ∈ Aj ] j j−1 X X = pl − pl l=1 = p(j). Isto é, X̃ é uma cópia de X. 7 l=1 1 Acoplamento Definição 2 Diremos que a família de variáveis aleatórias (X̃λ )λ∈Λ (onde Λ é algum conjunto de índices) é um acoplamento da coleção de variáveis aleatórias (Xλ )λ∈Λ se, e somente se, X̃λ = Xλ ( em distribuição ) ∀ λ ∈ Λ. 1.2 Eventos Acoplantes Seja (Xλ )λ∈Λ uma familia de variáveis aleatórias discretas. Suponhamos que todas as variáveis aleatórias assumen seus valores em um conjunto finito ou enumerável A e denotemos por pλ a função de probabilidade da variável aleatória Xλ . Nosso objetivo é acoplar as variáveis aleatórias Xλ de forma tal a maximizarmos a probabilidade de todas as variavéis coincidirem. Definição 3 Seja X̃λ um acoplamento das variáveis aleatórias (Xλ )λ∈Λ e seja C um λ∈Λ evento. Diremos que C é um evento acoplante se C ⊂ {X̃λ = X̃λ ∀ λ, λ ∈ Λ}. Teorema 1 Seja (Xλ )λ∈Λ uma familia de variáveis aleatórias discretas assumindo seus valores em um conjunto finito ou enumerável A. Se C é um evento acoplante das variáveis aleatórias (Xλ )λ∈Λ então X inf pλ (x). (1.2) P[C] ≤ x∈A Prova 1 Seja X̃λ λ∈Λ λ∈Λ um acoplamento da variáveis aleatórias (Xλ )λ∈Λ . Notemos que se x ∈ A e µ ∈ Λ então P[X̃µ = x, C] é um limitante inferior do conjunto {pλ (x) : λ ∈ Λ}. X Portanto P[X̃µ = x, C] ≤ inf pλ (x). Como P[C] = P[X̃µ = x, C] concluimos que λ∈Λ x∈A P[C] ≤ X x∈A inf pλ (x), λ∈Λ (1.3) como queriamos mostrar. Definição 4 Considere um acoplamento de variáveis aleatórias com evento acoplamente C X tal que P[C] = inf pλ (x). Chamaremos a tal acoplamento, acoplamento maximal, e a C x∈A λ∈Λ um evento acoplante maximal. Teorema 2 Seja (Xλ )λ∈Λ uma familia de variáveis aleatórias discretas assumindo seus valores em um conjunto finito ou enumerável A. Então existe um acoplamento maximal. 8 1 Acoplamento Prova 2 Seja c := X x∈A inf pλ (x). λ∈Λ 1. Se c = 0 considere X̃λ independentes e seja C = ∅. 2. Se c = 1 considere as X̃λ idênticas e seja C = Ω. 3. Se 0 < c < 1 sejam I, V, e Yλ , λ ∈ Λ variáveis aleatórias independentes definidas por • P[I = 1] = c = 1 − P[I = 0]. • P[V = x] = inf pλ (x)/c, x ∈ A. λ∈Λ • P[Yλ = x] = (pλ (x) − cP[V = x])/(1 − c), x ∈ A. Por fim, defina ( X̃λ = V Yλ se I = 1, se I = 0. Logo, P[X̃λ = x] = P[V = x|I = 1]P[I = 1] + P[Yλ = x|I = 0]P[I = 0] = P[V = x]P[I = 1] + P[Yλ = x]P[I = 0] = (inf pλ (x)/c)c + ((pλ (x) − cP[V = x])/(1 − c))(1 − c) λ∈Λ = P[Xλ = x]. Observação 1 Na próxima seção construiremos várias realizações de um mesmo processo estocástico em um mesmo espaço de probabilidade utilizando as ferramentas apresentadas nesta seção. Acoplar duas ou mais realizações destes processos será fundamental para provar resultados que dizem respeito à ergodicidade do processo. Observação 2 Nesta primeira seção introduzimos a poderosa ferramenta de acoplamento que tem sido de grande utilidade para provar um grande número de resultados na área de Probabilidade. Como já fora dito, acoplar é um método que consiste em estabelecer propriedades de variáveis aleatórias e processos estocásticos a través de uma construção comum em um único espaço de probabilidade. O leitor certamente achará interesantes os trabalhos de Ferrari e Galves [21], Lindvall [27] e Thorisson [35]. 9 2 E XERCÍCIOS 1. Seja X uma variável aleatória com distribuição de Bernoulli de parâmetro p, p ∈ (0, 1). Utilizando uma variável aleatória uniforme U em [0, 1] construa uma cópia de X diferente da apresentada no exemplo 1. 2. Seja X uma variável aleatória discreta assumindo valores em {x0 , x1 , . . . , xn , . . .}. Seja pX (j) = P[X = xj ] sua função de probabilidade. Utilizando uma variável aleatória uniforme U em [0, 1] construa uma cópia de X. 3. Sejam X e Y duas variáveis aleatórias discretas assumindo valores em {x0 , x1 , . . . , xn } para algum n ∈ N. Utilizando apenas uma variável aleatória U com distribuição uniforme em [0, 1] costrua um acoplamento de X e Y e uma terceira variável aleatória T assumindo valores em {x0 , x1 , . . . , xn } tal que P[max{X, Y } = T ] = 1 4. Sejam X e Y duas variáveis aleatórias assumindo valores inteiros não negativos e com função de probabilidade pX e pY respectivamente. Suponha que P[X ≥ k] ≥ P[Y ≥ k] para cada k ∈ N0 . Construa um acoplamento de X e Y tal que P[X ≥ Y ] = 1. 5. Seja (Xn )n≥1 uma sequência de variáveis aleatórias IID com X1 ∼ Bernoulli (p). n X Seja S0 = 0 e para n ≥ 1 seja Sn = Xi . O processo (Sn )n≥0 assim definido i=1 é conhecido pelo nome de passeio aleatório simples de parâmetro p. Quando p = 1/2 o passeio aleatório correspondente é chamado passeio aleatório simples simétrico. 10 2 Exercícios a) Forneça uma construção deste processo utilizando apenas uma família de variáveis aleatórias IID (Un )n≥0 com U0 ∼ Uniforme ([0, 1]). b) Considere dois passeios aleatórios simples Sn e Sn0 com parâmetros p e p0 respectivamente. Mostre que é possível construir Sn e Sn0 no mesmo espaço de probabilidade de forma tal que S0 = S00 e Sn ≤ Sn0 para cada n ≥ 1. c) Um resultado clásico na teoria de probabilidades diz que o passeio aleatório simples simétrico começando na origem retorna a origem com probabilidade 1. Utilize este fato para mostrar que se Sn é um passeio aleatório simples com parâmetro p ≤ 1/2 então o processo Sn começando na origem retorna à origem com probabilidade 1. 11 3 P ERCOLAÇÃO DE 3.1 Introdução A teoria de percolação (Galves e Andjel [1], Grimmett[15], Durrett [9], Fontes [22]) tem sua origem num problema prático: a compreensão do fenômeno de infiltração de um gas atavés de um mateial poroso. Os poros podem ser vistos como canais que se unem as outros, formando uma espécie de labirinto. Se esses canais são suficientemente largos e se comunicam bem entre si, então o gás penetra profundamente. Em caso contrário, o gás não vai além da superficie do material. O problema é dar sentido formal a descrição feita acima. 3.2 Notação Seja Zd = {(x1 , . . . , xd ) : xi ∈ Z, i = 1, . . . , d}. Para x, y ∈ Zd definimos |x − y| = d X |xi − yi |. (3.1) i=1 Cada vetor de Zd será chamado de vértice. A seguir construimos um grafo dirigido com conjunto de vértices V = Zd especificando uma família de arestas dirigidas A(V ) para o conunto de vértices V. Começamos reescrevendo cada vértice x = (x1 , . . . , xd ) como x = (χ, t) onde χ = (x1 , . . . , xd−1 ) e t = xd . Definimos uma família de arestas A(V ) da seguinte forma: d−1 X e =< (χ, t), (χ̃, v) > ∈ A(V ) se e somente se |xi − x̃i | ≤ 1 e v = t + 1. Vamos i=1 denotar por G~ = (V, A(V )) o grafo dirigido resultante. Observação 3 Se denotarmos por d(v) o grau do vértice v do grafo G~ temos que d(v) = ~ 2d + 1 para todo vértice de G. 12 S ÍTIO 3 Percolação de Sítio 3.3 O Modelo Considere o grafo dirigido G~ descrito acima. Cada vértice (sítio) de G~ estará aberto com probabilidade p e estará fechado com probabilidade 1 − p, onde p ∈ (0, 1) é o parâmetro do modelo. Para formalizar esta descrição considere uma família S = {S((χ, t)) : (χ, t) ∈ V } de variáveis aleatórias independentes assumindo os valores 0 e 1, com probabilidade p e 1 − p respectivamente e seja (Ω, F, P) o espaço de probabilidade onde está definida a família S. Definição 5 Dados dois pontos x = (χ, t), x̃ = (χ̃, u) em V diremos que x e x̃ estão conectados e escrevemos x → x̃, ou ainda (χ, t) → (χ̃, u), se e somente se existir um conjunto finito de sítios {x0 , . . . , xn } (para algum n) tal que: 1. x0 = x e xn = x̃ 2. |xi − xi+1 | ≤ 1, i = 0, 1, . . . n − 1 3. S(xi ) = 1. Observação 4 Quando C ⊂ Zd diremos que x → y em C se e somente se x e y estão conectados utilizando apenas sítios de C. Para cada x ∈ Zd definimos o aglomerado do sítio x por Cx = {y ∈ Zd : x → y}. Para cada n ∈ N0 seja An o conjunto de vértices conectados com a origem através de, pelo menos, um caminho aberto de comprimento n. Isto é, An = {(x, n) ∈ V |(0, 0) → (x, n)}. Note que para todo n ∈ N0 tem-se [An 6= ∅] ⊇ [An+1 6= ∅]. Logo, 1 ≥ P[An 6= ∅] ≥ P[An+1 6= ∅] ≥ 0. Como toda sequência monotona e limitada tem limite concluimos que lim P[An 6= ∅] existe. Como a sequência de eventos [An 6= ∅], n ∈ N0 n→∞ é decrescente concluimos, pela continuidade da probabilidade, que P[∩n∈N0 An ] = lim P[An 6= ∅]. Como [|C| = ∞] = [∩n∈N0 An ] definimos a probabilidade de percolan→∞ ção por θ(p) := Pp [|C| = ∞], onde C é o aglomerado da origem. 13 3 Percolação de Sítio 3.4 Ponto crítico e transição de fase Outro conceito de interesse na teoria de percolação é o de parâmetro crítico que é definida em termos da função θ(p). Mais especificamente estamos interessados em definir a probabilidade crítica por pc = sup{p ∈ (0, 1) : θ(p) = 0}. Para isto precisamos garantir que o supremo acima existe. Isto é garantido pelo seguinte lema Lemma 1 A função θ(p) é não decrescente. Antes de provar este lema vamos realizar um acoplamento , em um mesmo espaço de probabilidade, dos modelos de percolação para distintos valores de p ∈ [0, 1]. Seja {Uv |v ∈ V } uma família de variáveis aleatórias IID com U0 ∼ U([0, 1]). Seja (Ω, F, P) o espaço de probabilidade onde está definida esta família de variáveis aleatórias uniformes. Seja p ∈ [0, 1]. Diremos que um vértice v está aberto se, e somente se, Uv ≤ p e que está fechado em caso contrário. Desta forma podemos considerar o modelo de percolaçao associado a esta família de uniformes. Chamando C(p) ao aglomerado da origem no modelo acima segue-se facilmente que θ(p) = P[|Cp | = ∞]. Agora podemos proceder a provar a monotonicidade da função θ(p). Prova 3 Sejam p, p̃ ∈ [0, 1] tal que p ≤ p̃. Logo, como para qualquer vértice v ∈ V tem-se que Uv ≤ p implica em que Uv ≤ P̃ concluimos que C(p) ⊂ C(p̃). Logo, θ(p) = P[|C(p)| = ∞] ≤ P[|C(p̃)| = ∞] = θ(p̃). Sendo a função θ(p) monótona (limitada), o parâmetro crítico pc está bem definido. Definição 6 Diremos que o modelo de percolação apresenta transição de fase se o parâmetro crítico é não trivial. Isto é, se pc ∈ (0, 1). 14 3 Percolação de Sítio Estamos em condições de enunciar o seguinte Teorema 3 O processo de percolação de sítios apresenta transição de fase; 1 3 ≤ pc ≤ 3 4 Prova 4 Seja N (n) o número de caminhos abertos de comprimento n no modelo de percola~ Note que em G~ todo caminho é auto-evitante. Dai ção de sítio em G. lim P[N (n) ≥ 1] ≤ lim E[N (n)] ≤ lim pn 3n = 0 n→∞ n→∞ n→∞ desde que p < 1/3. Logo, lim P[N (n) ≥ 1] = 0. n→∞ ~ ≥ 1/3. Desta forma concluimos que pc (G) Por outro lado, Liggett estudou o problema de percolação de sítios no grafo G̃ e mostrou que pc (G̃) ≤ 3/4. ~ ≤ pc (G̃) ≤ 3/4, como queriamos mostrar. Como G~ ⊂ G̃ temos que pc (G) Observação 5 A prova de pc (G̃) ≤ 3/4 é técnica (e clássica) porém longa e foge do escopo destas notas. No entanto, convido o leitor interessado a debruçar-se no trabalho de Liggett. 3.5 Continuidade pela direita da probabilidade de Percolação Outra aplicação interessante feita através a de acoplamento é a da continuidade pela direita da probabilidade de percolação, isto é a continuidade pela direita da função θ(p). Proposição 1 A função θ(p) é continua pela direita. Prova 5 Seja p ∈ [0, 1] e seja Cx (p) o aglomerado do sítio x quando a probabilidade de un vértice qualquer estar aberto é p. Dizemos que x está conectado com o infinito se, e somente p p se, |Cx (p)| = ∞ e denotamos este fato por x ↔ ∞. Por tanto θ(p) = P[0 ↔ ∞]. Seja (pn )n∈N0 uma sequência em [0, 1] tal que lim pn = p e pn ≥ Pn+1 . Logo, n→∞ pn lim θ(pn ) = lim P[0 ↔ ∞] n→∞ pn ↓p pn = P[0 ↔ ∞ ∀pn > p], 15 3 Percolação de Sítio já que a probabilidade é contínua com relação a eventos decrescentes. Agora tudo o que temos pn p que provar é que 0 ↔ ∞ ∀pn > p se, e somente se, 0 ↔ ∞. p pn pn Suponha que 0 ↔ ∞. Logo 0 ↔ ∞ ∀pn > p. Resta provar que se 0 ↔ ∞ ∀pn > p então p 0 ↔ ∞. Seja Bn = {(x, y) ∈ Z × N0 | y ≥ |x| ∧ y ≤ n}. Denote a fronteira de Bn por ∂Bn . Note p p que ∂Bn = Bn+1 \ Bn . Diremos que 0 ↔ ∂Bn se, e somente se, 0 ↔ y para algum y ∈ ∂Bn . É facil ver que p p 0↔∞ se, e somente se, 0 ↔ ∂Bn ∀ n ∈ N. pn Suponha que 0 ↔ ∞ ∀pn > p. Seja l ∈ N e seja v = (v0 , . . . , vm ) um caminho conectando a origem com ∂Bn que permanece em Bn+1 . Seja M (v) := max{Uvk | k = 0, . . . , m} o máximo das variáveis aleatórias uniformes nos vértices de v (ou peso de tal caminho). Como o número de tais caminhos é menor ou igual que 3m+1 existe um caminho ṽ com peso mínimo. pn p Como 0 ↔ ∞ ∀pn > p temos que M (ṽ) ≤ p. Logo, 0 ↔ ∂Bn . Como o raciocínio é válido para todo n ∈ N0 conluimos que pn lim θ(pn ) = P[0 ↔ ∞ ∀pn > p], n→∞ para toda seguência (pn )n∈N0 em [0, 1] tal que lim pn = p e pn ≥ pn+1 . De esta forma, n→∞ concluimos que lim θ(p̃) = θ(p), p̃↓p como queriamos mostrar. Observação 6 Esta é apenas uma pequena introdução à fascinante área da teoria de Percolação. Utilizando uma frase extraida do trabalho de Andjel e Galves [1]: o objetivo destas notas não é outro senão atrair o leitor para a zona de audição do canto da sereia. 16 4 E XERCÍCIOS 1. Seja α ∈ N. Considere a rede de Bethe S definida por S = ∪∞ n=0 Sn onde Sn = (n, i) : i = 1, . . . , αn , n ≥ 0. Considere uma familia de variáveis aleatórias (Xs )s∈S IID com X(0,1) ∼ Bernoulli (p) onde p ∈ (0, 1) e seja (Ω, F, P) o espaço onde estão definidas estas variáveis aleatórias. Definição 7 Seja (n, i) ∈ S. Chamamos aos pontos (n+1, (i−1)α+k), k = 1, . . . , α de descendentes do ponto (n, i). Seja (An )n≥0 uma família de conjuntos aleatórios definidas da seguinte forma. A0 = S0 e para n ≥ 1, An = {s ∈ S : s é descendente de algum t de An−1 tal que Xt = 1}. Mostre que: a) Existe lim P[An 6= ∅] quando n → ∞. n→∞ b) Defina γ(p) = lim P[An 6= ∅]. Mostre que γ(p) é monótona crescente em n→∞ p. c) Defina pc = sup{p ≥ 0 : γ(p) = 0}. Mostre que se α ≥ 2 então pc ∈ (0, 1) e que γ(pc ) = 0. d) Mostre que se α = 1 então γ(p) = 0 para p < 1. 2. Seja (x, t) ∈ Z × N0 e associe a cada (x, t) uma variável aleatória Y(x,t) ∼ Bernoulli (p). Vamos a supor que a familia {Y(x,t) : (x, t) ∈ Z × N0 } é uma 17 4 Exercícios familia de variáveis aleatórias IID. Seja (Ω, F, P) o espaço de probabilidade onde está definida esta familia de variáveis aleatórias. Sejam x e y ∈ Z, s, t ∈ N. Diremos que (x, s) ⇒ (y, t), quando s = t e x = y ou quando s < t e existem x0 , . . . , xn ∈ Z, onde n = t − s tais que: a) x0 = x, xn = y, b) xi+1 = xi ou xi+1 = xi + 1 e c) Y(xi ,ss+i ) = 1, i = 0, 1, . . . n − 1. Defina um processo estocástico (ηt )t∈N0 da seguinte forma: (A,s) ηt = {y ∈ Z : Existe x ∈ A, tal que (x, s) ⇒ (y, t)} Refaça a teoria deste capítulo para achar um valor pc ∈ (0, 1) tal que para todo p < pc o processo se extingue. , 3. Considere o grafo G = (Z, E) onde E = {(x, y) ∈ Z × Z : |x − y|1 = 1} é o seu conjunto de vizinhos mais próximos. A cada elo de E será atribuido aleatóriamente o status aberto ou fechado da seguinte maneira. Seja X = Xe , e ∈ E uma família de variáveis aleatórias IID com distribuição de Bernoulli de parâmetro p e seja Pp a medida de probabilidade associada a X. Xe = 1 indica que o elo e está aberto e Xe = 0 indica que o elo e está fechado. Um conjunto de elos de E, {e1 , . . . , en }, n ≥ 1, onde ei = (xi , yi ), i = 1, . . . , n, é dito caminho se x1 , . . . , xn forem distintos e yi+1 = xi , i = 1, . . . , n − 1. Um caminho é dito aberto se todos seus elos estiverem abertos. Diremos que dois sitios da rede, x e y estão conectados (x ↔ y) se existir um caminho aberto {e1 , . . . , en } com x1 = x e yn = y. Denote por C o conjunto dos sítios x que estão conectados com a origem. Mostre que não há aglomerados infinitos quase-certamente se p < 1. Observação 7 O caso unidimensional é realmente trivial. O caso interesante ocorre quando o problema acima é estudado na rede hipercúbica G = (Zd , E), d ≥ 2 onde o fenômeno de transição de fase é observado. Recomendo como introdução a este assunto as notas em Teoria de Percolação de L. R. G. Fontes [22]. 18 5 AUTÔMATOS C ELULARES P ROBABILÍSTICOS 5.1 Introdução Autômatos Celulares Probabilísticos são processos estocásticos markovianos a tempo discreto que tem sido intensamente estudados desde pelo menos o trabalho de Stavskaja e Pjatetskii-Shapiro [34] (1968). Esta clase de processos tem como espaço d de estados um espaço produto X = AZ onde A é um conjunto finito e d é um inteiro positivo qualquer. Podemos pensar a um autômato celular probabilístico como sendo um sistema de partículas interagentes onde as partículas atualizam seus estados de forma independente. O objetivo deste minicurso é estudar condições de ergodicidade para autômatos unidimensioanis de rádio um. Em palavras, um autômato celular probabilístico é ergódico se existe uma única medida invariante (isto é, se o sistema começa com esta medida (invariante) a distribuição do sistema ao longo do tempo é dado pela medida invariante) e começando de qualquer medida inicial o sistema converge à única medida invariante (Veja uma definição formal abaixo). Recentemente, Coletti e Tisseur utilizando a técnica de dualidade generalizada (introduzida por Lopez et al. [30]) encontraram condições suficientes de ergodicidade para uma certa família de autômatos celulares probabilísticos (atratívos). Nestas notas revisaremos rápidamente estes resultados e logo nos concentraremos em uma metodologia diferente para provar ergodicidade de sistemas estocásticos interagentes. Por muito tempo se acreditou que autômatos celulares unidimensionais com ruido positívo eram ergódicos. Porém, em 2002 P. Gacks encontrou um complicado contraexemplo de um autômato unidimensional com ruido positívo que não esquece o passado e que começando de diferentes distribuições iniciais converge a diferentes medidas invariantes . 19 5 Autômatos Celulares Probabilísticos 5.2 O Processo Neste trabalho focaremos nossa atenção em autômatos celulares probabilísticos unidimensionais de radio um. Logo neste texto trataremos aos autômatos celulares probabilísticos como procesos estocásticos a tempo discreto com espaço de estado X = {0, 1}Z , ao menos que o contrário seja explicitado. Um estado o configuração deste processo é um elemento η ∈ X. Isto é, η é uma função com domínio o conjunto dos inteiros Z e com contradomínio o conjunto {0, 1}. Os elementos de Z são tipicamente chamados de sítios. O estado de cada sítio x ∈ Z na configuração η ∈ X é denotado por η(x) ∈ {0, 1}. A partir de uam configuração η em X e de um sítio j ∈ Z definimos uma nova configuração η j por ( 1 − η(i) , se i 6= j η j (i) = . η(i) , se i = j Será útil também introoduzir o operador translação τi : Z → Z definido por τi (η)(j) = η(i + j). Em X consideramos a topologia produto usual e consideramos o espaço de Banach C(X) = {f : X → R | f é contínua } com a norma ||f || = sup |f (η)|. η∈X A seguir introduzimos uma forma de mensurar a dependência da configuração η em um sítio i ∈ Z. Para f ∈ C(X), a dependência da configuração η no sítio i é mensurada a través da grandeza δi f = sup |f (η i ) − f (η)|. η∈Ω em quanto que sua oscilação total é dada por |||f ||| = X δi f. i Por fim, o conjunto D(X) = {f ∈ C(X) : |||f ||| < ∞} contem, pelo menos, todas as funções cilíndricas, que são aquelas que dependen da 20 5 Autômatos Celulares Probabilísticos configuração η apenas a través de um número finito de sítios. 5.3 Definindo o processo Por fim, estamos em condições de definir o processo formalmente. Seja p0 : X → [0, 1], U ⊂ Z, |U | < ∞ tal que p0 (η j ) = p0 (η) sempre que j ∈ / U. Desta forma o alcance o radio do processo é definido como o menor número real positivo tal que U ⊂ ([−r, r] ∩ Z)d . Consideremos as translações pi de p0 definidas por pi (η) = p0 (τi (η)). Uma vez defindida a família de funções {pi : X → [0, 1] | i ∈ Z podemos definir uma família de medidas produto da seguinte forma. Para η ∈ X defina a medida produto p(dσ, η) com marginais P[σ(i) = 1|η] = pi (η). Note que se A ⊂ Z com |A| < ∞ temos que Z Y σ(i)p(dσ|η) = Y pi (η). i∈A i∈A Definição 8 O autômato celular probailístico determinado por p0 é o processo markoviano (ηn )n com espaço de estado X e probabilidades de transição p(dσ, η). Notação 1 Seja Ir := {i = (i1 , . . . , id ) ∈ Zd : −r ≤ i1 , . . . , id ≤ r}. Como há tão dois estados possíveis para cada sítio podemos caracterizar o autômato celular 21 5 Autômatos Celulares Probabilísticos probabilístico utilizando a família de probabilidades de transição {p(J) : J ∈ ℘(Ir )}, onde p(J) := P{ηt+1 (z) = 1|ηt (z + j) = 1 : j ∈ J}. d Observação 8 Logo, um autômato celular probabilístico com espaço de estados {0, 1}Z está completamente caracterizado por um número positivo r chamado radio do autômato e um conjunto de probabilidades de transição {p(J) : J ∈ ℘(Ir )}. 5.4 Operadores de transição No espaço de Banach C(X) podemos definir um operador de transição P dado por Z P f (η) = f (σ)p(dσ|η). A partir deste operador e seus iterados podemos definir uma sequência de medidas de probabilidades em X da seguinte forma νn = νn−1 P = νP n , n ∈]N e ν0 = ν. Para qualquer medida de probabilidade µ em X temos que Z Z f (σ)µP (dσ) = P f (σ)µ(dσ). Observação 9 Note que νn é simplesmente a distribuição do processo no instante n. 5.5 Ergodicidade Para poder definir o conceito de ergodicidade precisamos intoduzir o conceito de medida invariante. Definição 9 Seja µ uma medida de probabilidade em X. Diremos que µ é invariante para o autômato celular probabilístico com operador de transição P se, e somente se µ satisfaz a seguinte equação µP = µ 22 5 Autômatos Celulares Probabilísticos Observação 10 Note que µ é uma medida invariante para um autômato se, e somente se, o estado inicial do processo for escolhido de acordo com a medida µ e a distribuição do processo não mudar ao longo do tempo. Isto é, se νn = µ ∀ n ∈ N. Agora podemos definir o conceito de ergodicidade. Definição 10 Diremos que um autômato celular probabiístico é ergódico se, e somente se, para toda medida inicial µ há convergência a única medida invariante: µn → ν, no sentido fraco quando n ↑ ∞. Isto é, se Z lim n→∞ Z f dµn = X f dν, X para cada f ∈ Cb (X). Observação 11 Pelo teorema de Tychonoff sabemos que o espaço de estado ou de configurações X = {0, 1}Z é compacto. Assim sendo, temos que Cb (X) = C(X). 5.5.1 A medida de probabilidade invariante Definição 11 Seja T uma transformação que preserva medida do espaço de probabilidade (X, F, µ), onde F é a σ-álgebra gerada pelos conjuntos cilíndricos em X. Dizemos que uma medida de probabilidade µ é T -mixing se ∀ U, V ∈ F lim µ(U ∩ T −n V ) = µ(U )µ(V ). n→∞ Dado que a família dos conjuntos cilíndricos geram a σ-álgebra F, segue-se que a medida µ é T -mixing quando esta última reláCão seja satisfeita por qualquer par de conjuntos cilíndricos U e V (para mais detalhes veja [38]). 5.6 Principais resultados e exemplos Um autômato probabilístico de radio r é chamado atrativo se para qualquer J ⊂ Ir e j ∈ Ir temos que p(J ∪ {j}) ≥ p(J). Aqui consideramos a seguinte subclase de autômatos probabilísticos atratívos 23 5 Autômatos Celulares Probabilísticos Definição 12 Dizemos que um autômato celular probabilístico de dois estados e de rario r pertence a C se suas probabilidades de transição satisfazem p(J) = X λ(J 0 ) J 0 ⊆J para qualquer J ∈ ℘(Ir ) onde λ é alguma aplicação de P(Ir ) → [0, 1). Ir . A seguinte proposição dá condições suficientes para que um autômato celular probabilístico atratívo pertença a C. Proposição 2 Um autômato celular probabilístico de dois estados e de rario r, η. pertence a C se suas probabilidades de transição satisfazerem as seguintes desigualdades: (a) para qualquer i ∈ Ir , p({i}) ≥ p(∅). (b) Para qualquer 1 ≤ k ≤ |Ir | − 1 e para qualquer j0 , . . . , jk ∈ Ir p({j0 , . . . , jk }) ≥ (−1)k p(∅) − k−1 X (−1)k+1−n n=0 X p({l0 , . . . ln }). {l0 ,...,ln }⊂{j0 ,...,jk } Teorema 4 Seja η. um autômato celular probabilístico de dois estados, d-dimensional e de radio r que pertence a C. Se p(Ir ) < 1 então η. é um autômato celular probabilístico ergódico. Observação 12 Quando p(Ir ) = 1 o autômato probabilístico pode não ser ergódico. Por exemplo, se λ(∅) = 0 existem pelo menos duas medidas invariantes. A saber, δ∞ 0∞ e δ∞ 1∞ . Corolário 1 Nas condições do Teorema 4 (p(Ir ) < 1), se λ(∅) = 0 então δ∞ 0∞ é a única medida invariante. Teorema 5 Seja η. um autômato celular probabilístico unidimensional ∈ C de radio r com p(Ir ) =: D ∈ [0, 1). Logo„ a única medida invariante µ é shift-mixing. Mais ainda, se D 6= 0, para qualquer par de cilíndros [U ]0 = [u0 . . . uk ]0 , [V ]0 = [v0 . . . vk0 ]0 e t ≥ |U | + |V | temos que |µ([U ]0 ∩ σ −t [V ]0 ) − µ([U ]0 ) × µ([V ]0 )| ≤ exp (−a × t) × K(U, V ), onde σ é o shift em {0, 1}Z , a = 1/2r × ln(1/D) e K(U, V ) é uma constante que depende apenas de U , V , D and r. 24 5 Autômatos Celulares Probabilísticos Observação 13 Este útlimo resultado pode ser estendido a autóamtos celulares probabilísticos d-dimensionais. 5.7 Exemplos e comparações com resultados conhecidos 5.7.1 O modelo de Domany-Kinzel Este é um autômato celular probabilístico unidimensional η. de radio r = 1 introduzido em [7] com probabilidades de transição P{ηt+1 (z) = 1|ηt (z − 1, z, z + 1) = 000 ou 010} = p(∅) = p({0}) = a0 , P{ηt+1 (z) = 1|ηt (z − 1, z, z + 1) = 100 ou 110} = p({−1}) = p({−1, 0}) = a1 , P{ηt+1 (z) = 1|ηt (z − 1, z, z + 1) = 001 ou 011} = p({1}) = p({0, 1}) = a1 e P{ηt+1 (z) = 1|ηt (z − 1, z, z + 1) = 101 ou 111} = p({−1, 1}) = p({−1, 0, 1}) = a2 , onde, para qualquer subconjunto V ⊂ Z, η(V ) ∈ {0, 1}V denota a restrição de uma configuração η ∈ {0, 1}Z ao conjunto de posições em V . Utilizando a proposição 2 temos que η. ∈ C desde que p({−1, 1}) ≥ p({−1}) + p({1})−p(∅), que por sua vez é equivalente à condição a2 ≥ 2a1 −a0 . Do Teorema 4 o autômato probabilístico η. é ergódico se, e somente se, p(Ir ) = p({−1, 0, 1}) = a2 < 1. Do Teorema 5 a única medida invariante é shift-mixing com decaimento exponencial das correlações espaciais. Mais especificamente, para qualquer par de cilindros [U ]0 e [V ]0 and para todo t ≥ |U | + |V | temos que |µ([U ]0 ∩ σ −t [V ]0 ) − µ([U ]0 ) × µ([V ]0 )| ≤ K exp (−(1/2 ln (1/a2 ))t), onde K pode ser calculada explicitamente. 25 5 Autômatos Celulares Probabilísticos 5.7.2 Exemplo bidimensional Seja η um autômato probabilístico bidimensional, de radio um e com dois estados possíver por cada sítio. Neste caso I1 = {(l, k)| − 1 ≤ l, k ≤ 1} é um retângulo de 9 sítios. As probabilidades de transição {p(J)|J ⊆ I1 } of η. estão dadas por p(J) = α |J| X Ck9 = α × 2|J| k=0 onde Ckl são os coeficientes binomiais. Este autômato probabilístico pertence a C já que para qualquer J ⊆ I1 podemos esP crever λ(J) = α obtendo P (J) = J 0 ⊆J λ(J 0 ). Este autômato é uma especie de genralização a duas dimensões do modelo de Domany-Kinzel com só um parâmetro. A condição suficiente de ergodicidade é p(Ir ) < 1 que por sua vez implica α × 29 < 1 (α < 2−9 ). A constante de decaimento de correlações é dada por a = 21 ln(1/(29 × α)). 5.7.3 Comparação com as condições de Dobrushin Em [8], Dobrushin da condições suficientes de ergodicidade para sistemas de partículas interagentes. Utilizando a notação introduzida por Coletti e Tisseur a referida condição de Dobrushin poder ser traduzida como γ < 1 (veja [31] and [32]), onde γ= X j∈Ir sup |p(J ∪ {j}) − p(J)|. J⊆Ir No caso do modelo de Domany-Kinsel, o qual pertence à clase C, temos que γ = sup |p(J ∪ {−1}) − p(J)| + sup |p(J ∪ {1}) − p(J)| = 2(a2 − a1 ) J⊆Ir J⊆Ir já que η. ∈ C (a2 ≥ 2a1 − a0 ). Se a2 < 1 (condição do Teorema 4) e 2(a2 − a1 ) ≥ 1 a condição de suficiência de Dobrushin não pode ser aplicada. Já no caso do exemplo bidimensional temos que γ=α 9 X ! k × Ck9 . k=1 Neste caso γ > p(Ir ) e mesmo que γ < 1 a constante do decaimento de correlações 1 ln(1/(p(Ir )) é mairo do que 12 ln(1/(γ)), que é a constante de correlações dada em 2 26 5 Autômatos Celulares Probabilísticos [31]. De forma geral, se um autômato probabilístico pertence à C a condição de suficiência p(Ir ) < 1 pode ser rescrita como p(Ir ) = X λ(J) < 1 J⊆Ir e a condição de suficiência de Dobrushin pode ser rescrita como X γ= λ(J) × |J| < 1. J6=∅, J⊆Ir 5.8 Exemplos de autômatos celulares probabilísticos 5.8.1 Modelo do votante a vizinhos mais próximos O modelo do votante a vizinhos mais próximos é um autômato celular probabilístico (ηn )n com espaço de estados {−1, 1}Z e probabilidades de transição dadas por px (.|η) = 1 2 X y||y−x|=1 |η(x) − η(x + y)| . 2 Este sistema não é ergódico já que admite pelo menos duas medidas invariantes: as medidas que dão massa total (probabilidade 1) às configurações todos um e todos menos um respectivamente. Isto é, δ1 e δ−1 onde 1 ∈ {−1, 1}Z é definida como 1(x) = 1 ∀ x ∈ Z. A configuração −1 é definida análogamente. 5.8.2 Modelo do votante com maioria determinística Neste caso a probabilidade de transição do autômato celular probabilístico é dada por X |η(x) − η(x + y)| px (.|η) = 1{ > 1}. 2 y||y−x|=1 favorecendo mudanças do spin caso a maioria dos vizinhos mais próximos tiverem spins diferentes. 27 5 Autômatos Celulares Probabilísticos 5.9 Ergodicidade de autômatos celulares probabilísticos Estamos em condições de enunciar o resultado que motivou o título deste trabalho. Seja A um conjunto finito e seja X = AZ . Seja p = {p(a|η) : a ∈ A e η ∈ X} uma família de probabilidades de transição de raio um. Como usual supomos que a família p seja invariante por translações. Seja (ηn )n o autômato celular probabilístico correspondente à família p. Definimos o coeficiente de ergodicidade associado a p por X α := inf p(a|η). a∈A η∈X O seguinte resultado da uma condição suficiente para a ergodicidade de autômatos celulares probabilísticos com coeficiente de ergodicidade α. Teorema 6 Seja (ηn )n um autômato celular probabilístico atrativo, de raio um, com espaço de estados X e com probabilidades de transição invariante por translações p = {p(a|η), a ∈ A, η ∈ X}. Suponha que o coeficiente de ergodicidade α seja tal que 1 − α < 1/3. Logo, o processo (ηn )n é ergódico. A idéia que está por trás da construção do processo é a seguinte: • Dada uma configuração inicial η ∈ X definimos η0 = η. • A cada instante de tempo n, n ∈ N o valor do processo no sítio x ∈ Z é substituido por uma variável aleatória Y(x,n) com função de densidade de probabilidade px (.|ηn−1 ). A variável aleatória Y(x,n) é construida como uma função determinística de variável uniforme associada ao par (x, n) utilizando um acoplamento maximal (Y (x,n) : η ∈ X) para a família de variáveis aleatórias Y(x,n) , η ∈ X com funções de desnsidade de probabilidade px (.|η), η ∈ X. Sem mais delongas procedemos a provar o teorema. Prova 6 Seja α o coeficiente de ergodicidade associado ao autômato celular probabilístico (ηn )n . A primeira etapa da prova consiste em realizar a construção gráfica do processo a qual nos proverá uma versão do processo de nosso interesse. 28 5 Autômatos Celulares Probabilísticos Seja {U (x, n) : (x, n) ∈ Z× ∈ N0 } uma familia de variáveis aleatórias IID com U (0, 0) ∼ U([0, 1]). Para cada (x, n) ∈ Z× ∈ N0 e cada η ∈ X podemos definir uma variável aleatória discreta Y(x,n)|η com função de probabilidade (p(a|η) : a ∈ A) utilizando apenas a variável aleatória U (x, n). Desta forma, utilizando o acoplamento maximal para a família {Y(z,n) : z ∈ Z, η ∈ X} podemos definir o processo indutivamente para uma configuração inicial η dada. A segunda parte da prova consiste em determinar a região de influência que determinará o valor do processo no instante n no sítio z para n e z dados. A idéia e utilizar a teoria de percolação dessenvolvida nestas notas para provar que a região de influência é finita com probabilidade um; isto é, o autômato esquece o passado. Note que para determinar ηn (z), isto é o valor do processo no instante n no sítio z ∈ Z devemos inspeccionar a estructura aleatória para atrás definida a partir da dinâmica do processo e do coeficiente de ergodicidade. Sejam z ∈ Z e n ∈ N0 e seja U (z, n) a variável aleatória uniforme em [0, 1] associada ao par (z, n). Existem duas possibilidades: U (z, n) ≤ α ou U (z, n) > α. Se U (z, n) ≤ α, defina ηn (z) := α−1 (U (z, n)), onde α(x) é a função definida por α(x) = X a:a≤x inf p(a|η) η∈X Neste caso o valor de ηn (z) está bem definido e é apenas uma função da variável aleatória U (z, n). Se U (z, n) > α, determine os valores do processo nos sítios z − 1, z, z + 1 no instante de tempo n − 1 e definimos o valor do processo no sitio z no instante n utilizando o acoplamento maximal de forma análoga ao caso anterior. Neste caso o valor de ηn (z) é uma função determinística de U (z, n) e de ηn−1 (z−1), ηn−1 (z) e ηn−1 (z + 1). O valor de ηn (z) está bem definido desde que os valores ηn−1 (z − 1), ηn−1 (z) e ηn−1 (z + 1) o estejam. Note que o esquema recursivo para definir o valor de ηn (z) origina um modelo de percolação orientada para atrás no tempo. Para z ∈ Z seja V (z) = {z − 1, z, z + 1}. Para (n, z) definimos a primeira geração de (n,z) ancestros de (n, z) da seguinte forma: Se U (n, z) ≤ α definimos A1 = ∅. Se U (n, z) > α (n,z) definimos A1 = V (z). Indutivamente, definimos a n-ésima geração de ancestros de (n, z), n ≥ 2 da seguinte 29 5 Autômatos Celulares Probabilísticos forma: (n,z) A(n,z) = ∪x0 ∈A(n,z) A1 n . n−1 O clan de ancestros de (n, z) é definido por A(n,z) = ∪m≥1 A(n,z) m (n,z) Diremos que há percolação orientada para atrás se Am 6= ∅ para cada m ∈ N. Observamos que este modelo de percolação corresponde-se exatamente ao modelo de percolação de sítios estudado na seção 3 com probabilidade do sítio estar aberto p = 1 − α. Desta forma, se p < 1/3 não há percolação com probabilidade um. Desta forma vemos que de fato o processo esquece o passado. Por fim, observamos que sendo o autômato um processo atrativo temos que existem (em princípio) duas medidas invariantes para o processo (Ver prova na próxima seção). Porém, pelo argumentado no parágrafo anterior estas duas distribuições coincidem. Provando, desta forma, a ergodicidade do processo. Observação 14 Este tipo de construção para provar ergodicidade foi introduzido por Ferrari [18], [19], [20] para o estudo de hidrodinâmica e ergodicidade em dinâmicas de GlauberKawasaky. No caso de dinâmicas de Glauber com spins contínuos este tipo de idéias foi utilizada por Grynberg [16]. 30 6 ATRATORES A LEATÓRIOS Por último, consideramos a noção de atrator aleatório para sistemas dinâmicos aleatórios (processos estocásticos). O objetivo é apresentar a riqueza desta teoria para que o leitor interessado se aprofunde nela e descobra a quantidade de problemas em aberto que existem na área. Isto tal vez possa ser explicado ao comparar a idade da probabilidade com outras áreas da matemática. Deve ser levado em consideração que só em 1933, com o trabalho de Kolomogorov, os conceitos probabilísticos foram definidos de forma rigorosa. Desde este ponto de vista, a probabilidade é vista como uma área moderna da Matemática. Sem mais delongas vamos introduzir, então, o conceito de atrator para processos estocásticos. Primeiro, será necessário introduzir um pouco de notação. 6.1 Sistemas dinâmicos aleatórios 6.1.1 Definições gerais Definição 13 Um sistema dinâmica métrico θ = ((Ω, F, P), (θt )t∈T ) com conjunto de índices temporal T (T = Z ou T = R) é um espaço de probabilidade (Ω, F, P) junto com uma família de transformações {θt : Ω → Ω, t ∈ T } tal que: 1. (t, ω) 7→ θt ω é mensurável 2. (θt )t∈T é um grupo a um parâmetro, isto é θ0 ≡ IdΩ , θt ◦ θs = θt+s para todo s, t ∈ T 3. Para cada t ∈ T, θt preserva medida, isto é P[θt ∈ B] = P[B] para cada B ∈ F. Para a seguinte definição supomos que (X, d) é um espaço polonês. Isto é, X é um 31 6 Atratores Aleatórios espaço métrico completo e separável e seja B(X) a σ-álgebra de Borel correspondente. Definição 14 Um sistema dinâmico aleatório com tempo T+ e espaço de estado X sobre um sistema dinâmico métrico θ, é uma aplicação mensurável ϕ : T+ × Ω × X −→ X, (t, ω, x) 7−→ ϕ(t, ω, x) ≡ ϕ(t, ω)x tal que a família de aplicações {ϕ(t, ω), t ∈ T, ω ∈ Ω} satisfaz a propriedade do cociclo ϕ(0, ω) = IdX , ϕ(t + s, ω) = ϕ(t, θs ω) ◦ ϕ(s, ω) para cada s, t ∈ T e ω ∈ Ω. O estado ϕ(t, θs ω)x é o estado do sistema dinâmico após t unidades de tempo começando no instante s no estado x. A propriedade do cociclo ϕ(t + s, ω) = ϕ(t, θs ω) ◦ ϕ(s, ω) diz que se começarmos no estado x no instante 0, logo o estado do sistema após s + t unidades de tempo é o mesmo que se começarmos no instante s no estado ϕ(s, ω)x e esperarmos t unidades de tempo (propriedade de semifluxo). 6.1.2 Conjuntos aleatórios, pontos de equilíbrio e atratores Definição 15 Seja (X, d) um espaço polonês e (Ω, F) um espaço mensurável. Um conjunto aleatório D é uma aplicação D : Ω −→ P(X) tal que para cada ω ∈ Ω, D(ω) é um subconjunto fechado de X e, para cada x ∈ X a aplicação ω 7−→ d(x, D(ω)) é mensurável. Um conjunto aleatório compacto D é um conjunto aleatório D tal que para cada ω ∈ Ω, D(ω) é compacto. Definição 16 Um conjunto aleatório D é dito ϕ-invariante se, para cada t ∈ T+ e ω ∈ Ω, temos ϕ(t, ω)D(ω) = D(θt ω). 32 6 Atratores Aleatórios Observação 15 Se na definição acima substituimos o = por ⊂ dizemos que D é ϕ-a frente invariante. Definição 17 Um ponto de equilíbrio é um ponto aleatório que é ϕ-invariante. Observação 16 Um ponto de equilíbrio e em sistemas dinâmicos aleatórios é o análogo de pontos fixos em sistemas dinâmicos determinísticos. A seguir introduzimos a noção de trajetórias pullback. Definição 18 Seja ω ∈ Ω. A função t 7−→ ϕ(t, θ−t ω) é chamada trajetória pullback começando em x. Agora estamos em condições de discutir a noção de atratores aleatórios. Definição 19 Seja B ⊂ P(X). Um B-atrator aleatório pullback para um sistema dinâmico aleatório aleatório ϕ é um conjunto compacto aleatório A que é ϕ-invariante e atrai todo B ∈ B, isto é, para todo B ∈ B tem-se que lim d(ϕ(t, θ−t ω)B, D(ω)) = 0 q.c. t→∞ onde d(A, B) = sup d(x, B) = sup{ inf d(x, y)}. x∈A x∈A y∈B Observação 17 Se na definição acima B = {B ⊂ X | B é limitado } dizemos que A é um atrator global para ϕ. Agora nosso propósito é provar a existência de atratores aleatórios. Porém mas uma definição faz-se necesária. Definição 20 Seja D um conjunto aleatório. O conjunto pullback, ω-limite de D é definido por ΩD (ω) = ∩T ≥0 ∪t≥T ϕ(t, θ−t ω)D(θ−t ω). Observação 18 Note que y ∈ ΩD (ω) se, e somente se, existem sequências (tn )n∈N ⊂ T+ com lim tn = ∞ e (xn )n∈N ⊂ X com xn ∈ D(θ−tn ω) para cada n, tal que y = n→∞ lim ϕ(tn , θ−tn ω)xn . n→∞ Teorema 7 Seja ϕ um sistema dinâmica aleatório com espaço de estados compacto X. Logo, cada ΩX é um B-atrator para cada família de conjuntos B. 33 6 Atratores Aleatórios Prova 7 Da compacidade de X segue-se que ΩX 6= ∅. Mais ainda, é uma multi-função ϕ-invariante que atrai todo subconjunto de X. Mais ainda, ΩX é um conjunto aleatório compacto. Como ϕ é mensurável e ϕ(t, ω) é contínua temos que para cada t fixo, a aplicação ω 7→ ϕ(t, θ−t ω)X define um conjunto aleatório compacto. Mais ainda, a família de conjuntos aleatórios {ϕ(t, θ−t .)X; t ≥ 0} é decrescente em t. Utilizando a propriedade de cocíclo, para cada h > 0 temos ϕ(t + h, θ−t−h ω)X = ϕ(t, θ−t ω)ϕ(h, θ−t−h ω)X ⊂ ϕ(t, θ−t ω)X Logo, ΩX (ω) = ∩t>0 ϕ(t, θ−t ω)X = ∩n∈Z+ ϕ(n,θ−n ω)X. Logo, ΩX é um conjunto compacto aleatório. 6.2 Sistemas dinâmicos aleatórios monótonos Nestas notas nos focamos em uma família restrita de sistemas dinâmicos aleatórios. A saber, sistemas monótonos. Definição 21 Um sistema dinâmico aleatório ϕ é dito monótono se x ≤ y implica ϕ(t, ω)x ≤ ϕ(t, ω)y para cada t ∈ T + e ω ∈ Ω. Para sistemas dinâmicos monótonos, se o espaço de estado têm um elemnto minimal 0 e um elemento maximal 1 em X tal que 0 ≤ x ≤ 1 para cada x ∈ X e se toda sequência monótona em X convergir a um ponto de X, então podemos obter dois pontos de equilíbrio. De fato, para ω ∈ Ω fixo a família de pontos em X{ϕ(t, θ−t ω)1}t∈T+ é decrescente em t. Isto é, s ≤ t ⇒ ϕ(s, θ−s ω)1 ≥ ϕ(t, θ−t ω)1. Esta propriedade segue-se facilmente da propriedade do cociclo e da monotonicidade de ϕ ϕ(t, θ−t ω)1 = ϕ(s, θ−s ω)ϕ(t − s, θ−t ω)1 ≤ ϕ(t, θ−t ω)1 34 (6.1) 6 Atratores Aleatórios Análogamente, prova-se que {ϕ(t, θ−t ω)0}t∈T+ é crescente em t. Por tanto, para cada ω ∈ Ω os seguintes limites existem σ + (ω) := lim ϕ(t, θ−t ω)1 e σ − (ω) := lim ϕ(t, θ−t ω)0. t→∞ t→∞ A seguinte proposição mostra que σ + e σ − são pontos de equilíbrio para ϕ. Proposição 3 As variáveis aleatórias σ + e σ − são pontos de equilíbrio para ϕ. Isto é, ϕ(t, ω)σ + (ω) = σ + (θt ω) e ϕ(t, ω)σ − (ω) = σ + (θt ω) para cada t ∈ T+ e ω ∈ Ω. Prova 8 Para t e ω fixo, pela continuidade de ϕ(t, ω) temos que ϕ(t, ω)σ + (ω) = ϕ(t, ω)( lim ϕ(s, θ−s ω)1) s→∞ = = = (6.2) lim ϕ(t, ω)ϕ(s, θ−s ω)1 (6.3) lim ϕ(t + s, θ−s ω)1 (6.4) lim ϕ(t + s, θ−(t+s) ω)1 = σ + (θt ω). (6.5) s→∞ s→∞ s→∞ Observação 19 Note que se ϕ é uma realização de um processo markoviano então as distribuições de σ − e σ + são medidas invariantes para o processo. 6.2.1 Ergodicidade, monotonicidade e atratores Finalizamos esta modesta introdução aos atratores aleatórios mencionando a relação existente entre atratatores aleatórios para sistemas dinâmicos aleatórios, monotonicidade e ergodicidade. Muitos autores tem provado a existência de atratores aleatórios para sistemas dinâmicos aleatórios particulares utilizando fortemente alguma característica peculiar do processo em consideração tornando a prova obviamente processo dependente. Michael Scheutzow and Igor Chueshov ([5], [6]) vêm dessenvolvendo um trabalho sistemático na área de sistemas dinâmicos aleatórios; primeiro dando uma boa definição de atrator aleatório já que ao contrário do que ocorre em sistemas dinâmicos clássicos mesmo a noção correta de atrator aleatório não é clara. Em segundo lugar, estão dedicados a tarefa de apresentar condições suficientes para a existência de atratores aleatórios gerais o suficiente como para que possam ser aplicadas a uma 35 6 Atratores Aleatórios determinada família de sistemas dinâmicos aleatórios e não apenas a um membro desta família em particular. Em particular, eles provam que certos sistemas dinâmicos aleatórios monótonos e ergódicos possuim um único atrator aleatório. Antes de enunciar o resultado de Chueshov e Scheutzow introduzimos um pouco de notação. Seja V um espaço de Banach e seja V+ ⊂ V um cone. O cone V+ define uma ordem parcial em V da seguinte forma: x ≤ y se, e somente se y − x ∈ V+ . O cone V+ é dito sólido se V+ 6= ∅. Para a, b ∈ V definimos o intervalo fechado [a, b] por [a, b] = {x ∈ V : a ≤ x ≤ b}. Se o cone V+ for sólido então qualquer conjunto limitado B ⊂ V está contido em algum intervalo. Um cone V+ é dito normal se todo intervalo [a, b] for limitado. O resultado de Chueshov e Scheutzow pode ser enunciado da seguinte forma: Teorema 8 Considere um sistema dinâmico aleatório (sda) monótono e ergódico assumindo valores em um espaço de Banach V que admite um cone solido e normal V+ . Logo, o sda possui um único atrator aleatório fraco. Observação 20 A importância deste resultado está em que para para uma família de sistemas dinâmicos aleatórios o problema de achar seus atratores é transformado em um problema de determinar sua ergodicidade. Embora provar que um sda dado seja ergódico não é uma tarefa simples, provar a existência de atratores é uma tarefa mais complicada ainda. 6.2.2 Comentário Final As técnicas utilizadas na seção anterior para determinar a ergodicidade de autômatos celulares probabilísticos podem ser exploradas para determinar a existência de um único atrator forte para este tipo de processos. Isto constitue uma generalização do resultado de Chueshov e Scheutzow para uma família restrita de processos estocásticos. 36 7 A PÊNDICE Neste apêndice o leitor encontrará os conceitos mínimos necessários para ler estas notas. Desde já o conteúdo deste apêndice está longe de abordar todos os conceitos básicos da probabilidade. Para uma primeira introdução à área recomendo o livro de W. Feller [17]. Já para uma abordagem baseada em teoria da medida o leitor pode consultar o livro de N Shiryaev [33]. Por outro lado, o conteudo de este apêndice corresponde a notas de aula escritas em co-autoria com E. Lebensztayn [4]. 7.1 Probabilidade: Definições e propriedades Um experimento é aleatório se, ao ser repetido nas mesmas condições, é impossível prever antecipadamente seu resultado. Em contrapartida, um experimento é determinístico se, quando repetido nas mesmas condições, conduz ao mesmo resultado. Denominamos espaço amostral o conjunto de todos os resultados possíveis de um experimento aleatório, e o denotamos por Ω. Definição 22 Uma probabilidade é uma função P a valores reais definida em uma classe F de subconjuntos (eventos) de um espaço amostral Ω que satisfaz as seguintes condições: 1. 0 ≤ P[A] ≤ 1 para cada A ∈ F, 2. P[Ω] = 1, 3. Aditividade enumerável: para qualquer sequência A1 , A2 , . . . ∈ F de eventos dois a dois disjuntos, ∞ X ∞ P[∪i=1 Ai ] = P[Ai ]. i=1 A tripla (Ω, F, P) é chamada um espaço de probabilidade. Observação 21 No caso de Ω finito ou infinito enumerável, podemos definir a probabilidade na clsse F de todos os subconjuntos de Ω, a qual é usualmente denotada por 2Ω ou P(Ω) 37 7 Apêndice (conjunto das partes de Ω). Neste caso, escrevendo Ω como Ω = {ω1 , ω2 , . . .}, associamos ∞ X a cada ωi , i = 1, 2, . . ., um número p(ωi ) tal que p(ωi ) ≥ 0 e p(ωi ) = 1. Para i = i=1 1, 2, . . . mp(ωi ) é a probabilidade do evento simples {ωi }. A probabilidade de um evento A ⊂ Ω é definida por X P[A] = p(ωi ). i:ωi ∈A Quando Ω é infinito não enumerável, é em geral impossível associar uma probabilidade bem definida a todos os subconjuntos de Ω. Define-se então uma probabilidade em uma classe mais restrita de subconjuntos de Ω. Esta família é chamada σ-álgebra de subconjuntos de Ω. Para mais detalhes o leitor interessado deve aprofundar-se em estudos de teoria da medida. 7.2 Propriedades de uma probabilidade 1. P[∅] = 0. 2. Aditividade finita: Se A1 , . . . , An são eventos dois a dois disjuntos, então P[∪ni=1 Ai ] = n X P[Ai ]. i=1 3. P[Ac ] = 1 − P[A]. 4. Se A, B ∈ F e A ⊂ B então P[A] ≤ P[B]. 5. Subaditividade enumerável: Para qualquer sequência A1 , A2 , . . . de eventos, P[∪∞ i=1 Ai ] ≤ ∞ X P[Ai ]. i=1 7.3 Probabilidade condicional e independência Seja (Ω, F, P) um espaço de probabilidade. Para eventos A, B com P[B] > 0, a probabilidade condicional de A dado que B ocorreu é definida por P[A|B] = P[A ∩ B] . P[B] Por outro lado, dizemos que dois eventos A e B são independentes se P[A ∩ B] = P[A]P[B]. 38 7 Apêndice Os eventos A1 , . . . , An são independentes se para qualquer escolha de k(2 ≤ k ≤ n) e índices 1 ≤ i1 < i2 < . . . < ik ≤ n, P[Ai1 ∩ Ai2 ∩ . . . ∩ Aik ] = P[Ai1 ]P[Ai2 ] . . . P[Aik ]. 7.4 Conjuntos limites e continuidade da probabilidade Sejam A1 , A2 , . . . eventos em um espaço de probabilidade (Ω, F, P). Por An ↑ A denotamos que A1 ⊂ A2 ⊂ A3 ⊂ . . . e A = ∪∞ n=1 An . Por An ↓ A denotamos que A1 ⊃ A2 ⊃ A3 ⊃ . . . e A = ∪∞ n=1 An . 7.4.1 Continuidade por baixo da probabilidade Se An ↑ A, então P[An ] ↑ P[A] quando n → ∞. 7.4.2 Continuidade por cima da probabilidade Se An ↓ A, então P[An ] ↓ P[A] quando n → ∞. 7.5 Variáveis Aleatórias: Definições Uma variável aleatória X em um espaço de probabilidade (Ω, F, P) é uma função a valores reais definida em Ω, tal que [X ≤ x] = {ω ∈ Ω : X(ω) ≤ x} ∈ F para cada x ∈ R. As variáveis aleatórias que assumem valores em um conjunto finito ou infinito enumerável são chamadas discretas e aquelas que assumem valores em um intervalo da reta real são chamadas contínuas. 39 7 Apêndice Observação 22 Se X é uma variável aleatória assumindo valores em {x1 , x2 , . . .} ⊂ R tal que X(ω) ∈ {x1 , x2 , . . .}, ∀ ω ∈ Ω então a função p(x) = P[X = x] é chamada função de ∞ X probabilidade de X. Note que p(xi ) = P[Ω] = 1. i=1 7.6 Independência de variáveis aleatórias As variáveis aleatórias X1 , . . . , Xn são independentes se para quaisquer conjuntos Ai ⊂ R (borelianos), i = 1, . . . , n, P[X1 ∈ A1 , . . . , Xn ∈ An ] = n Y P[Xi ∈ Ai ]. i=1 7.6.1 Critério para independência no caso discreto: As variáveis aleatórias discretas X1 , . . . , Xn são independentes se, e somente se, P[X1 = x1 , . . . , Xn = xn ] = P[X1 = x1 ] . . . P[Xn = xn ] para qualquer escolha de x1 , . . . , xn . 40 R EFERÊNCIAS B IBLIOGRÁFICAS [1] E. Andjel, A. Galves, Introdução à Teoria da Percolação, IMPA. [2] A. Boborowski, Functional Analysis for Probability and Stochastic Processes, Cambridge, University Press (2005) [3] C. F. Coletti, P. Tisseur, Invariant Measures and Decay of Correlations for a Class of Ergodic Probabilistic Cellular Automata. Journal of Statistical Physics, v. 140, p. 103-121, 2010. [4] C. F. Coletti, E. Lebensztayn. Probabilidade: Teoria e Exercícios. Notas de Aula. Programa de Pós-Graduação do IME-USP, https://sites.google.com/site/lebensztayn/livro . [5] I. Chueshov, Monotone random systems: theory and applications, Volume 1779, Lecture notes on Mathematics, Springer. [6] I. Chueshov, M. Scheutzow, (2004). On the structure of attractors and invariant measures for a class of monotone random systems, Dynamical Systems: An International Journal, 19, 127144. [7] E. Domany, W. Kinzel, Equivalence of cellular automata to ising models and directed percolation, Phys. Rev. Lett. 53, 311-314 (1984). [8] R. L. Dobrushin, Markov processes with a large number of locally interacting components: Existence of a limit process and its ergodicity, Problems Inform. Transmission 7, 149-164 (1971) [9] R. Durrett, Lectures Notes on Particle Systems and Percolation, Wadsworth and Brooks/Cole Advanced Books and Software, 1988. [10] R. Durrett, Probability: Theory and Examples, Duxbury Press; 2 edition (August 30, 1995) [11] R. Durrett, Ten Lectures on Particle Systems, Lecture Notes in Mathematics Volume 1608, Springer. 41 Referências Bibliográficas [12] P. Gacs, Reliable Cellular Automata with Self-Organization, Journal of Statistical Physics, 103, 1-2 (2001) 45-267 (2001) [13] L. F. Gray, A Reader’s Guide to Gacs’s ”Positive Rates” Paper, Journal of Stat. Phys. 103, 1-2 1-44 (2001) [14] G. Grimmett, P. Hiemer, Directed Percolation and Random Walk, arXiv: math/0108062v1. [15] G. Grimett, Percolation, Springer; 1 edition (April 1989). [16] S. P. Grynberg, Construcción y simulación perfecta de campos markovianos con spines acotados, Tese de doutorado em Matemática, UBA, 2009. [17] W. Feller, An Introduction to Probability Theory and Its Applications, Vol. 1, 3rd Edition, (1968). [18] A. De Masi, P.A. Ferrari, J.L. Lebowitz, Reaction-diffusion equations for interacting particle systems, J. Stat. Phys. 44 3/4: 589-644, 1986. [19] P. A. Ferrari, Ergodicity for spin systems with stirring, Ann. Probab. 18(4), 15231538 (1990). [20] P. A. Ferrari, Ergodicity for a class of Probabilistic Cellular automata, Rev. Mat. Apl. 12 93-102 (1991) [21] P. A. Ferrari, A. Galves, Coupling and Regeneration for Stochastic Processes, Notes for a minicourse presented in XIII Escuela Venezolana de Matematicas, 2000, http://www.ime.usp.br/ pablo/publications.html . [22] L. R. G. Fontes, Notas em Percolação, IMPA, http://www.ime.usp.br/ lrenato/per.pdf . [23] N. Konno, Dualities for a class of finite range probabilistic cellular automata in one dimension, Journal of Statistical Physics, 106, 5-6, 915-922 (2002) [24] N. Konno, Self-duality for multi-state probabilistic cellular automata with finite range interactions, Journal of Statistical Physics, 106, 5-6, 923-930 (2002) [25] T. M. Liggett, Interacting particle systems. Springer-Verlag, New York (1985) [26] T. M. Liggett, Survival of discrete time growth models, with application to oriented percolation, Ann. Appl. Prob., 5 (1995), 613-636. 42 Referências Bibliográficas [27] T. Lindvall, Lectures on the Coupling Method, Dover Publications (August 30, 2002). [28] F.J Lopez, G. Sanz, Stochastic Comparison for general Probabilistic Cellular Automata, Statistics and Probability letters 46 401-410 (2000) [29] F. J. Lopez, G. Sanz, Duality for general interacting particle systems, Markov Process and Relat. Fields 6 305-328 (2000) [30] F.J Lopez, G. Sanz and M. Sobottka, Dualities for Multi-State Probabilistic Cellular Automata, Journal of statistical Mechanics P05006 (2008) [31] C. Maes and S. Shlosman, Ergodicity of Probabilistic Cellular Automata: A constructive Criterion, Commun. Math. Phys. 135, 233-251 (1991) [32] C. Maes and S. Shlosman, When is an Interacting Particle System Ergodic?, Commun. Math. Phys. 151, 447-466 (1993) [33] A. N. Shyriaev, Probability (Graduate Texts in Mathematics) (v. 95), Springer; 2nd edition (December 8, 1995). [34] O. N. Stavskaja and I. I. Pjatetskii-Shapiro, Homogeneous networks of spontaneously active elements, Problemy Kibernet. 20:91106 (in Russian) (1968) [35] H. Thorisson, Coupling, Stationarity, and Regeneration. Probability and its Applications. Springer. [36] A. Toom, Stable an attractive trajectories in multicomponent systems, Advances in Probabilities 6 549-575 (1980) [37] A. L. Toom, N. B. Vasilyev, O. N. Stavskaya, G. L. Kurdyumov, S. A. Pirogov, Discrete local Markov Systems. In: R. L. Dobrushin, V. I. Kryukov, A. L. Toom (Eds.), Stochastic Cellular Systems: Ergodicity, Memory, Morphogenesis. Manchester University Press, Manchester, pp. 1-182 (1990) [38] P. Walters, An introduction to Ergodic Theory, Graduate Texts in Mathematica 79, Springer (2000) 43