Mecânica Estatística - Instituto de Física

Propaganda
Mecânica Estatística
Daniel A. Stariolo
Programa de Pós-Graduação em Física
Instituto de Física
Universidade Federal do Rio Grande do Sul
2014
i
Sumário
1 Fundamentos da Mecânica Estatística
1.1 O que é a Mecânica Estatística ? .
1.2 Ergodicidade e equilíbrio . . . . .
1.2.1 O Teorema de Liouville .
1.2.2 A hipótese ergódica . . .
1.3 Sistemas quânticos . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Teoria de ensembles estatísticos
2.1 O ensemble microcanônico . . . . . . . . . . . . . .
2.1.1 Gás ideal monoatômico clássico . . . . . . .
2.1.2 A formulação de Gibbs . . . . . . . . . . . .
2.2 O ensemble canônico . . . . . . . . . . . . . . . . .
2.2.1 A densidade de estados e a função de partição
2.2.2 Flutuações da energia . . . . . . . . . . . . .
2.2.3 Gás ideal no ensemble canônico . . . . . . .
2.3 Fluidos clássicos não ideais . . . . . . . . . . . . . .
2.4 O ensemble Grande Canônico . . . . . . . . . . . .
2.4.1 Flutuações no número de partículas . . . . .
2.4.2 Adsorção em superfícies . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Estatísticas quânticas
3.1 Sistemas de partículas indistinguíveis . . . . . . . . . .
3.2 Gases ideais quânticos . . . . . . . . . . . . . . . . . .
3.2.1 O gás de Maxwell-Boltzmann e o limite clássico
3.2.2 Estatística de Bose-Einstein . . . . . . . . . . .
3.2.3 Estatística de Fermi-Dirac . . . . . . . . . . . .
ii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
2
3
3
6
8
.
.
.
.
.
.
.
.
.
.
.
12
12
15
17
19
21
22
25
26
33
36
38
.
.
.
.
.
42
42
47
47
51
51
Daniel A. Stariolo - IF-UFRGS - 2014
iii
4 Gás ideal de Bose-Einstein
4.1 A condensação de Bose-Einstein
4.2 Radiação de corpo negro . . . .
4.2.1 A lei de Planck . . . . .
4.2.2 O gás de fótons . . . . .
52
52
63
64
66
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Gás ideal de Fermi-Dirac
5.1 Gás de Fermi completamente degenerado
(T = 0) . . . . . . . . . . . . . . . . . .
5.2 Gás de Fermi degenerado (T ≪ TF ) . . .
5.3 Magnetismo em um gás ideal de férmions
5.3.1 Paramagnetismo de Pauli . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
68
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
70
71
75
75
6 Interações, simetrias e ordem em matéria condensada
6.1 Líquidos e gases . . . . . . . . . . . . . . . . . . .
6.2 Redes cristalinas . . . . . . . . . . . . . . . . . .
6.3 Sistemas magnéticos . . . . . . . . . . . . . . . .
6.4 Entre os líquidos e os cristais: os cristais líquidos .
6.5 Simetrias e parâmetros de ordem . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
81
81
82
85
89
95
.
.
.
.
.
.
.
.
.
.
.
98
98
103
103
108
109
113
114
117
121
123
126
7 Transições de fase e fenômenos críticos
7.1 O modelo de Ising em d = 1: solução exata . . . . . . . .
7.2 Teoria de campo médio do modelo de Ising . . . . . . . .
7.2.1 Aproximação de Bragg-Williams . . . . . . . . .
7.3 A teoria de Landau de transições de fase . . . . . . . . . .
7.3.1 Transições de fase continuas . . . . . . . . . . . .
7.3.2 Transições de primeira ordem na teoria de Landau
7.4 Flutuações do parâmetro de ordem . . . . . . . . . . . . .
7.5 Funções de correlação . . . . . . . . . . . . . . . . . . . .
7.5.1 Correlações na teoria de Landau . . . . . . . . . .
7.6 Sistemas com simetria O(n) . . . . . . . . . . . . . . . .
7.7 Validade da teoria de campo médio: o critério de Ginzburg
Referências Bibliográficas
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
132
Capítulo 1
Fundamentos da Mecânica
Estatística
1
Daniel A. Stariolo - IF-UFRGS - 2014
2
1.1 O que é a Mecânica Estatística ?
A Termodinâmica é uma teoria macroscópica, com um formalismo elegante, de
grande generalidade, construido sobre poucas hipóteses fundamentais. O conceito
central da termodinâmica é a entropia, a qual é definida de forma um tanto abstrata, através de um princípio variacional que determina que, em um sistema
isolado, o estado de equilíbrio termodinâmico do sistema é aquele estado macroscópico para o qual a entropia é máxima. A Termodinâmica descreve os efeitos
macroscópicos de sistemas formados por um grande número de entes microscópicos, sejam partículas, células, spins, etc. que obedecem as leis fundamentais da
Mecânica Clássica (leis de Newton) ou da Mecânica Quântica (equação de Schroedinger), segundo o caso. Uma descrição microscópica destes sistemas deve
então partir necessariamente das leis da Mecânica. A Mecânica Estatística é uma
teoria probabilística que estabelece a conexão entre os dois níveis de descrição:
o macroscópico (Termodinâmica) e o microscópico (Mecânica).
Ao tentar descrever as propriedades de um sistema formado por um grande
número de partículas se torna necessário recorrer a uma descrição probabilística
do estado de um sistema. Um estado microscópico, ou microestado de um sistema de N partículas, corresponde ao conjunto dos graus de liberdade do mesmo,
por exemplo as 3N coordenadas e os 3N momentos generalizados em um sistema clássico, ou ao conjunto de números quânticos que caracterizam a função de
onda de um sistema. O conjunto de microestados compatíveis com os valores das
variáveis macroscópicas do sistema , como a energia interna U, o volume V e o
número de partículas N, constitui um macroestado ou estado macroscópico.
Descrever o estado microscópico exato de um conjunto de N partículas para
todo tempo é uma tarefa formidável. No entanto, o estado de equilíbrio termodinâmico é determinado em função de umas poucas variáveis. Além do mais, de
um ponto de vista prático ou aplicado, resulta mais importante conhecer propriedades globais ou macroscópicas da matéria, como a temperatura ou a pressão, do
que a posição e velocidade de um partícula individual em um gás ou líquido. O
programa da Mecânica Estatística é associar um peso ou probabilidade de ocorrência aos diferentes microestados e predizer o resultado médio de um conjunto
grande de medidas de um observável dado. A própria teoria fornece, por sua vez,
uma predição das flutuações que podem ocorrer nestas medidas. Como estamos
falando de resultados médios em um número grande de medidas ou observações,
vamos desenvolver um formalismo de ensembles ou conjunto de sistemas idênticos, em oposição a análise de um sistema particular. Essa é outra característica
fundamental da Mecânica Estatística.
Daniel A. Stariolo - IF-UFRGS - 2014
3
A Mecânica Estatística moderna, tal vez mais do que qualquer outra área da
Física, encontra aplicações em praticamente todas as ciências exatas e além. Embora se originou do esforço de encontrar uma conexão entre a mecânica das partículas e a Termodinâmica, o formalismo estatístico se mostrou extremamente geral
e útil na predição de propriedades tão díspares quanto a ocorrência ou não de supercondutividade de um material, a evolução de preços de produtos na bolsa de
valores, a probabilidade de ocorrência de um terremoto ou a morfologia típica de
uma colônia de células em um tecido vivo.
Por motivos históricos, a Mecânica Estatística foi desenvolvida inicialmente
para predizer propriedades macroscópicas de sistemas em equilíbrio termodinâmico. Nesse caso falamos de Mecânica Estatística do equilíbrio. No entanto,
os fundamentos da Mecânica Estatística estão na Mecânica, ou seja, nos sistemas
dinâmicos. A grande maioria dos sistemas de interesse , físicos ou não, não se
encontram em equilíbrio, como por exemplo os sistemas biológicos ou problemas
dinâmicos como a evolução de preços nas bolsas de valores. Para descrever estes
sistemas em uma abordagem probabilistica é necessário desenvolver uma Mecânica Estatística fora do equilíbrio, os métodos para descrever o equilíbrio não são
suficientes e novas técnicas são necessárias para lidar com a variável temporal.
Embora muito se sabe na atualidade sobre processos fora do equilíbrio, ainda não
se conta com um formalismo razoavelmente simples, compacto e poderoso, como
a teoria de ensembles para o equilíbrio. No presente curso, de extensão semestral,
faremos apenas uma abordagem inicial ao problema dinâmico, com o único intuito de conectar o problema mecânico com o equilíbrio estatístico. Um conceito
fundamental neste caminho é o de ergodicidade.
1.2 Ergodicidade e equilíbrio
1.2.1 O Teorema de Liouville
Consideremos um sistema clássico de N partículas, isolado em um volume V ,
cuja dinâmica obedece as equações de Hamilton. Um microestado deste sistema
fica definido pelos valores instantâneos das 3N coordenadas generalizadas qi e os
3N momentos generalizados pi :
dqi
∂H(p, q)
=
dt
∂pi
dpi
∂H(p, q)
= −
dt
∂qi
(1.1)
Daniel A. Stariolo - IF-UFRGS - 2014
4
onde i = 1, . . . , 3N, H(p, q) é o Hamiltoniano do sistema e (p, q) representa um
vetor do espaço de fase com 6N componentes. Como o sistema é isolado, H não
depende explicitamente do tempo, o sistema é conservativo e H é uma constante
do movimento que corresponde a energia mecânica:
H(p, q) = E.
(1.2)
A identidade anterior define uma superfície de energia no espaço de fase. A evolução do sistema conservativo é descrita por uma trajetória ou curva no espaço
de fase sobre a superfície de energia. Como na Mecânica Clássica cada condição
inicial (p0 , q0 ) determina de forma unívoca e evolução do sistema, trajetórias no
espaço de fase nunca se cruzam.
Para uma dada energia E do sistema, existe um conjunto infinito de microestados. Definimos a função ρ(p, q, t) como sendo a densidade de probabilidade de
encontrar o sistema em um elemento de volume dp dq no espaço de fase ao tempo
t. O conjunto de pontos (p, q) cuja probabilidade ao tempo t é ρ(p, q, t)dp dq formam um ensemble estatístico. Cada ponto representa uma cópia exata do sistema
em um microestado diferente. O conceito de ensemble estatístico foi introduzido por Josiah Willard Gibbs (1839-1903) na segunda metade do século XIX e
ocupa um rol fundamental no formalismo e interpretação da Mecânica Estatística
do equilíbrio. A densidade de probabilidade deve estar normalizada para todo
tempo:
Z
ρ(p, q, t) dp dq = 1,
(1.3)
Γ
onde a integração se extende a todo o espaço de fase Γ.
Para obter as equações que regem a dinâmica do sistema de N partículas começamos considerando que o número de partículas se deve conservar. Consideremos a probabilidade de encontrar o sistema dentro de um volume V0 , limitado por
uma superfície S0 . A medida que o tempo passa algumas trajetórias saem de V0 e
a probabilidade correspondente P (V0 ) muda. Como a probabilidade total é conservada, eq. (1.3), e as trajetórias não se cruzam, a variação da probabilidade no
volume V0 deve corresponder ao fluxo da mesma através da superfície S0 , como
acontece em um fluido:
Z
Z
dP (V0)
∂
~n · J~ dS
(1.4)
ρ(p, q, t) dp dq = −
=
dt
∂t V0
S0
onde J~ = ~v ρ é uma corrente de probabilidade, ~v = {q̇i , ṗi } é a velocidade (generalizada) de um ponto no espaço de fase e ~n é um vetor unitário normal à superfície
Daniel A. Stariolo - IF-UFRGS - 2014
5
S0 . Usando o Teorema de Gauss:
Z
Z
∂
~ · J)
~ dp dq
(∇
ρ(p, q, t) dp dq = −
V0 ∂t
V0
(1.5)
Como V0 é arbitrário então:
dρ ~
+ ∇ · (~v ρ) = 0
dt
(1.6)
Mas
~ · ~v = ∂ q̇ + ∂ ṗ
∇
∂q ∂p
3N X
∂
∂H
∂
∂H
=
+
−
=0
∂q
∂p
∂p
∂q
i
i
i
i
i=1
(1.7)
Então:
∂ρ
~ =0
+ ~v · ∇ρ
∂t
ou
dρ
=0
dt
(1.8)
A equação anterior se conhece como o Teorema de Liouville. Diz que a derivada
total, ou derivada convectiva de ρ no espaço de fase Γ é nula para qualquer ponto e
qualquer instante. Podemos interpretar então a evolução dos pontos do ensemble
estatístico no espaço de fase como sendo análogos a um fluido incompressível.
Notando que
~ = q̇ ∂ρ + ṗ ∂ρ = ∂H ∂ρ − ∂H ∂ρ = {ρ, H} ,
~v · ∇ρ
∂q
∂p
∂p ∂q
∂q ∂p
(1.9)
onde {ρ, H} é o parêntese de Poisson entre ρ e H, podemos reescrever o Teorema
de Liouville da seguinte forma:
∂ρ
= − {ρ, H} .
∂t
(1.10)
Em equilíbrio, ρ não depende explicitamente do tempo, é uma constante do movimento, e então {ρ, H} = 0. Esta condição se pode satisfazer, por exemplo, se ρ
for uma função explícita de H, ou seja, se ρ(p, q) ≡ ρ[H(p, q)]. O caso mais simples corresponde a ρ = cte. Agora estamos em condições de enunciar o Postulado
Fundamental da Mecânica Estatística.
Daniel A. Stariolo - IF-UFRGS - 2014
6
Postulado de igual probabilidade a priori
Para formular o mesmo de forma transparente conceitualmente, vamos relaxar
a condição que a energia seja estritamente constante, permitindo então que flutue
entre dois valores próximos E e E + ∆, com ∆ ≪ E. Isto pode ser justificado
pelo fato de, na realidade, não existirem sistemas perfeitamente isolados. A posteriori vamos ver que esta condição não afeta os resultados no limite de sistemas
grandes, que serão independentes de ∆. No entanto, pode ser mostrar que a quantidade fundamental no postulado, que é o volume no espaço de fase ou número de
microestados de energia E, Γ(E) , é uma função irregular de E, enquanto que a
integral em um intervalo é bem comportada.
Em um sistema em equilíbrio com energia entre E e E + ∆, todos os microestados acessíveis são igualmente prováveis.
Formalmente:
1
se E ≤ H(p, q) ≤ E + ∆
Γ(E)
(1.11)
ρ(p, q) =
0 caso contrário
onde
Γ(E) =
Z
dp dq
(1.12)
E≤H(p,q)≤E+∆
é o volume do espaço de fase ocupado pelo sistema. Os pontos nesse volume
definem um ensemble conhecido como o ensemble microcanônico.
1.2.2
A hipótese ergódica
A média temporal de uma função f (p, q) ao longo de uma trajetória no intervalo
de tempo (t0 , t0 + T ) é definida como
Z
1 t0 +T
hf iT =
f (p(t), q(t)) dt
(1.13)
T t0
A média de ensemble do mesmo observável é definida como
Z
hf ie =
f (p, q) ρ(p, q) dp dq
Z
1
=
f (p, q) dp dq
Γ(E) E≤H(p,q)≤E+∆
Um sistema é considerado ergódico se hf i = hf ie = limT →∞ hf iT
(1.14)
(1.15)
Daniel A. Stariolo - IF-UFRGS - 2014
7
A hipótese ergódica, introduzida por Ludwig Eduard Boltzmann (1844-1906),
consiste em assumir que sistemas com N ≫ 1 são ergódicos. Este é um postulado
que em geral só pode ser verificado “a posteriori”, pelas consequências sobre o
comportamento do sistema.
A ergodicidade de um sistema pode ser de utilidade para obter valores médios
de observáveis em tempos relativamente curtos durante uma série de experimentos repetidos, ou então em uma série de simulações computacionais. Suponhamos
que rodamos uma simulação de dinâmica molecular de um líquido clássico, e queremos calcular o valor quadrático médio da velocidade das partículas. Se fazemos
médias temporais deveremos tomar a média de velocidades instantâneas medidas a intervalos mais ou menos regulares durante uma simulação muito longa, de
forma a garantir que uma amostragem significativa das velocidades foi feita. No
entanto, se contamos com a posibilidade de rodar muitas simulações idênticas em
paralelo, poderemos apreitarmos da ergodicidade do sistema e calcular a mesma
média tomando valores das velocidades nos diferentes sistemas, sendo que em
cada um deles podemos rodar simulações de muito menos tempo. Ou seja, no
primeiro caso fazemos uma média temporal, uma amostragem na linha do tempo,
no segundo fazemos uma média no ensemble, uma série de amostragens menores
nos diferentes sistemas. Se o sistema físico for ergódico, ambas a médias devem
coincidir.
A hipótese ergódica, de certa forma, justifica o postulado e igual probabilidade
a priori, pois implica que, se um sistema é ergódico, a fração de tempo que ele
passa em uma região restrita do espaço de fase acessível é proporcional ao volume
dessa região, e não as posições particulares na superfície de energia ocupadas pelo
sistem em um determinado tempo. Isto se pode ver da seguinte forma: seja R uma
região com R ⊂ Γ. Definimos:
1 se (p, q) ∈ R
(1.16)
φR (p, q) =
0 caso contrário
que o sistema passa em R durante o intervalo T é dado por τR =
ROt0tempo
+T
φ(p(t), q(t)) dt. Se o sistema é ergódico
t0
τR
1
lim
≡ hφiT =
T →∞ T
Γ(E)
Z
E≤H(p,q)≤E+∆
φ(p, q) dp dq =
Γ(R)
,
Γ(E)
(1.17)
ou seja, a fração de tempo que o sistema passa em uma dada região R é igual à
fração de volume do espaço de fase ocupado pela mesma região.
Daniel A. Stariolo - IF-UFRGS - 2014
8
Formalmente, é muito difícl demonstrar que um dado sistema Hamiltoniano
é ergódico. Sistemas dissipativos, como um pêndulo amortecido, são claramente
não-ergódicos, pois a tempos longos tendem a ficar confinados em um pequeno subespaço (chamado “atrator”) do espaço de fase acessível inicialmente. Mesmo em
sistemas conservativos aparentemente simples, como no famoso problema dos três
corpos interagindo gravitacionalmente, foi só no século XX que o Teorema KAM
(de Kolmogorov, Arnold e Moser) mostrou que existe um conjunto de medida não
nula de trajetórias no espaço de fase que ficam aproximadamente confinadas, e
que correspondem a conjuntos particulares de condições iniciais. Essas trajetórias
se encontram misturadas no espaço de fase a muitas outras com aparência mais
caótica, ou “ergódicas”. Pensando que a existência desses estados previstos pelo
Teorema KAM era uma propriedade exclusiva de sistemas formados por poucas
partículas, depois da Segunda Guerra Mundial, Fermi, Pasta e Ulam fizeram uma
das primeiras simulações computacionais de um sistema de osciladores anarmônicos unidimensionais com o intuito de estudar as propriedades de ergodicidade
de um sistema de muitas partículas. Os resultados que obtiveram não foram os esperados, de fato foi encontrado que a taxa de transferência de energia entre modos
de oscilação era extremamente lenta e, nos tempos acessíveis da simulação, muitas condições iniciais levavam a trajetórias mais parecidas a ciclos limite do que
a trajetórias ergódicas. De fato, ergodicidade é violada rigorosamente nas fases
com simetrias quebradas nas transições de fases, como na passagem de um líquido
a um sólido. O sistema no estado sólido não irá mais explorar todas as configurações de igual energia que o sistema original, no estado líquido, podia explorar.
No entanto, essas limitações da hipótese ergódica, formais as vezes ou práticas
em outras, não limitam de forma substancial o poder de predição da Mecânica
Estatística do equilíbrio, como vamos ver no decorrer do curso.
1.3 Sistemas quânticos
Em Mecânica Quântica os estados microscópicos de um sistema são definidos pela
função de onde Ψ(q), solução da equação de Schrödinger. Como esta tem uma
interpretação probabilística, intrínseca ao formalismo quântico, devemos redefinir
o conceito de ensemble para sistemas quânticos.
A função de onda Ψ(q) pode ser desenvolvida em termos dos elementos de
uma base ortonormal de autofunções de algum operador:
X
Ψ(q) =
cn φn (q)
(1.18)
n
Daniel A. Stariolo - IF-UFRGS - 2014
9
onde |cn |2 é a probabilidade de encontrar o sistema no autoestado φn .
O valor esperado (quântico) de um observável Ô é dado por
Z
hΨ|Ô|Ψi =
Ψ∗ (q)ÔΨ(q) dq
X
=
Omn cn c∗m
(1.19)
m,n
onde Omn = hφm |Ô|φn i são os elementos de matriz do operador Ô na base considerada. Em um sistema formado por muitos corpos existirão muitos microestados
Ψi (q) compatíveis com os vínculos macroscópicos, e estes serão a base para definir um ensemble. Notar que, neste caso, Ψi (q) é uma função de onda de N corpos,
a função de onda do sistema completo. Explicitamente:
X
Ψi (q) =
cin φn (q)
(1.20)
n
e
hΨi |Ô|Ψi i =
X
Omn cin ci∗
m
(1.21)
m,n
representa o valor esperado quântico do operador Ô no microestado Ψi (q). Se
agora associamos a cada microestado uma probabilidade de ocorrência pi , a média
de ensemble do observável Ô é dada por:
X
hÔi =
pi hΨi |Ô|Ψi i
i
=
X
pi
i
X
Omn cin ci∗
m
(1.22)
m,n
Podemos definir uma matriz de elementos ρnm :
X
ρnm =
pi cin ci∗
m
(1.23)
i
tal que
hÔi =
X
ρnm Omn
(1.24)
m,n
O operador cujos elementos de matriz na base ortonormal de autoestados φn são
os ρnm é conhecido como operador densidade ou matriz densidade:
Z
ρnm = φn (q) ρ̂ φ∗m (q) dq ≡ hφn |ρ̂|φm i
(1.25)
Daniel A. Stariolo - IF-UFRGS - 2014
10
Com esta definição, a média no ensemble de um operador Ô pode ser escrita como
X hÔi =
ρ̂Ô
= T r ρ̂Ô = T r Ô ρ̂
(1.26)
nn
n
Notemos que
T r ρ̂ =
X
ρnn =
n
X
i
pi
X
n
|cn |2 =
X
pi = 1,
(1.27)
i
o que permite interpretar o elemento ρnn como a probabilidade de encontrar o
sistema no autoestado φn .
O operador densidade se pode expressar também em forma matricial:
X
ρ̂ =
pi Ψi Ψi†
(1.28)
i
onde

ci1
 .. 
 . 
i
Ψ = i 
 cl 
..
.

e
i∗
Ψi† = ci∗
1 , . . . cl , . . .
(1.29)
Os microestados satisfazem a equação de Schroedinger ih̄∂Ψi /∂t = ĤΨi . Transpondo e tomando o complexo conjugado obtemos:
∂Ψi†
= Ψi† Ĥ † = Ψi† Ĥ
−ih̄
∂t
(1.30)
onde usamos o fato que Ĥ é hermitiano. Com este resultado e a definição (1.28)
pode-se mostrar que ρ̂ satisfaz
h
i
∂ ρ̂
= − ρ̂, Ĥ
ih̄
∂t
(1.31)
onde o lado direito representa o comutador de ρ̂ e Ĥ. Este resultado corresponde
ao Teorema de Liouville para sistems quânticos descritos por uma matriz densidade ρ̂.
Postulado de igual probabilidade a priori para um sistema quântico
Daniel A. Stariolo - IF-UFRGS - 2014
11
Seja φn um autoestado de uma base ortonormal do Hamiltoniano Ĥ. Então Ĥφn = En φn . Para um sistema isolado com energia entre E e E + ∆E,
seja {φl , l = 1, . . . , M(E)} o conjunto de autoestados de energia E. Então, o
postulado de igual probabilidade a priori, para o caso de um sistema quântico,
corresponde a
1
para l = 1, 2, . . . , M(E)
M (E)
(1.32)
ρll =
0
para o resto
Capítulo 2
Teoria de ensembles estatísticos
2.1 O ensemble microcanônico
O postulado de igual probabilidade a priori permite determinar a probabilidade
de encontrar o sistema em um microestado compatível com os vínculos macroscópicos, e a partir da probabilidade podemos determinar valores médios de observáveis como energia, magnetização, etc. Para obter uma conexão com a termodinâmica temos que estabelecer uma definição microscópica para a entropia,
que é o potencial termodiâmico relevante em sistemas com energia fixa. Como a
probabilidade é uma função do número de microestados, e ela é uma quantidade
fundamental, é razoavel pensar que a entropia também será função do número de
microestados. Em um distema quântico, com níveis de energia En discretos, a definição do número de microestados W (E) de energia E é imediato. No caso clássico é necessário definir um volume unitário no espaço de fase, que é um espaço
continuo, tal que permita contar o número de microestados, e que seja compatível
com a Mecânica Quântica em algum limite apropriado. O Princípio de Incerteza
de Heisenberg, ∆p ∆q ∼ h, implica a existência de um volume minimo no espaço de fase, Vmin ∼ h, tal que resulta impossível identificar estados físicos em
escala menor que a constante de Planck h. Definimos então W (E) = Γ(E)/h3N
como sendo o número de células unitárias no espaço de fase correspondentes a
um volume Γ(E) nesse espaço.
Para definirmos uma entropia que seja compatível com o formalismo termodinâmico, esta deve ser
• Aditiva
• Satisfazer a segunda lei da Termodinâmica.
12
Daniel A. Stariolo - IF-UFRGS - 2014
13
Figura 2.1: Dois sistemas separados por uma parede adiabática, fixa e impermeável.
Consideremos dois sistemas não interagentes com W1 e W2 microestados respectivamente. O número total de microestados do sistema composto será W =
W1 × W2 . Agora, como de acordo com a Termodinâmica a entropia deve ser aditiva, S(W ) = S(W1 ) + S(W2 ), deve ser uma função proporcional ao logaritmo
de W . Definimos então a entropia como:
S(E) = kB ln W (E).
(2.1)
Vamos verficar se esta definição é satisfatória, ou seja, se obedece os dois requisitos de compatibilidade com a termodinâmica citados acima. Consideremos agora
os subsistemas (1) e (2) separados por uma parede adiabática, fixa e impermeável,
como mostra a figura 2.1, de forma que H(p, q) = H1 (p1 , q1 ) + H2 (p2 , q2 ).
A entropia de cada subsistema é dada por:
S1 (E1 , V1 , N1 ) = kB ln Γ1 (E1 )/h3N
S2 (E2 , V2 , N2 ) = kB ln Γ2 (E2 )/h3N
(2.2)
Qual é a entropia do conjunto ? O volume total do espaço de fase é Γ(E) =
Γ1 (E1 ) × Γ2 (E2 ), onde E = E1 + E2 . A entropia do sistema completo é então
S(E, V, N) = kB ln Γ(E)/h3N
(2.3)
3N
3N
= kB ln Γ1 (E1 )/h
+ kB ln Γ2 (E2 )/h
= S1 (E1 , V1 , N1 ) + S2 (E2 , V2 , N2 )
que satisfaz a condição de aditividade. Resta verificar se a definição de Boltzmann
satisfaz a segunda lei. Para isto suponhamos que removemos a parede adiabática e
Daniel A. Stariolo - IF-UFRGS - 2014
14
permitimos que os subsistemas troquem energia (parede diatérmica). Desta forma
a energia de cada subsistema poderá variar entre 0 e E, tal que E1 + E2 = E
permaneça fixa em todo momento. O número de microestados do sistema total
com energia E, para um valor fixo de E1 pode ser escrito como:
W (E, E1 ) =
1
Γ(E, E1 )
= 3N Γ1 (E1 )Γ2 (E − E1 )
3N
h
h
(2.4)
O número total de microestados compatível com a energia E será dado pela soma
de W (E, E1 ) para todos os valores de E1 entre 0 eE. Se discretizamos o espectro
de energias em intervalos de largura ∆, podemos escrever
E/∆
Γ(E) =
X
i=1
Γ1 (Ei )Γ2 (E − Ei )
(2.5)
O número de microestados cresce com a energia, então como Γ(E) é uma função monótona crescente de E, quando Γ1 (Ei ) cresce, Γ2 (E − Ei ) decresce, e
viceversa. Se conclui que Γ(E) deve passar por um máximo em algum valor
0 ≤ Ei ≤ E. Sejam E 1 e E 2 = E − E 1 os valores das energias para as quais
Γ1 (E1 )Γ2 (E2 ) é máximo. Então se deve satisfazer que
Γ1 (E 1 )Γ2 (E 2 ) ≤ Γ(E) ≤
E
Γ1 (E 1 )Γ2 (E 2 )
∆
(2.6)
ou
ln Γ1 (E 1 )Γ2 (E 2 ) ≤ ln Γ(E) ≤ ln
E
∆
+ ln Γ1 (E 1 )Γ2 (E 2 )
(2.7)
S(E, V, N) = S1 (E 1 , V1 , N1 ) + S2 (E 2 , V2 , N2 ) + O(ln N)
(2.8)
Analisemos a ordem de grandeza destes termos. Em geral o número de microestados cresce exponencialmente com o número de partículas, de forma que
ln Γi ∝ Ni , ou seja, a entropia é extensiva. No entanto, a energia cresce proporcionalmente a N: E∝ N = N1 + N2 . Desta forma, no limite quando N1 , N2 → ∞
E
o termo em ln ∆
se torna desprezível frente a ln Γ e por tanto a relação (2.7) é
satisfeita como uma igualdade. Assim, a entropia do sistema total é dada por:
A entropia (2.1) é aditiva e extensiva, e os subsistemas tomam valores de energias E 1 e E 2 que maximizam o número total de estados acessíveis. No limite
Daniel A. Stariolo - IF-UFRGS - 2014
15
termodinâmico este resultado corresponde a segunda lei da Termodinâmica 1
Ainda considerando que a probabilidade dos subsistemas se encontrarem com
energias E1 e E2 será proporcional ao número de microestados compatíveis, temos
que
ln P (E, E1) = cte + ln Γ(E1 ) + ln Γ(E − E1 )
(2.9)
Maximizando em relação a E1 obtemos
∂ ln Γ(E1 ) ∂ ln Γ(E − E1 )
∂ ln P (E, E1 )
=
−
=0
∂E1
∂E1
∂E2
(2.10)
Agora usando a definição de entropia de Boltzmann a relação anterior resulta
equivalente a
∂S1 ∂S2 =
(2.11)
∂E1 E1 =E 1
∂E2 E2 =E 2
e fazendo uso da relação termodinâmica entre entropia e temperatura concluimos
que
1
1
= ,
(2.12)
T1
T2
que corresponde à condição de equilíbrio térmico. Vemos então que a condição
de equilíbrio térmico entre dois sistemas equivale a maximizar a entropia do conjunto.
2.1.1 Gás ideal monoatômico clássico
Consideremos um gás de N partículas clássicas em um volume V . O Hamiltoniano do gás clássico de partículas não interagentes é:
3N
X
p2i
H=
2m
i=1
1
(2.13)
É fácil mostrar que esta formulação variacional da segunda lei é equivalente a condição de
irreversibilidade, ou seja, se um sistema isolado em equilíbrio passa de um estado a outro estado de
equilíbrio a entropia não pode diminiur. Em outras palavras, o número de microestados acessíveis
é maximizado no processo. No exemplo do gás simples de partículas não interagentes como o da
figura 2.1, a conclusão é que se permitimos que ambos os sistemas troquem energias o sistema
total irá equilibrar em um estado que maximize o número de microestados acessíveis, e nunca o
contrário.
Daniel A. Stariolo - IF-UFRGS - 2014
16
O volume do espaço de fase com energia entre E e E + ∆ é dado por
Z
Γ(E, V, N) =
dp dq.
(2.14)
E≤H(p,q)≤E+∆
No entanto, um cálculo rigoroso desta quantidade mostra que a dependência com
E é muito irregular [1]. Resulta mais conveniente calcular a quantidade:
Z
Σ(E, V, N) =
dp dq,
(2.15)
H(p,q)≤E
de forma que Γ(E) = Σ(E +∆)−Σ(E). É possível mostrar que quando N → ∞,
Γ(E) e Σ(E) diferem em termos O(ln N). Por tanto, se estamos interessados no
limite termodinâmico, podemos escrever
Σ(E, V, N)
S(E, V, N) = kB ln
(2.16)
h3N
onde
Σ(E, V, N) =
Z
dp dq = V N Ω3N (R)
(2.17)
H≤E
e onde Ω3N (R) é o volume de uma hiperesfera de dimensão 3N e raio R =
√
2mE:
3N
Ω3N (R) = C3N E 2
(2.18)
Assim,
S(E, V, N) = kB ln
V N C3N E
h3N
3N
2
!
(2.19)
É possível calcular C3N (ver, por exemplo, [1, 2]). Aproximando a expressão
resultante para N ≫ 1 obtemos:
" 3/2 #
3
4πm E
S(E, V, N) = NkB + NkB ln V
(2.20)
2
3h2 N
Invertendo esta expressão podemos obter a energia interna como função de S, N
e V , e a partir dali podemos obter as equações de estado do gás ideal e demais
grandezas termodinâmicas. No entanto, podemos notar que se multiplicarmos E,
V e N por um fator λ arbitrário resulta S(λE, λV, λN) 6= λS(E, V, N). Ou seja, a
entropia que obtivemos não é uma função homogênea como deve ser um potencial
Daniel A. Stariolo - IF-UFRGS - 2014
17
termodinâmico. Em particular, a forma obtida da entropia não é extensiva ! J. W.
Gibbs resolveu este problema de forma empírica, operacional, postulando que o
número de microestados no cálculo anterior foi superestimado e propondo um
fator de correção Σ(E) → Σ(E)/N! que leva em conta a indistinguibilidade das
partículas do gás ideal. Podemos entender o problema na contagem considerando
a entropia de dois sistemas inicialmente isolados que são depois misturados. A
entropia de mixing viola a extensividade e leva ao chamado Paradoxo de Gibbs [1,
2, 3, 4]. Incluindo o fator N! e refazendo o cálculo se chega a seguinte expressão
para a entropia:
" #
3/2
3
5
4πm
V E
S(E) = NkB
(2.21)
+ NkB ln
+ ln
2
3
3h2
N N
Esta expressão é extensiva e se conhece como Fórmula de Sackur e Tetrode. A
introduçao ad hoc do fator de contagem de Gibbs aparece de forma natural em
sistemas quânticos de partículas indistiguíveis e será visto quando tratemos o problema dos gases ideais quânticos.
2.1.2 A formulação de Gibbs
J. W. Gibbs propós uma expressão para a entropia alternativa a de Boltzmann e
que permite formular a teoria a partir de um princípio variacional. Se ρ(p, q) é a
densidade de probabilidade de equilíbrio, a entropia de Gibbs é dada por:
S = −kB hln (Cρ)i
(2.22)
onde C é uma constante que vale h3N para um sistema clássico e C = 1 para um
sistema quântico. A média deve ser calculada em relação a própria distribuição ρ.
No caso clássico:
Z
S = −kB ρ(p, q) ln h3N ρ(p, q) dp dq
(2.23)
Agora postulamos que a densidade de equilíbrio é aquela que maximiza a entropia de Gibbs, sujeita aos vínculos macroscópicos. Para um sistema no ensemble
microcanônico, onde E,V e N são fixos, o vínculo adicional de normalização das
probabilidades é exigido:
Z
ρ(p, q) dp dq = 1.
(2.24)
Daniel A. Stariolo - IF-UFRGS - 2014
18
Vínculos podem ser considerados no princípio variacional via multiplicadores de
Lagrange. Sendo a entropia de Gibbs um funcional da densidade de probabilidade, a condição de extremo (máximo) pode ser expressa na forma:
Z
δ S[ρ] − α0 ρ dp dq = 0
(2.25)
onde δ indica uma variação funcional e α0 é o multiplicador que impõe a normalização das probabilidades. Desenvolvendo a variação obtemos:
Z
S[ρ + δρ] − S[ρ] − α0 [ρ + δρ − ρ] dp dq = 0
(2.26)
Z
Z
−kB
(ρ + δρ) ln [h3N (ρ + δρ)] − ρ ln (h3N ρ) dp dq − α0 δρ dp dq = 0
Expandindo até primeira ordem em δρ
Z
−kB − kB ln [h3N ρ] − α0 δρ dp dq = 0
(2.27)
Como δρ é arbitrário, se obtém
ρ(p, q) =
1 −α0 /kB −1
e
.
h3N
(2.28)
A densidade de probabilidade microcanônica é uma constante, como esperado.
Resta determinar o valor do multiplicador de Lagrange α0 . Ele é fixado pela
condição de normalização da probabilidade, resultando:
ρ(p, q) =
1
Γ(E)
se E ≤ H(p, q) ≤ E + ∆
(2.29)
Notamos que, neste caso de um sistema isolado, a distribuição equiprovável é a
que maximiza a entropia de Gibbs ( a segunda variação permite mostrar que o
extremo obtido é, de fato, um máximo). Substituindo na definição:
Z
kB
3N
ln h3N /Γ(E) dp, dq
(2.30)
S(E) = −kB hln (h ρ)i = −
Γ(E)
ou
S(E) = kB ln
Γ(E)
h3N
que coincide com a expressão da entropia de equilíbrio microcanônica.
(2.31)
Daniel A. Stariolo - IF-UFRGS - 2014
19
2.2 O ensemble canônico
Em geral os sistemas não são isolados. Suponhamos um sistema que possa trocar
calor com um reservatório térmico a temperatura T . O sistema composto é considerado isolado, com energia E0 = ES +ER fixa. Vamos supor ainda que o sistema
e o reservatório estão separados por uma parede diatérmica, rígida e impermeável. No equilíbrio, a probabilidade de encontrar o sistema em um microestado
particular j, independentemente do estado do reservatório, será dado por
Pj = c WR (ER ) = c WR (E0 − Ej )
(2.32)
com c uma constante e WR (ER ) o número de estados microscópicos do reservatório com energia ER = E0 − Ej . Como Ej ≪ E0 :
∂ ln WR (ER ) ln Pj = ln c + ln WR (E0 ) +
(−Ej ) + O(Ej2 )
∂ER
ER =E0
(2.33)
Da definição de entropia e as condições de equilíbrio:
∂ ln WR (ER ) 1
=
∂ER
kB T
ER =E0
(2.34)
onde T é a temperatura do reservatório. Portanto a probabilidade é proporcional a
exp (−βEj ), com β = 1/kB T . A constante de
Pproporcionalidade pode ser fixada
exigindo a normalização das probabilidades, j Pj = 1, dando como resultado:
e−βEj
Pj = P −βE
i
ie
β=
1
kB T
(2.35)
O ensemble canônico e constituído pelo conjunto de microestados de um sistema
em contato com um reservatório térmico a temperatura T cujas probabilidades são
dadas por (2.35).
Consideremos agora um sistema quântico em contato com um reservatório
térmico. Vamos obter novamente a probabilidade dos microestados do sistema
partindo do princípio variacional de Gibbs. Em equilíbrio a energia média é fixa:
X
U = hEi = T r(ρ̂Ĥ) =
ρnn En
(2.36)
n
Daniel A. Stariolo - IF-UFRGS - 2014
20
onde ρ̂ é o operador densidade e os n′ s são números quânticos correspondentes
a uma base de autoestados do operador Hamiltoniano de N partículas e que diagonaliza simultaneamente ambos operadores ρ̂ e Ĥ. A entropia de Gibbs é dada
por
X
S = −kB hln ρ̂i = −kB
ρnn ln ρnn
(2.37)
n
A densidade de probabilidade de equilíbrio deve ser aquela que maximize a entropia dePGibbs. Considerando que as probabilidades devem estar normalizadas,
T r ρ̂ = n ρnn = 1, devemos introduzir dois multiplicadores de Lagrange e calcular a variação da expressão resultante:
h i
δ T r α0 ρ̂ + α1 ρ̂Ĥ − kB ρ̂ ln ρ̂
=
X
δ
(α0 ρnn + α1 ρnn En − kB ρnn ln ρnn ) =
n
X
n
[(α0 − kB ) + α1 En − kB ln ρnn ] δρnn = 0,
(2.38)
onde a última linha corresponde à variação de primeira ordem. Como esta é arbitrária obtemos
α1
α0
−1 +
En
(2.39)
ρnn = exp
kB
kB
Da condição de normalização obtemos
X
α1
α0
=
exp
En = ZN (α1 )
exp 1 −
kB
kB
n
(2.40)
Definimos a função de partição do sistema:
X
α1
α1
ZN (α1 ) =
exp
Ĥ
En = T r exp
kB
kB
n
(2.41)
Multiplicando o coeficiente do término de primeira ordem na variação, que deve
ser nulo, por ρnn que maximiza a entropia de Gibbs, e somando em n obtemos:
(α0 − kB ) + α1 U + S = 0
(2.42)
−kB ln ZN (α1 ) + α1 U + S = 0
(2.43)
ou
Daniel A. Stariolo - IF-UFRGS - 2014
21
Identificando α1 = −1/T e lembrando que F − U + T S = 0, obtemos
F (T, V, N) = −kB T ln ZN (T, V )
(2.44)
onde F (T, V, N) é a energia livre de Helmholtz. Esta relação conecta a função
de partição com a termodinâmica do sistema. Como F (T, V, N) é uma relação
fundamental, a função de partição canônica também contém toda a informação
sobre o sistema. A partir de (2.39) e (2.40) podemos escrever a matriz densidade
de equilíbrio na forma
e−β Ĥ
ρ̂ =
(2.45)
T r e−β Ĥ
Já para um sistema clássico a densidade de probabilidade é dada por
ρ(p, q) =
onde
ZN (T, V ) =
Z
e−βH(p,q)
ZN (T, V )
dp dq
exp {−βH(p, q)}
h3N
(2.46)
(2.47)
2.2.1 A densidade de estados e a função de partição
Consideremos a integral no espaço de fase de uma função arbitrária f que depende
de (p, q) através do Hamiltoniano
Z
dp dq
f [H(p, q)]
(2.48)
I=
h3N
Podemos escrever a mesma integral na forma
Z ∞
I=
f (E)g(E)dE
(2.49)
0
onde
g(E) =
Z
H(p,q)=E
dp dq
h3N
(2.50)
é conhecida como densidade de estados. g(E)dE é o número de estados com
energias entre E e E + dE. Em particular, se f (H) = Θ(E − H), onde Θ(x) é a
função degrau, obtemos
Z E
Σ(E)
(2.51)
I=
g(E ′ )dE ′ = 3N
h
0
Daniel A. Stariolo - IF-UFRGS - 2014
Então
g(E) =
22
1 ∂Σ(E)
.
h3N ∂E
(2.52)
É possível mostrar que, no limite N → ∞:
1 ∂Σ(E)
w(E)
= 3N = eSm (E)/kB
3N
h
∂E
h
onde Sm é a entropia microcanônica.
Assim, podemos escrever a função de partição na forma
Z ∞
ZN (T ) =
e−βE g(E)dE
(2.53)
(2.54)
0
que corresponde à transformada de Laplace da densidade de estados.
No caso quântico a expressão correspondente é:
X
ZN (T ) =
e−βEn
(2.55)
n
onde n representa um conjunto completo de número quânticos, ou seja, a soma
varre todos os possíveis autoestados do Hamiltoniano, sendo En os correspondentes autovalores. Se o conjunto de autovalores da energia for degenerado, se pode
escrever
X
ZN (T ) =
g(E)e−βE
(2.56)
E
onde agora a soma é feita em todos os autovalores diferentes do Hamiltoniano, e
g(E) é a degenerescência do autovalor E.
2.2.2 Flutuações da energia
A energia média do sistema no ensemble canônico é dada por
P
−βEj
∂ ln Z
j Ej e
U ≡ hHi =
=−
ZN (T )
∂β
(2.57)
Como cada microestado tem associada uma probabilidade de ocorrência Pj , então
devem existir flutuações em torno do valor médio. O desvio quadrático médio da
Daniel A. Stariolo - IF-UFRGS - 2014
23
energia é dado por
h(H − hHi)2 i = hH 2i − hHi2
(2.58)
!2
1 X
1 X 2 −βEJ
Ej e
− 2
Ej e−βEj
Z j
Z
j
∂ ∂ ln Z
∂U
∂U
=
=−
= kB T 2
= k B T 2 N cV > 0
∂β
∂β
∂β
∂T
=
onde
1 ∂U
(2.59)
N ∂T
é o calor específico a volume constante. Assim, as flutuações da energia no ensemble canônico são proporcionais ao calor especifico, o que também aponta para
a positividade de cV . Esta relação é muito útil para determinar o calor específico
em simulações de Monte Carlo, ou Dinâmica Molecular, pois os valores médios
de momentos da energia podem ser obtidos facilmente ao longo da trajetória do
sistema durante a simulação. O desvio relativo é dado por:
p
√
hH 2 i − hHi2
1
NkB T 2 cV
=
∝√ ,
(2.60)
hHi
Nu
N
cV =
onde u = hHi/N é a densidade de energia. Notamos que o desvio relativo ao
valor médio tende para zero quando N → ∞. Isto quer dizer que a distribuição de
energias está fortemente concentrada em torno do valor médio, e as probabilidades
de o sistema se encontrar em microestados diferentes do valor médio são muito
pequenas. Desta forma, os resultados do ensemble canônico coincidem com os do
ensemble microcanônico no limite termodinâmico. Vejamos isto com um pouco
mais de detalhe. Vimos que a probabilidade de encontrar o sistema com uma
energia entre E e E + dE é:
P (E)dE = g(E) e−βE dE.
(2.61)
A densidade de estados é uma função fortemente crescente de E, ao passo que
o exponencial de Boltzmann decai rapidamente. Como consequência, o produto
deve passar por um máximo para alguma energia especial E ∗ . O valor de E ∗ é
determinado por:
∂
−βE g(E)e
= 0,
(2.62)
∂E
E=E ∗
Daniel A. Stariolo - IF-UFRGS - 2014
24
que equivale a
∂ ln g(E) = β.
∂E E=E ∗
Mas,
S = kB ln g(E)
∂S(E) 1
=
= kB β.
∂E E=U
T
e
Isto quer dizer que
E ∗ = U.
(2.63)
(2.64)
(2.65)
Este resultado é importante pois implica que o valor mais provável da energia é
igual à energia média. Vejamos agora qual a forma da distribuição de probabilidades da energia. Para isso é útil expandir o logaritmo da densidade de probabilidade
no entorno do valor médio U:
ln g(E)e−βE = −βE|E=U + ln g(E)|E=U +
1 ∂2
ln g(E)e−βE E=U (E − U)2 + . . .
2
2 ∂E
1
= −β(U − T S) −
(E − U)2 + . . . (2.66)
2kB T 2 CV
Obtemos finalmente:
−βE
P (E) ∝ g(E)e
−β(U −T S)
≈e
(E − U)2
.
exp −
2kB T 2 CV
(2.67)
A densidade de probabilidade
da energia é uma distribuição Gaussiana, com mé√
2
dia U e desvio padrão kB T CV . Considerando a escala de energia dada pela
energia interna U podemos definir a variável adimensional E/U.√Esta também
possui uma distribuição Gaussiana, com média 1 e desvio padrão kB T 2 CV /U,
que é de ordem O(N −1/2 ). Por tanto, para N >> 1 a distribuição de probabilidade é muito estreita, tendendo a uma função delta quando N → ∞. Integrando
o resultado (2.67) é fácil mostrar que
1
−kB T ln ZN (T, V ) ≡ F (T, V, N) ≈ U − T S − kB T ln (2πkB T 2 CV ), (2.68)
2
que inclui correções de ordem ln N à expressão termodinâmica para a energia
livre.
Finalmente, é interessante notar que as flutuações para sistemas com grande
número de graus de liberdade podem ser importantes em situações especiais,
como por exemplo perto de transições de fase de segunda ordem, quando cV pode
tomar valores muito grandes e até divergir.
Daniel A. Stariolo - IF-UFRGS - 2014
25
2.2.3 Gás ideal no ensemble canônico
O ponto de partida para obter a termodinâmica de um sistema no ensemble canônico é o cálculo da função de partição. No caso do gás ideal clássico:
#
"
Z
3N
X
p2i
dp dq
ZN (T ) =
(2.69)
exp −β
h3N
2m
i=1
N Y
3N Z
βp2i
V
dpi exp −
=
h3N i=1
2m
N Z
N
β
V
p2ix +p2iy +p2iz )
− 2m
(
=
dpix dpiy dpiz e
h3
= [Z1 (T )]N
onde
V
λ3T
(2.70)
h
2πmkB T
(2.71)
Z1 (T ) =
é a função de partição de uma partícula e
λT = √
é o comprimento de onda térmico das partículas. Esta quantidade, que tem dimensões de comprimento, é importante pois corresponde aproximadamente ao valor
médio do comprimento de onda de de Broglie. Se o comprimento de onda térmico for muito menor que a distância típica interpartícula então o gás pode ser
considerado clássico. No entanto, se λT for da ordem ou maior que a distância
interpartícula, os efeitos quânticos serão importantes e o gás deve ser estudado a
partir das estatísticas quânticas de Bose-Einstein ou Fermi-Dirac.
A energia livre do gás ideal clássico é dada por:
V
3/2
(2.72)
F (T, V, N) = −kB T N ln Z1 = −kB T N ln
(2πmkB T )
h3
A energia livre obtida não é extensiva: F (T, γV, γN) 6= γF (T, V, N). Encontramos novamente o “paradoxo de Gibbs”. A solução, no contexto do ensemble
canônico, consiste em introduzir o fator de contagem de Gibbs na forma:
ZN (T, V ) →
ZN (T, V )
N!
(2.73)
Daniel A. Stariolo - IF-UFRGS - 2014
26
No limite de N grande, podemos aplicar a aproximação de Stirling ao fatorial,
N! ≈ N ln N − N, dando como resultado:
V
3/2
F (T, V, N) = −kB T N ln
− kB T N
(2.74)
(2πmkB T )
Nh3
recuperando o comportamento extensivo da energia livre.
2.3 Fluidos clássicos não ideais
Fluidos simples geralmente são bem descritos com a estatística clássica pois nas
temperaturas (baixas) onde os efeitos quânticos começam a ser relevantes, estes
solidificam. A situação mais comum em relação ao Hamiltoniano de um fluido
clássico é que possa ser considerado como a soma de uma parte cinética, dependente das velocidades, e uma energia potencial, que depende das coordenadas:
Up (q1 , q2 , . . . , qN ). Então a função de partição clássica se fatora, podendo ser
escrita na forma:
ZN (T, V ) = ZGI V −N Q
(2.75)
onde ZGI é a função de partição do gás ideal, com o fator de contagem correto, e
Z
Q == dq1 · · · dqN e−βUp (q1 ,...,qN )
(2.76)
é a função de partição configuracional. Por causa do fatoramento entre a parte
cinética e configuracional, o valor médio estatístico de uma função f (q) resulta:
Z
1
dq1 · · · dqN f (q1 , . . . , qN ) e−βUp (q1 ,...,qN )
(2.77)
hf (q1 , . . . , qN )i =
Q
que é independente do termo cinético.
Para analizar as propriedades de fluidos, gases ou líquidos, é importante levar em consideração questões de simetria. Em primeiro lugar, a energia potencial
Up (q1 , q2 , . . . , qN ) deve ser invariante frente a permutações dos índices das partículas, pois, embora partículas clássicas são consideradas distinguíveis, elas são
idênticas. Outra simetria importante é a invariância da energia potencial frente a
uma translação espacial de todo o sistema, ou seja, se deslocamos todas as coordenadas por um vetor fixo no espaço, a energia potencial deve ser a mesma. Isto
quer dizer que a energia potencial deve ser função apenas das distâncias relativas
entre as partículas e não das posições absolutas no espaço. A invariância frente
Daniel A. Stariolo - IF-UFRGS - 2014
27
a translações globais implica na homogeneidade do fluido. Além de homogêneo,
um fluido simples deve ser isotrópico, ou seja, a energia potencial deve ser invariante frente a rotações de coordenadas. Estas três são as invariâncias ou simetrias
mais importantes de sistemas fluidos simples.
Uma quantidade fundamental para descrever a fase fluida é a densidade local
de partículas. Assumindo que as partículas são puntuais, a densidade se define
como:
Z
N
N
X
X
1
ρp (r) =
hδ(r − qi )i =
dq1 · · · dqN
δ(r − qi ) e−βUp (q1 ,...,qN ) . (2.78)
Q
i=1
i=1
Agora, devido à invariância do potencial frente a permutações de partículas,
cada um dos termos da soma deve ser igual aos outros, resultando em:
Z
Z
N
ρp (r) =
dq2 · · · dqN dq1 δ(r − q1 ) e−βUp (q1 ,...,qN )
(2.79)
Q
Ainda, como o potencial deve depender apenas das distâncias relativas entre pares
de partículas |qi − qj |, podemos definir novas variáveis qi′ = qi − q1 , para i =
2, . . . , N, resultando em
Z
Z
N
′ )
′
′ −βU (q2′ ,...,qN
dq1 δ(r − q1 )
dq2 · · · dqN e
ρp (r) =
Q
Z
N
′ )
′ −βUp (q2′ ,...,qN
=
(2.80)
dq2′ · · · dqN
e
Q
De forma semelhante:
Z
Z
Z
′ )
′ )
′ −βUp (q2′ ,...,qN
′
′ −βUp (q2′ ,...,qN
dq1 = V
dq2′ · · · dqN
e
Q = dq2 · · · dqN e
(2.81)
De (2.80) e (2.81) se conclui que ρp (r) = N/V para todos os pontos r no volume
V . Esta propriedade é válida para qualquer fluido simples. Já em um sólido a
densidade local não é uniforme pois as partículas se encontram localizadas no
espaço, a invariância translacional é quebrada na fase sólida.
Em um gás ideal as posições das partículas são independentes entre si. Já em
um fluido real existem correlações entre as posições. Uma função que descreve
as correlações espaciais entre partículas é a função de distribuição de pares g(r),
definida como:
X
2V
g(r) ≡
hδ(r − rij )i ,
(2.82)
N(N − 1)
(i,j)
Daniel A. Stariolo - IF-UFRGS - 2014
28
onde rij ≡ qi − qj é o vetor distância relativa entre as partículas i e j, e a notação
(i, j) indica que cada par de partículas é contabilizado apenas uma vez. Notamos
que a função g(r) corresponde, essencialmente, ao número médio de pares de
partículas que se encontram a uma distância r uma da outra. Para entender melhor
a definição da g(r) notamos que, pela invariância do sistema frente a permutações
de partículas, todos os termos de pares devem ser idênticos. Ainda, pela isotropia
do sistema, a função não pode depender da direção do vetor r, mas apenas do
módulo r = |r|. Então:
g(r) = V hδ(r − r12 )i .
(2.83)
Para um gás ideal Up (q1 , . . . , qN ) = 0 e então o valor médio pode ser calculado
facilmente, de onde obtemos que hδ(r − r12 )i = 1/V e g(r) = 1. Este resultado
quer dizer que, para o gás ideal, todas as distâncias entre pares de partículas são
igualmente prováveis. Já no caso de partículas em interação obtemos:
Z
Z
Z
V
′ )
′
′
′
′
−βUp (q2′ ,...,qN
g(r) =
dq1
dq2 δ(r − q2 ) dq3 · · · dqN e
Q
Z
V2
′
′
′
(2.84)
dq3′ · · · dqN
e−βUp (r,q3 ...,qN ) .
=
Q
A forma mais frequênte de energia potencial é a que corresponde a uma soma de
interações de pares, ou seja:
X
u(rij ).
Up (q1 , . . . , qN ) =
(2.85)
(i,j)
Levando em consideração a simetria do potencial frente a permutações das partículas resulta:
N(N − 1)
hu(r12 )i
2
Z
Z
Z
N(N − 1)
′ )
′
′
′
′
−βUp (q2′ ,...,qN
dq1
dq2 u(q2 ) dq3 · · · dqN e
=
2Q
Z
Z
V N(N − 1)
′
′
=
(2.86)
d3 r u(r) dq3′ · · · dqN
e−βUp (r,...,qN )
2Q
hUp i =
Agora, usando o resultado (2.84) e incluindo a contribuição da energia cinética,
obtemos uma expressão para a equação de estado da energia do fluido:
Z
N(N − 1)
3
d3 r u(r) g(r),
(2.87)
U = hHi = NkB T +
2
2V
Daniel A. Stariolo - IF-UFRGS - 2014
29
Para obter a equação de estado da pressão do fluido, partimos da definição da
pressão no ensemble canônico:
∂F
∂ ln ZN
= kB T
∂V
∂V ∂
VN ∂
Q
ZGI Q
= kB T
= kB T ρp + kB T
. (2.88)
ln
∂V
VN
Q ∂V V N
P = −
Com um pouco mais de trabalho podemos obter uma expressão para a pressão de
um fluido, com interações de pares, em termos da função distribuição de pares:
Z
2πρp ∞ 3 du(r)
r
g(r) dr .
(2.89)
P = kB T ρp 1 −
3kB T 0
dr
Esta última relação se conhece como equação de estado do virial. Notamos que
as equações de estado ficam completamente determinadas conhecendo o potencial
de pares e a função de distribuição g(r).
A função de distribuição de pares pode ser determinada experimentalmente
por técnicas de espectroscopia, como espalhamento de raios X, nêutrons, elêtrons,
etc. Ela está relacionada com uma quantidade básica em experimentos de espectroscopia que é o fator de estrutura, definido como:
2 +
* N
X
i~k.~
qj ~
(2.90)
I(k) = e
,
j=1
onde a média é realizada no ensemble. I(~k) mede a intensidade do espalhamento
em função do vetor de onda k da radiação espalhada pelo material. Da definição
anterior obtemos:
+
+
*
*N N
X ~
XX ~
(2.91)
eik.(~qj −~ql )
eik.(~qj −~ql ) = N +
I(~k) =
j=1 l=1
j6=l
Como a função que deve ser mediada depende apenas das coordenadas:
Z
1 X
~
~
dq1 · · · dqN eik.(~qj −~ql ) e−βU (q1 ,...,qN )
I(k) = N +
Q j6=l
Z
N(N − 1)
~
= N+
dq1 · · · dqN eik.(~q2 −~q1 ) e−βU (q1 ,...,qN )
Q
Z
V N(N − 1)
′
′
~ ′
′
= N+
(2.92)
dq2′ · · · dqN
eik.~q2 e−βU (q2 ,...,qN )
Q
Daniel A. Stariolo - IF-UFRGS - 2014
30
Figura 2.2: O potencial de Lennard-Jones.
Comparando com (2.84) obtemos:
N(N − 1)
I(~k) = N +
V
Z
~
d3 r eik.~r g(r)
(2.93)
ou seja, o fator de estrutura está relacionado diretamente com a transformada de
Fourier da função de distribuição de pares. Desta forma é possível determinar a
função g(r) a partir de dados experimentais para um dado sistema.
Para muitos fluidos normais o potencial de interação é repulsivo a distâncias
muito curtas (caroço duro) e atrativo a distâncias um pouco maiores. Um potencial
semi-empírico muito comum é o potencial de Lennard-Jones:
σ 12 σ 6
u(r) = 4ǫ
(2.94)
−
r
r
que é mostrado na figura 2.2.
No potencial, σ possui unidades de comprimento e representa o tamanho do
caroço duro. O potencial u(σ) = 0 e cresce muito fortemente para r < σ. Para
r > σ o potencial é atrativo, apresentando um mínimo, um ponto de estabilidade
mecânica, em r = 21/6 σ. Para distâncias r ≫ σ o potencial tende para zero como
1/r 6, que corresponde a uma interação de van der Waals. A função distribuição
de pares para este potencial tem a forma mostrada na figura 2.3.
Daniel A. Stariolo - IF-UFRGS - 2014
31
Figura 2.3: A função de distribuição de pares para um sistema com energia potencial de Lennard-Jones, para kB T /ǫ = 0.71 e ρp = 0.844, obtido por simulação
numérica.
A forma da g(r) pode interpretarse como segue: ρp g(r) é a densidade média
de partículas que se observam a uma distância r de uma origem arbitrária. Como
para r < σ não pode ter partículas por causa do termo de caroço duro, a g(r) = 0
nesta região. Na sequência, g(r) apresenta um pico pronunciado que corresponde
aproximadamente à distância até os primeiros vizinhos, e depois segue uma série
de picos menores representando as sucessivas camadas de vizinhos da partícula
central. O caráter oscilatório da função é consequência da competição entre forças atrativas e repulsivas no potencial. Finalmente, para distâncias muito grandes,
g(r) → 1, que coincide com o valor correspondente a partículas livres, como se
espera de um par de partículas muito afastadas em um fluido simples. As posições
dos picos dão informação das correlações entre as partículas. Quanto mais diluido
seja o fluido, menos picos vão aparecer na g(r), em oposição ao comportamento
de um sólido, onde a periodicidade da rede cristalina deve levar à presença de
uma série de picos de igual intensidade separados pela mesma distância, correspondente à distância entre as partículas na matriz cristalina.
No caso de fluidos com interações fracas, ou densidades baixas, é possível
obter a equação de estado da forma seguinte: definimos uma função:
f (r) = e−βu(r) − 1
(2.95)
Daniel A. Stariolo - IF-UFRGS - 2014
32
Definindo fij ≡ f (rij ), podemos escrever a função de partição configuracional na
forma:
Z
Z
Y
Y
−βu(rij )
Q = dq1 · · · dqN
e
= dq1 · · · dqN
[1 + fij ]
(2.96)
(i,j)
(i,j)
Desenvolvendo os produtos obtemos:


Z
X
1X X
Q =
dq1 · · · dqN 1 +
fij +
fij fkl + · · · 
2
(i,j)
(i,j) (k,l)6=(i,j)
XZ
= V N + V N −2
dqi dqj fij + · · ·
(i,j)
Z
N(N − 1)
d3 rf (r) + · · ·
= V +V
2
N(N − 1)
N
B(T ) + · · · ,
1−
= V
V
N
N −1
(2.97)
onde
Z
1
d3 r e−βu(r) − 1
(2.98)
B(T ) = −
2
se conhece como segundo coeficiente virial. Desconsiderando termos de ordem
superior na expansão acima, obtemos:
Q
N2
≈
1
−
B(T )
VN
V
(2.99)
e, da equação (2.88):
P = kB T ρp + kB T
1
N2
B(T )
V2
.
N2
− V B(T )
(2.100)
Para N 2 B(T )/V ≪ 1 obtemos, finalmente:
P ≈ kB T ρp [1 + ρp B(T )].
(2.101)
De fato, é possível mostrar que, para potenciais de muito curto alcance, é possível
obter uma expansão da equação de estado em potências da densidade de partículas:
P = kB T [ρp + ρ2p B(T ) + ρ3p C(T ) + · · · ],
(2.102)
Daniel A. Stariolo - IF-UFRGS - 2014
33
que se conhece como expansão do virial. Notamos que a aproximação (2.101)
é válida somente para densidades muito baixas. Integrando a equação (2.98) por
partes para o potencial de Lennard-Jones obtemos:
Z
2πβ ∞ 3 du(r) −βu(r)
r
e
dr.
(2.103)
B(T ) = −
3 0
dr
Substituindo em (2.101) e comparando o resultado com (2.89) notamos que truncar a expansão do virial a segunda ordem equivale a aproximar a função de distribuição de pares por:
g(r) = e−βu(r)
(2.104)
Na figura 2.4 podemos ver o resultado de aproximar a g(r) usando a expansão do
virial até segunda ordem. Aparece apenas o primeiro pico. Para poder obter os
outros picos é necessário ir a ordens superiores na expansão. Esse resultado deixa
claro que a expansão de ordem baixa é boa apenas para fluidos muito diluidos.
Figura 2.4: A função de distribuição de pares para um sistema com energia potencial de Lennard-Jones, obtido truncando a expansão do virial até segunda ordem
para kB T /ǫ = 1.
2.4 O ensemble Grande Canônico
Consideremos agora um sistema que pode trocar calor e partículas com o meio no
qual se encontra. Neste caso, o número de partículas N não será mais constante,
podendo flutuar assim como a energia. No equilíbrio, o valor médio hNi estará
Daniel A. Stariolo - IF-UFRGS - 2014
34
bem definido. No caso de um sistema quântico, se pode definir um operador número de partículas N̂, cujos autovalores n, correspondem aos possíveis resultados
de uma medida particular. Os estados acessíveis do sistema correspondem aos autoestados da energia para uma partícula, duas partículas, etc. O espaço de Hilbert
é formado pela soma direta dos subespaços de uma, duas, três, etc. partículas. Vamos assumir que o operador Ĥ não mescla estados de subespaços com diferente
número de partículas, ou seja, que Ĥ comuta com N̂. Desta forma, a matriz que
representa Ĥ terá uma estrutura diagonal em blocos Ĥ0 , Ĥ1 , etc. na qual ĤN é o
operador Hamiltoniano de N partículas. Os autoestados do Hamiltoniano de um
sistema de N partículas serão indexados com um número quântico adicional, por
exemplo:
Ĥ|N, Eln i = Eln |N, Eln i
N̂|N, Eln i = n|N, Eln i
(2.105)
Vamos agora maximizar a entropia de Gibbs
S = −kB T r(ρ̂ ln ρ̂) = −kB
∞ X
X
n=0
ρnl ln ρnl
(2.106)
l
onde ρnl é o elemento de matriz (diagonal) do operador densidade ρ̂ correspondente aos números quânticos l, n. Os vínculos a ser satisfeitos neste caso são:
U = hĤi = T r(ρ̂Ĥ) =
N = hN̂ i = T r(ρ̂N̂) =
T r ρ̂ =
∞ X
X
n=0
∞ X
X
n=0
∞
X
Eln ρnl
(2.107)
l
n
n=0
X
ρnl
(2.108)
l
ρnl = 1,
(2.109)
l
que serão incorporados no processo de variação via multiplicadores de Lagrange.
Fazendo isso obtemos
"
#
XX
δ
{α0 ρnl + α1 Eln ρnl + α2 nρnl − kB ρnl ln ρnl } = 0
n
l
XX
n
l
[(α0 − kB ) + α1 Eln + α2 n − kB ln ρnl ] δρnl = 0
(2.110)
Daniel A. Stariolo - IF-UFRGS - 2014
35
Desta condição, e como a identidade vale para variações arbitrárias, obtemos:
kB ln ρ̂ = (α0 − kB ) + α1 Ĥ + α2 N̂
ou
ρ̂ = e
α0
kB
−1
α1
e kB
(2.111)
α
Ĥ+ k 2 N̂
B
Usando a normalização da matriz densidade, definimos a função
α
α2
α1
1− k 0
B
Ĥ +
N̂ .
Z ≡e
= T r exp
kB
kB
(2.112)
(2.113)
A função Z é conhecida como grande função de partição. Para fixar os valores
das constantes α1 e α2 multiplicamos (2.111) por ρ̂ e tomamos o traço:
(α0 − kB ) + α1 U + α2 N + S = 0
(2.114)
ou, multiplicando pela temperatura:
−kB T ln Z + α1 T U + α2 T N + T S = 0
(2.115)
Para determinar os valores das constantes α1 e α2 vamos exigir consistência com
a termodinâmica. Identificando α1 = −1/T , α2 = µ/T , onde µ é o potencial
quimico, e da definição termodinâmica da função grande potencial:
Ω(T, V, µ) = U − T S − µN
(2.116)
Ω(T, V, µ) = −kB T ln Z.
(2.117)
Z(T, V, µ) = e−βΩ(T,V,µ) = T r e−β(Ĥ−µN̂ )
(2.118)
obtemos:
Então
e
h
i
1
ρ̂ = exp −β(Ĥ − µN̂) .
Z
Das relações anteriores podemos obter, por exemplo,
∂Ω
∂Ω
N =−
S=−
∂T V,µ
∂µ T,V
(2.119)
(2.120)
Daniel A. Stariolo - IF-UFRGS - 2014
36
Usando a relação de Euler: U = T S − P V + µN obtemos Ω = −P V . Finalmente podemos obter uma relação entre a grande função de partição e a função de
partição canônica:
X
X
n
e−βEl
Z = T r e−β(Ĥ−µN̂ ) =
eβµn
n
=
X
l
n
z ZN (T, V )
(2.121)
n
onde z = eβµ é conhecida como fugacidade.
Mais uma vez, como no caso do ensemble canônico, a distribuição que maximiza a entropia de Gibbs é dada pelo exponencial de Boltzmann da energia
correspondente ao sistema sujeito aos vínculos macroscópicos correspondentes,
neste caso temperatura e potencial quimico fixos. Este procedimento pode ser
generalizado facilmente para outras situações com diferentes vínculos, como será
discutido com um pouco mais de detalhe no final da próxima seção.
2.4.1 Flutuações no número de partículas
No ensemble grande canônico a temperatura e o número médio de partículas são
fixos, mas os valores da energia e do número de partículas podem flutuar. Já
vimos como estimar as flutuações da energia para um sistema em contato com
um reservatório térmico. Vamos agora fazer uma análise semelhante e ver como
se comportam as flutuações no número de partículas para um sistema em contato
com um reservatório de partículas.
Começamos escrevendo a condição de normalização das probabilidades da
seguinte forma:
Tr ρ = Tr eβ(Ω(T,µ)−H+µN ) = 1,
(2.122)
onde a notação é válida tanto para sistemas quânticos, onde ρ ≡ ρ̂, H ≡ Ĥ, etc.
são operadores, quanto para sistemas clássicos onde T r corresponde a uma integral no espaço de fase e ρ, H, N, etc. são as funções densidade de probabilidade,
Hamiltoniano, número de partículas, etc.
Derivando em relação ao potencial químico obtemos:
∂Ω
β(Ω(T,µ)−H+µN )
Tr β
= 0,
(2.123)
+ βN e
∂µ
ou
β
∂Ω
+ β Tr Neβ(Ω(T,µ)−H+µN ) = 0.
∂µ
(2.124)
Daniel A. Stariolo - IF-UFRGS - 2014
Derivando mais uma vez:
∂Ω
∂2Ω
β(Ω(T,µ)−H+µN )
= 0,
+ β Tr Nβ
+N e
β
∂µ2
∂µ
37
(2.125)
ou
2 ∂2Ω
2 ∂Ω
2
+
β
Tr
[Nρ]
+
β
Tr
N ρ = 0.
(2.126)
∂µ2
∂µ
Usando a relação (2.120) obtemos uma expressão para o desvio quadrático médio
do número de partículas:
β
2
∂ hNi
∂2Ω
.
N − hNi2 = −kB T 2 = kB T
∂µ
∂µ
(2.127)
É possível mostrar (ver, por exemplo, o livro de Salinas [4]) que a derivada do
número médio de partículas em relação ao potencial quimico está relacionada
com a compressibilidade isotérmica do sistema:
kB T
∂ hNi
kB T κT
= hNi2
∂µ
V
(2.128)
Por tanto, o desvio relativo ao valor médio no número de partículas é da ordem:
q
hN 2 i − hNi2
∼ V −1/2 .
(2.129)
hNi
Então vemos que a medida que o volume do sistema aumenta o número de partículas se afasta muito pouco do seu valor médio, que por sua vez coincide com
o valor mais provável da distribuição de equilíbrio de Boltzmann. Concluimos
que, no limite termodinâmico, quando N e V são muito grandes (comparados
com o tamanho das partículas) as flutuações da energia e do número de partículas
são desprezíveis, e por tanto nestas condições os três ensembles, microcanônico,
canônico e grande canônico são equivalentes do ponto de vista termodinâmico.
Uma exceção a este comportamento acontece na vizinhança de um ponto crítico
quando as flutuações na densidade do sistema podem ser muito grandes e a compressibilidade cresce sem limites. As flutuações da densidade perto de um ponto
crítico levam ao fenômeno da opalescência crítica, um fenômeno que representa
uma evidência experimental direta da presença de um ponto crítico.
Para concluir esta análise notemos a semelhança entre os operadores densidade nos ensembles canônico e grande canônico em relação ao princípio variacional de Gibbs. Em ambos os ensembles os operadores são dados pela exponencial
Daniel A. Stariolo - IF-UFRGS - 2014
38
de uma combinação linear de observáveis, um por cada vínculo macroscópico imposto via um multiplicador de Lagrange. Os valores médios de tais observáveis
são todos variáveis termodinâmicas extensivas. Os coeficientes da combinação
linear dos mesmos estão associados a multiplicadores de Lagrange respectivos e
são iguais ao parâmetro intensivo correspondente ao observável na representação
de entropia: 1/T no caso da energia e −µ/T no caso do número de partículas.
Generalizando este mecanismo é possível obter diferentes tipos de ensembles,
apropriados para situações particulares, sendo que todos são equivalentes no limite termodinâmico. Um exemplo importante é o ensemble das pressões, que
corresponde à situação de um sistema em contato com um reservatório térmico e
de pressão. Nesta situação, o número de partículas é fixo, mas a energia e o volume podem flutuar. Os vínculos externos são então a energia média e o volume
médio (parede móvel ou flexível). Maximizando a entropia de Gibbs como nos casos anteriores é possível obter a função de partição grande canônica no ensemble
das pressões:
Z ∞
Z ∞
−β(H+P V )
Υ(P, T, N) =
Tr e
dV =
e−βP V ZN (T, V ) dV, (2.130)
0
0
onde ZN (T, V ) é a função de partição canônica para um sistema de N partículas,
temperatura T e volume V e
G(T, P, N) = −kB T ln Υ(P, T, N)
(2.131)
é a energia livre de Gibbs, que é o potencial termodinâmico relevante para um
sistema a pressão constante.
2.4.2 Adsorção em superfícies
Consideremos a superfície de um material sólido, em equilíbrio termodinâmico
com um fluido (líquido ou gás), a pressão e temperatura fixas. Os átomos da superfície do sólido apresentam suas interações desbalançadas em relação aos átomos do interior do material, por causa da ausência de átomos do sólido do outro
lado da superfície. Então estes átomos superficiais podem atrair átomos do fluido
em torno, os que poderão ligarse à superfície sólida. O processo pelo qual átomos (ou moléculas) de um fluido se ligam na superfície de um sólido se chama
adsorção. Este fenômeno é fisicamente diferente da absorção, na qual os átomos
do fluido podem entrar no interior do volume do outro material, por exemplo em
poros. O processo inverso da adsorção é a desorção, na qual um átomo ligado a
Daniel A. Stariolo - IF-UFRGS - 2014
39
uma superfície se desprende da mesma e volta para o fluido. Em equilíbrio termodinâmico o número médio de partículas adsorvidas e desorvidas será o mesmo e a
concentração do material adsorvido, o adsorvato, na superfície será constante. O
processo de adsorção leva a formação de um filme do adsorvato sobre a superfície
do adsorvente, e apresenta uma grande gama de aplicações industriais.
Um processo real de adsorção é muito complexo, mas se podem entender alguns mecanismos básicos do mesmo através de um modelo simples introduzido
em 1916 por Irving Langmuir e que representa um bom exemplo de aplicação
do ensemble grande canônico clássico. Os ingredientes fundamentais do modelo
consistem em supor que
• as partículas do adsorvato se depositam em um número fixo de sítios da
superfície adsorvente, chamados sítios de adsorção.
• cada sítio de adsorção pode adsorver no máximo uma molécula.
• as moléculas adsorvidas não interagem entre si, são independentes.
• o fluido é considerado um gás ideal.
Já que a superfície do sólido se encontra em equilíbrio com o gás, este pode
ser considerado como um reservatório de partículas para a superfície. Vamos
então calcular a grande função de partição para os sítios de adsorção e depois
impor as condições de equilíbrio termodinâmico com o gás. Vamos supor então
que existem M sítios de adsorção e que a energia de ligação das moléculas na
superfície é −γ. Assim γ será a energia necessária para desorver ou evaporar uma
molécula da superfície. Podemos ainda supor que as moléculas do gás possuem
graus internos de liberdade. Seja ζ(T ) a função de partição canônica dos graus
internos de liberdade de uma molécula. A função de grande partição do conjunto
de sítios de adsorção é dada por:
ZM =
M
X
z N ZN (T ),
(2.132)
N =0
onde ZN (T ) é a função de partição canônica para um sistema de N moléculas
adsorvidas. Neste problema não deve ser incluido o fator de contagem de Boltzmann, pois os sítios de adsorção são considerados distinguíveis. Como as moléculas adsorvidas são independentes:
N
ZN (T ) = g(N) (Z1 (T ))N = g(N) eβγ ζ(T )
(2.133)
Daniel A. Stariolo - IF-UFRGS - 2014
40
onde g(N) é o número de formas de distribuir N moléculas em M sítios de adsorção. Então:
ZM =
M
X
N
M
M!
z eβγ ζ(T ) = 1 + z eβγ ζ(T )
N!(M − N)!
N =0
(2.134)
Podemos derivar o resultado anterior por um caminho alternativo. Os graus internos de liberdade das moléculas podem ser considerados redefinindo a fugacidade
z → z ′ = z ζ(T ). Cada sítio de adsorção pode ser considerado como um sistema de dois estados: com molécula adsorvida ou sem, com energias −γ e zero
respectivamente. Então podemos associar a cada sítio de adsorção um número de
ocupação ni = 0, 1, de forma que os estados ni = 0, 1 correspondem ao sítio
i-ésimo estar desocupado ou ocupado por um adsorvato respectivamente.P
Assim,
podemos escrever um Hamiltoniano para este sistema na forma H = −γ M
i=1 ni
PM
e N = i=1 ni , e a função de grande partição pode ser escrita na forma:
′
ZM = Tr e−β(H−µ N ) =
X
n1 =0,1
···
X
P
e
i
ni β(γ+µ′ )
nM =0,1
M
′
= 1 + eβ(γ+µ )
(2.135)
que resulta idêntica com a (2.134). O número médio de partículas adsorvidas é
dado por:
∂ ln ZM
z eβγ ζ(T )
hNi = z
=M
.
(2.136)
∂z
1 + z eβγ ζ(T )
Se define recobrimento, θ(T, P ), à fração de partículas adsorvidas na superfície
hNi/M, que resulta:
z eβγ ζ(T )
.
(2.137)
θ=
1 + z eβγ ζ(T )
A condição de equilíbrio termodinâmico entre a superfície e o gás corresponde à
igualdade entre os seus potenciais quimicos. O potencial quimico do gás corresponde ao de um gás ideal, cujo valor é:
hNi λ3T
(2.138)
µ = kB T ln
V
Por tanto:
z ζ(T ) =
hNi λ3T
P λ3T
=
V
kB T
(2.139)
Daniel A. Stariolo - IF-UFRGS - 2014
41
Então podemos escrever:
θ=
onde
P0 =
P
,
P0 + P
(2.140)
kB T −βγ
e .
λ3T
(2.141)
A equação (2.140) se conhece como isoterma de Langmuir e define o valor do
recobrimento em função da pressão do gás para uma temperatura fixa. Notamos
que para P/P0 ≪ 1 o recobrimento se comporta como θ ∼ P/P0 e θ → 1
quando P/P0 ≫ 1. O modelo de Langmuir, embora extremamente simplificado,
resulta fisicamente muito natural, e por tanto serve como bom ponto de partida
para incluir de forma sistemática condições mais realistas, como interações entre
as partículas adsorvidas ou modelos mais sofisticados para o reservatório fluido.
Capítulo 3
Estatísticas quânticas
3.1 Sistemas de partículas indistinguíveis
O Princípio de Incerteza de Heisenberg leva a concluir que duas partículas idênticas são indistiguíveis, a menos que exista uma situação particular que limite suas
posições espaciais, como é caso dos átomos em um sólido.
Uma consequência desta condição é que operadores, como o Hamiltoniano
de N partículas, são invariantes frente a permutações arbitrárias das variáveis dinâmicas associadas as partículas, ou seja, os operadores são invariantes frente a
uma “renumeração” das partículas. Como sabemos, por cada operação de simetria
existe um operador associado que comuta com o Hamiltoniano do sistema, e pode
ser diagonalizado simultaneamente. Veremos que existem apenas dois autovalores
possíveis associados aos operadores de permutação de partículas, e assim o espaço
de Hilbert associado a um sistema de N partículas quânticas fica dividido em dois
subespaços, com características muito diferentes e implicações fundamentais para
o comportamento físico dos sistemas associados a cada um deles.
Vamos supor um sistema de N partículas sem spin. A função de onda correspondente na representação de coordenadas é Ψ(q1 , . . . , qN ). Trocas na enumeração das partículas podem ser descritas pelos operadores permutação de pares P̂ik ,
os quais trocam as coordenadas qi e qk na função de onda:
P̂ik Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ) = Ψ(q1 , . . . , qk , . . . , qi , . . . , qN )
(3.1)
Se o Hamiltoniano é invariante frente a trocas arbitrárias de pares de partículas se
verifica que:
h
i
Ĥ, P̂ik = 0
∀i, k = 1, . . . , N com i 6= k
(3.2)
42
Daniel A. Stariolo - IF-UFRGS - 2014
43
As autofunções de P̂ik têm que satisfazer:
P̂ik Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ) = λΨ(q1 , . . . , qi , . . . , qk , . . . , qN )
= Ψ(q1 , . . . , qk , . . . , qi , . . . , qN ) (3.3)
Aplicando novamento o operador P̂ik obtemos:
P̂ik2 Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ) = Ψ(q1 , . . . , qi , . . . , qk , . . . , qN )
= λ2 Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ). (3.4)
Ou seja, os autovalores do operador permutação de pares podem tomar apenas
dois valores λ = ±1. Assim, as autofunções são chamadas de simétricas se
correspondem a λ = 1 e antissimétricas se correspondem a λ = −1. Se o Hamiltoniano comuta com todos os operadores de permutação, então suas autofunções
podem ser construidas de forma a serem totalmente simétricas, ou seja, simétricas
frente a qualquer permutação de coordenadas, ou totalmente antissimétricas, ou
seja, antissimétricas frente a qualquer permutação de coordenadas.
Uma permutação qualquer pode ser realizada pelo operador de permutação P̂ ,
tal que:
P̂ Ψ(q1 , q2 , . . . , qN ) = Ψ(qP1 , qP2 , . . . , qPN )
(3.5)
onde P1 , . . . , PN corresponde a uma permutação arbitrária dos números 1, . . . , N.
É simples notar que qualquer operador P̂ é equivalente a aplicar uma sequência
de permutações de pares P̂ij . Por tanto, as autofunções de P̂ também serão funções simétricas ou antissimétricas. Se uma autofunção qualquer do Hamiltoniano
Ψ(q1 , . . . , qN ) não tiver nenhuma paridade definida, podemos construir autofunções totalmente simétricas ou totalmente antissimétricas a partir dela da seguinte
forma:
X
ΨS (q1 , . . . , qN ) = BS
P̂ Ψ(q1 , . . . , qN )
(3.6)
P
A
Ψ (q1 , . . . , qN ) = BA
X
(−1)P P̂ Ψ(q1 , . . . , qN )
(3.7)
P
onde BS , BA são constantes de normalização e as somas varrem todas as possíveis permutações dos qi′ s. O sinal (−1)P é +1 se a permutação for par, e −1 se
for ímpar. Uma permutação é par (ímpar) se o número de permutações de pares
necessárias para obter a permutação geral P1 , . . . , PN a partir da 1, 2, . . . , N for
par (ímpar)
Daniel A. Stariolo - IF-UFRGS - 2014
44
Como exemplo, consideremos uma função de onda de três partículas Ψ(q1 , q2 , q3 ).
Podemos construir funções totalmente simetrizadas com a receita anterior:
ΨS (q1 , q2 , q3 ) = BS [Ψ(q1 , q2 , q3 ) + Ψ(q2 , q1 , q3 ) + Ψ(q1 , q3 , q2 )
+Ψ(q2 , q3 , q1 ) + Ψ(q3 , q1 , q2 ) + Ψ(q3 , q2 , q1 )]
A
Ψ (q1 , q2 , q3 ) = BA [Ψ(q1 , q2 , q3 ) − Ψ(q2 , q1 , q3 ) − Ψ(q1 , q3 , q2 )
+Ψ(q2 , q3 , q1 ) + Ψ(q3 , q1 , q2 ) − Ψ(q3 , q2 , q1 )]
Funções de onda de sistemas de partículas de um mesmo tipo (elétrons, fótons,
quarks) apresentam um tipo de simetria definido frente ao intercâmbio de partículas. Ou seja, as funções de onda de partículas elementares são simétricas ou antissimétricas. As partículas descritas por funções de onda simétricas são chamadas
de bósons em homenagem ao físico indio Satyendra Nath Bose (1894-1974). Partículas descritas por funções de onda antissimétricas são chamadas de férmions,
em homenagem ao físico italiano Enrico Fermi (1901-1954).
O caráter de simetria das funções de onda está também relacionado com o
spin das partículas elementares. Na natureza se observa que todos os férmions
possuem spin semi-inteiro, enquanto que os bósons apresentam spin inteiro. Esta
relação é conhecida como Teorema spin-estatística.
As propriedades de simetria das partículas frente ao intercâmbio têm profundas consequências nas propriedades físicas dos sistemas. Do ponto de vista da
Mecânica Estatística, bósons e férmions se comportam de forma muito diferente,
dando lugar as chamadas estatísitca de Bose-Einstein e estatística de Fermi-Dirac,
cujas propriedades vamos analizar a seguir.
Para poder construir autofunções com simetria definida, é necessário definir
uma base inicial de autofunções do Hamiltoniano. Uma base possível é a correspondente a um sistema de partículas não interagentes, quando o Hamiltoniano das
N partículas se reduz à soma de operadores de partícula única:
Ĥ(q̂1 , . . . , q̂N , p̂1 , . . . , p̂N ) =
N
X
ĥ(q̂i , p̂i )
(3.8)
i=1
Resolvendo o problema de autovalores para uma partícula:
ĥφk (q) = ǫk φk (q)
(3.9)
onde k representa um conjunto de números quânticos, se pode construir um autoestado de Ĥ na forma:
N
ΨE
(3.10)
k1 ,...,kN = Πi=1 φki (qi )
Daniel A. Stariolo - IF-UFRGS - 2014
45
que corresponde a um autovalor de Ĥ:
E=
N
X
ǫki
(3.11)
i=1
Assim, no caso de partículas independentes podemos escrever as autofunções totalmente simétricas e antissimétricas na forma:
X
ΨE,S
P̂ φk1 (q1 ) · · · φkN (qN )
(3.12)
k1 ,...,kN (q1 , . . . , qN ) = BS
P
ΨE,A
k1 ,...,kN (q1 , . . . , qN )
= BA
X
P
(−1)P P̂ φk1 (q1 ) · · · φkN (qN )
(3.13)
A função de onda totalmente antissimétrica pode ser escrita em forma de determinante:


φk1 (q1 ) · · · φk1 (qN )


..
..
(3.14)
ΨE,A

.
.
k1 ,...,kN (q1 , . . . , qN ) = BA det 
φkN (q1 ) · · · φkN (qN )
conhecido como determinante de Slater, por John Clarke Slater (1900-1976)
que os usou para obter funções de onda antissimétricas para descrever sistemas
de elétrons. Da forma do determinante se observa que se duas ou mais partículas
estiverem no mesmo estado quântico, então o determinante terá duas ou mais filas
ou colunas iguais, e por tanto será identicamente nulo. Este resultado corresponde
ao Principio de exclusão de Pauli, ou seja, dois ou mais férmions não podem
ocupar simultaneamente o mesmo estado quântico.
Também notamos que um estado quântico é caracterizado completamente pelo
conjunto de números quânticos {k1 , . . . , kN }. Uma permutação destes índices somente produz um câmbio de sinal no caso antissimétrico e deixa a função de onda
inalterada no caso simétrico. A indistinguibilidade das partículas frente a permutações faz com que a quantidade relevante para caracterizar um estado, ou função
de onda, seja quantas partículas existem em cada estado. Esta especificação pode
ser feita definindo os números de ocupação: nk . A especificação dos P
números de
ocupação para todos os níveis k de cada partícula, sujeitos ao vínculo k nk = N
determina completamente um estado simétrico. No caso de férmions, o Princípio
de Exclusão limita os possíveis valores dos números de ocupação a nk = 0, 1.
A impossibilidade de identificar as partículas individualmente implica que todos os operadores associados a obseráveis quaisquer devem comutar com os operadores de permutação:
h
i
Ô, P̂ = 0
(3.15)
Daniel A. Stariolo - IF-UFRGS - 2014
46
Em particular, o operador densidade ρ̂ deve também ser invariante frente a permutações das partículas do sistema.
Uma vez definidos os números de ocupação, a energia de um autoestado de N
partículas é dada por:
X
E=
nk ǫk
(3.16)
k
Se conhecermos e espectro de energias ǫi do sistema, podemos calcular a função
de partição canônica do mesmo na forma
X
X
nk ǫk )
(3.17)
Z(T, N, V ) = T r e−β Ĥ =
exp (−β
k
{nk }
onde,
P de forma geral, o conjunto de números de ocupação deve satisfazer o vínculo
k nk = N. Este vínculo torna o cálculo explícito da função de partição uma
tarefa complicada em geral. A dificuldade se reduz se considerarmos o ensemble
grande canônico. A grande função de partição é dada por:
Z(T, µ, V ) = T r e−β(Ĥ−µN̂ ) =
=
∞
X
eβµN
N =0
=
∞ X
X
N =0 {nk }
X
{nk }
∞
X
z N Z(T, N, V )
(3.18)
N =0
exp (−βn1 ǫ1 − βn2 ǫ2 − · · · )
exp (−β(ǫ1 − µ)n1 − β(ǫ2 − µ)n2 − · · · )
Como N está somado entre zero e infinito, e os n′k s estão sujeitos ao vínculo já
visto, a última linha é equivalente a somar os n′k s sem restrições:
X
Z(T, µ, V ) =
exp (−β(ǫ1 − µ)n1 − β(ǫ2 − µ)n2 − · · · )
n1 ,n2 ,...
=
X
e−β(ǫ1 −µ)n1
n1
=
e−β(ǫ2 −µ)n2 . . .
n2
YX
k
X
nk
exp [−β(ǫk − µ)nk ]
(3.19)
A função grande potencial é dada por:
Ω(T, µ, V ) = −kB T ln Z = −kB T
X
k
ln
(
X
nk
e−β(ǫk −µ)nk
)
(3.20)
Daniel A. Stariolo - IF-UFRGS - 2014
47
O número de ocupação médio é dado por:
1 ∂ ln Z hnk i = −
β ∂ǫk T,V
(3.21)
3.2 Gases ideais quânticos
Para um gás de Bose-Einstein a grande função de partição toma a forma:
)
(
∞ X
∞
∞
X
X
X
nk (ǫk − µ)
(3.22)
ZBE (T, µ, V ) =
···
exp −β
n1 =0 n2 =0
n∞ =0
k
No caso de um sistema de férmions, o Princípio de Exclusão limita os números
de ocupação resultando na estatística de Fermi-Dirac:
)
(
1 X
1
1
X
X
X
nk (ǫk − µ)
(3.23)
exp −β
···
ZF D (T, µ, V ) =
n1 =0 n2 =0
n∞ =0
k
3.2.1 O gás de Maxwell-Boltzmann e o limite clássico
Antes de analizar em detalhe os comportamentos de sistemas de bósons e férmions, vamos considerar novamente um sistema de partículas distinguíveis, só que
agora do ponto de vista das estatísticas quânticas. Se as partículas são distinguíveis não teremos nenhuma restrição nos valores dos números de ocupação. No
entanto, para um conjunto de números de ocupação fixos {nk } a troca de duas
partículas em diferentes níveis ki e kj , com números de ocupação nki e nkj corresponde agora a um novo estado, diferente do anterior, mas que não modifica
os números de ocupação, e por tanto, possui o mesmo fator exponencial. Desta
forma, para um conjunto de valores {nk }, devemos multiplicar o fator exponencial por um fator de degenerescência, que corresponde ao número de combinações
diferentes de partículas (distinguíveis) entre todos os estados (níveis). A função
grande partição toma a forma:
(
)
∞ X
∞
∞
X
X
X
N!
Zdist (T, µ, V ) =
···
exp −β
nk (ǫk − µ)
n
!n
!
·
·
·
n
!
1
2
∞
n1 =0 n2 =0
n∞ =0
k
(3.24)
Para altas temperaturas o número médio de bósons em qualquer estado k é muito
pequeno, e então os estados que contribuem para a função de grande partição são,
Daniel A. Stariolo - IF-UFRGS - 2014
48
essencialmente, aqueles com número de ocupação 0 ou 1. Por isto, o comportamento de bósons e férmions em altas temperaturas é essencialmente o mesmo.
Este comportamento também vale para partículas distinguíveis. Então, no limite
de altas temperaturas, a única diferença entre as estatísticas de Bose-Einstein,
Fermi-Dirac e partículas distinguíveis é o fator N! na expressão desta última. Notamos então, que se quisermos considerar as partículas a altas temperaturas como
indistinguíveis basta dividir em Zdist por N!, que é justamente o fator de contagem
de Gibbs.
Um sistema de partículas descrito pela função de grande partição:
(
)
∞ X
∞
∞
X
X
X
1
ZM B (T, µ, V ) =
···
exp −β
nk (ǫk − µ)
n !n ! · · · n∞ !
n∞ =0 1 2
n1 =0 n2 =0
k
(3.25)
se conhece como gás de Maxwell-Boltzmann e descreve o comportamento a altas
temperaturas de todos os gases ideais (com o correto fator de contagem).
Vamos então re-derivar os resultados para o gás ideal clássico considerado
como um gás de MB. É fácil somar a função de grande partição neste caso, pois
os termos para diferentes números de ocupação se fatoram:
!
∞
Y X
1
exp {−βnk (ǫk − µ)}
ZM B (T, µ, V ) =
n
!
k
nk =0
k
Y
exp e−β(ǫk −µ)
(3.26)
=
k
onde usamos o resultado da série infinita ex =
potencial resulta:
P∞
n
n=0 (1/n!)x .
A função grande
ΩM B (T, µ, V ) = −kB T ln ZM B (T, µ, V )
X
= −kB T
e−β(ǫk −µ)
k
= −kB T z
X
e−βǫk ,
(3.27)
k
onde z é a fugacidade. O número médio de partículas é dado por:
X
∂ΩM B
hNi = −
=
z e−βǫk .
∂µ
T,V
k
(3.28)
Daniel A. Stariolo - IF-UFRGS - 2014
Como também hNi =
estado k:
P
k hnk i,
49
obtemos para o número de ocupação médio do
hnk i = z e−βǫk .
(3.29)
Os resultados anteriores são válidos para qualquer espectro de energias ǫk . No
caso de partículas livres, os níveis de energia são dados pela solução da equação
de Shroëdinger:
ĥφk (q) = ǫk φk (q)
(3.30)
onde
h̄2 d2
p̂2
=−
(3.31)
2m
2m dq 2
em uma dimensão espacial. A extensão para mais dimensões é imediata. Os
autoestados são ondas planas
ĥ =
φk (q) = C eikq
com
ǫk =
h̄2 k 2
2m
(3.32)
Suponhamos que as partículas estão em um recipiente de dimensão linear L e paredes impenetráveis, o que pode ser implementado considerando um potencial de
barreira infinita em q = 0 e q = L e zero nos outros pontos. Como a probabilidade
de encontrar a partícula fora da caixa é zero, então a função de onda deve ser nula
nos extremos da mesma. Isto leva a que a forma da função de onda deve ser:
φk (q) = A sin (kq)
(3.33)
A condição de contorno φk (kL) = 0 determina os possíveis valores do vetor de
onda:
nπ
k=
com
n = 1, 2, 3, . . .
(3.34)
L
No limite termodinâmico L → ∞ o espectro tenderá a ser continuo, de forma que
Z
X
dk
f (k) →
f (k)
(3.35)
(π/L)
k
já que π/L é a distância entre valores consecutivos do vetor de onda k. Então,
desconsiderando graus de liberdade internos das partículas, como o spin, e gene-
Daniel A. Stariolo - IF-UFRGS - 2014
50
ralizando os resultados anteriores para d = 3, obtemos:
∞
X
∞
X
∞
X
h̄2 k 2
−µ
ln ZM B (T, µ, V ) =
exp −β
2m
kx =π/L ky =π/L kz =π/L
2 2
Z ∞ 3
h̄ k
dk
exp −β
−µ
→ V
3
2m
−∞ (2π)
3/2
V βµ 2πm
=
,
e
(2π)3
βh̄2
(3.36)
onde em três dimensões k 2 = kx2 + ky2 + kz2 . A função grande potencial é dada por:
ΩM B (T, µ, V ) = −kB T ln ZM B (T, µ, V )
3/2
2πm
βµ
5/2
= −V e (kB T )
h2
(3.37)
que coincide com um cálculo puramente clássico, considerando um volume unitário no espaço de fase igual a h3 e com o correto fator de contagem de Gibbs.
Finalmente, o número médio de partículas do sistema é dado pela (3.28), que
é equivalente a
3/2
2πm
∂
.
(3.38)
hNi = z ln ZM B = z V
∂z
βh2
Então, a fugacidade z resulta uma função da densidade média hNi/V e da temperatura:
hNi
h3
V (2πmkB T )3/2
3
λT
=
a
z =
(3.39)
onde λT é o comprimento de onda térmico, e (V /hNi)1/3 = a representa uma
distância interatômica típica. O limite clássico corresponde a altas temperaturas
ou baixas densidades, então nesse limite a fugacidade é pequena z ≪ 1, o que
corresponde a a ≫ λT , que é a expectativa usual da mecânica quântica.
Daniel A. Stariolo - IF-UFRGS - 2014
51
3.2.2 Estatística de Bose-Einstein
Usando o resultado
∞
X
nk =0
P∞
n=0
xn = 1/(1 − x) para x < 1, de (3.22) obtemos:
exp {−β(ǫk − µ)nk } =
1
1 − exp [−β(ǫk − µ)]
(3.40)
Como exp [−β(ǫk − µ)] < 1 ∀k e ǫk ≥ 0, entao ǫk − µ > 0 e o potencial quimico
deve ser negativo sempre para um gás de bósons livres: µ < 0.
O resultado anterior permite escrever:
X
ln {1 − exp [−β(ǫk − µ)]}
(3.41)
ln ZBE (T, µ, V ) = −
k
Da definição do número de ocupação médio, eq. (3.21), obtemos no caso do gás
de bósons:
1
hnk i = β(ǫ −µ)
(3.42)
k
e
−1
Como e−β(ǫk −µ) < 1 ∀k, então hnk i ≥ 0 ∀k.
Por outro lado, para baixas temperaturas β ≫ 1 resulta:
hnk i ≈ 0
(3.43)
para a maioria dos estados, exceto os de menor energia.
3.2.3 Estatística de Fermi-Dirac
No caso de férmions nk = 0, 1 e então:
1
X
nk =0
exp {−β(ǫk − µ)nk } = 1 + e−β(ǫk −µ)
(3.44)
com o que
ln ZF D (T, µ, V ) =
X
k
ln {1 + exp [−β(ǫk − µ)]}
O número de ocupação médio resulta, neste caso:
1
1 se ǫk < µ
hnk i = β(ǫ −µ)
≈
0 se ǫk > µ
e k
+1
Sempre se verifica que 0 ≤ hnk i ≤ 1.
(3.45)
(3.46)
Capítulo 4
Gás ideal de Bose-Einstein
Vamos descrever neste capítulo o comportamento estatístico e termodinâmica de
gases de bósons independentes. A análise nos levará ao estudo do fenômeno da
condensação de Bose-Einstein, uma transição de fases em um sistema quântico
de partículas livres. A condensação de Bose-Einstein é uma consequência do
comportamento quântico de bósons indistiguíveis e foi descrita inicialmente na
década de 1920. A primeira demonstração experimental da condensação de BE
veio muito mais tarde, em 1995, em trabalhos com átomos frios de rubídio Rb87
por Eric Cornell e Carl Wieman no JILA e de forma independente com átomos de
sódio Na23 pelo grupo de Wolfgang Ketterle no MIT. As temperaturas críticas são
da ordem dos nanokelvins, perto do zero absoluto !, e o tamanho dos condensados
foi de uns 2000 átomos de rubídio e 200000 átomos de sódio aproximadamente.
Por esses trabalhos Cornell, Wieman e Ketterle ganharam o Prêmio Nobel de
Física em 2001.
Também vamos estudar o comportamento de um gás de fótons e o problema
relacionado da radiação de corpo negro.
4.1 A condensação de Bose-Einstein
A partir dos resultados do capítulo anterior podemos escrever a função grande
potencial para um gás de Bose-Einstein como:
X
ΩBE = −kB T ln ZBE (T, µ, V ) = kB T
ln {1 − exp [−β(ǫk − µ)]}, (4.1)
k
52
Daniel A. Stariolo - IF-UFRGS - 2014
53
de onde podemos calcular o número médio de partículas na forma:
X e−β(ǫk −µ) X 1
∂ΩBE
=
(4.2)
=
hNi = −
−β(ǫk −µ)
β(ǫk −µ) − 1
∂µ T,V
1
−
e
e
k
k
Lembrando que
hNi =
X
k
hnk i
(4.3)
obtemos para o número médio de partículas no estado k:
hnk i =
1
eβ(ǫk −µ)
−1
=
1
z −1 eβǫk
−1
(4.4)
Para avançar na determinação das funções termodinâmicas devemos especificar o
espectro de autovalores da energia ǫk , que define o sistema em estudo. Consideremos então um sistema de bósons livres, cujo espectro de energias é dado por
ǫk = h̄2 k 2 /2m. Consideramos o sistema em uma caixa de volume V = L3 com
condições de contorno periódicas. Então, os vetores de onda podem tomar os valores ki = (2π/L)ni , onde i = x, y, z e com ni = 0, ±1, . . .. Quando L → ∞ o
espectro de valores da energia ǫk se torna continuo, e as somas tendem a integrais:
Z
X
d3 k
··· →
···
(4.5)
(2π/L)3
k
Desta forma, como o espectro depende de ~k somente através do módulo k = |~k|,
podemos reescrever o número médio de partículas na forma:
3/2 Z ∞ Z ∞
4πV
k2 z
z
4V 2πmkB T
2
hNi =
x
dx.
dk = √
(2π)3 0 eβh̄2 k2 /2m − z
h2
π
ex2 − z
0
(4.6)
Então podemos escrever uma equação de estado que relaciona a fugacidade, a
temperatura e a densidade na forma:
λ3T ρ = g3/2 (z),
√
(4.7)
onde λT = h/ 2πmkB T é o comprimento de onda térmico, e definimos a função
de Bose-Einstein :
Z ∞ ∞
X
4
zk
z
2
g3/2 (z) = √
dx
=
(4.8)
x
3/2
π 0
ex2 − z
k
k=1
Daniel A. Stariolo - IF-UFRGS - 2014
54
4
3
g3/2(z)
g5/2(z)
2.612
2
1.342
1
0
0.0
.5
1.0
z
Figura 4.1: As funções g3/2 e g5/2 .
é um caso particular da familia de funções
∞
X
zk
gn (z) =
.
kn
k=1
(4.9)
A função g3/2 (z) é limitada e bem comportada no intervalo 0 ≤ z ≤ 1, com
valores nos extremos
g3/2 (0) = 0
∞
X
1
= ζ(3/2) = 2.612 . . .
g3/2 (1) =
3/2
k
k=1
(4.10)
onde a função ζ(x) é a função zeta de Riemann. A derivada da g3/2 (z) diverge
para z → 1 e da expansão em série para z ≪ 1 se obtém que g3/2 (z) ∼ z para
valores pequenos de z, como se observa na figura 4.1.
A equação de estado (4.7) é uma equação implícita para a fugacidade z em
função de ρ e T . Mas é fácil observar que o lado esquerdo pode tomar valores arbitrariamente grandes para T suficientemente pequena ou ρ suficientemente
grande. De fato, na figura 4.1 podemos notar que se λ3T ρ > 2.612 a equação não
tem solução real, já que z ≤ 1. Concluimos que deve haver alguma inconsistência
Daniel A. Stariolo - IF-UFRGS - 2014
55
no nosso cálculo anterior. Uma forma de ver onde pode residir o problema é ver
o comportamento do número médio de partículas no estado fundamental, ou seja,
quando ǫ = 0:
z
hn0 i =
(4.11)
1−z
Notamos que limz→1hn0 i = ∞. Por tanto, o número de partículas no estado
fundamental diverge para z → 1 no limite termodinâmico. Vamos então analizar
em mais detalhe a forma como foi feito o limite termodinâmico no cálculo da
equação de estado. Para isso começamos por separar a contribuição do estado
fundamental da soma nos estados no cálculo do hNi:
Z ∞
z
4πV
k2 z
dk
hNi =
+
1 − z (2π)3 2π/L eβh̄2 k2 /2m − z
Z ∞
z
z
4V
2
x
=
dx
(4.12)
+ √
1 − z λ3T π λT √π/L
ex2 − z
É possível mostrar que o limite inferior na última integral pode ser extendido a
zero sem afetar o resultado no limite termodinâmico, obtendo a equação de estado
na forma:
λ3 z
+ g3/2 (z)
(4.13)
λ3T ρ = T
V 1−z
Na figura 4.2 vemos o comportamento do primeiro termo da equação (4.13)
para diferentes valores de V . Notamos que, sempre que V seja finito, a função do
lado direito de (4.13) diverge e z nunca atinge o valor máximo z = 1 para qualquer
valor de T e ρ, por causa da divergência, como se mostra na figura 4.3(a). Somente
quando T → 0 ou ρ → ∞ então z → 1 e, consequentemente hn0 i → ∞, como
é de se esperar pois nestas condições todas as partículas devem estar no estado
fundamental. A solução de z em função de λ3T ρ para um volume V finito se
mostra na figura 4.3(b).
Consideremos agora que V ≫ 1. Agora as soluções da eq. (4.13) para λ3T ρ ≥
2.612 serão próximas de z = 1. Assim, podemos aproximar:
λ3T ρ ≈
λ3T z
+ g3/2 (1)
V 1−z
(4.14)
de onde podemos agora isolar para z(V ):
z(V ) ≈
ρ0 V
1
∼1−
1 + ρ0 V
ρ0 V
(4.15)
Daniel A. Stariolo - IF-UFRGS - 2014
56
1.0
V = 10
V = 100
V = 1000
1
z
V 1− z
.5
0.0
0.0
.5
1.0
z
Figura 4.2: O comportamento do primeiro termo da eq. (4.13) para diferentes
valores do volume.
z
5
2
4
1
O 
V 
1
O 
V 
3
λ3T z
+ g3/ 2 (z)
V 1− z
2
2.612
1
λ3T ρ
1
g3/ 2 (z)
0
0
0.0
.5
z
z
0.0
1.0
λ z
V 1− z
3
T
.5
1.0
1.5
2.0
2.5
2.612
3.0
3.5
4.0
λ3T ρ
Figura 4.3: (a)Solução gráfica da eq. (4.13). (b)Fugacidade de um gás ideal de
Bose-Einstein em um volume finito V .
Daniel A. Stariolo - IF-UFRGS - 2014
57
2
z
1
0
0
1
2
3
4
λ3T ρ
2.612
Figura 4.4: Fugacidade de um gás ideal de Bose-Einstein no limite termodinâmico.
onde ρ0 é uma quantidade que não depende de V . Assim, vemos que as soluções
para λ3T ρ ≥ 2.612 tendem para z = 1 quando V → ∞. A fugacidade de um gás
de Bose-Einstein, no limite termodinâmico é, por tanto:
1
se λ3T ρ ≥ g3/2 (1)
z=
(4.16)
a raiz de λ3T ρ = g3/2 (z) se λ3T ρ < g3/2 (1)
como se mostra na figura 4.4.
Vemos então que se λ3T ρ ≥ g3/2 (1) um número macroscópico de partículas
passam a ocupar o estado fundamental. Este fenômeno se conhece como condensação de Bose-Einstein, e começa a acontecer quando z → 1. A condição z = 1
permite definir uma temperatura de transição como λ3Tc ρ = g3/2 (1), o que resulta
em uma temperatura crítica:
Tc =
h2
2πmkB
ρ
g3/2 (1)
2/3
(4.17)
Invertendo a mesma equação podemos obter o volume específico crítico em fun-
Daniel A. Stariolo - IF-UFRGS - 2014
58
ção da temperatura:
1
=
vc =
ρc
h2
2πmkB
3/2
g3/2 (1)
T 3/2
(4.18)
Escrevendo a equação de estado na região de condensação na forma:
ρ = ρ0 +
1
g3/2 (1),
λ3T
(4.19)
podemos calcular a fração de bósons no estado fundamental:
hn0 i
ρ0
1
=
= 1 − 3 g3/2 (1)
hNi
ρ
ρλT
3/2
3
λTc
T
= 1− 3 =1−
λT
Tc
(4.20)
(4.21)
Então vemos que a fração de partículas no estado fundamental, no limite termodinâmico, se comporta como um parâmetro de ordem:
(
3/2
T
hn0 i
1
−
se T ≤ Tc
Tc
=
(4.22)
η≡
hNi
0
se T > Tc
como se mostra na figura 4.5.
Para determinar o comportamento da pressão no condensado de Bose-Einstein,
reescrevemos a função grande potencial (4.1) no limite continuo e após ter separado a contribuição do estado fundamental, obtendo:
Z
2 2
4πkB T V ∞ 2
k ln (1 − zeβh̄ k /2m )dk
ΩBE = kB T ln (1 − z) +
3
(2π)
2π/L
Z ∞
4kB T V
2
x2 ln (1 − zex )dx
(4.23)
= kB T ln (1 − z) + 3 √
√
λT π λT π/L
Então, a pressão é dada por:
P =−
ΩBE
kB T
kB T
=−
ln (1 − z) + 3 g5/2 (z)
V
V
λT
onde
4
g5/2 (z) = √
π
Z
∞
0
2
x2 ln (1 − ze−x )dx =
∞
X
zk
k 5/2
k=1
(4.24)
(4.25)
Daniel A. Stariolo - IF-UFRGS - 2014
59
Figura 4.5: Parâmetro de ordem η = hn0 i/hNi vs. temperatura reduzida para
um sistema de bósons em um potencial harmônico confinante. Os pontos pretos
são resultados experimentais e a linha cheia a predição teórica para um sistema de
bósons não interagentes. O inset mostra o número total de átomos na gaiola após
o resfriamento do sistema. Figura copiada de [1]
A função g5/2 (z) também é monótona crescente valendo g5/2 (0) = 0 e g5/2 (1) =
ζ(5/2) = 1.342 . . . e é mostrada na figura 4.1. Vejamos o comportamento do primeiro termo da (4.24). Se z < 1 então é evidente que limV →∞ (1/V ) ln (1 − z) =
0. Por outra parte, para z → 1:
1
lim
ln (1 − z(V )) = 0
(4.26)
V →∞ V
Então, a pressão é dada por:
(
P =
kB T
λ3T
kB T
λ3T
g5/2 (1) se λ3T ρ ≥ g3/2 (1)
g5/2 (z) se λ3T ρ < g3/2 (1)
(4.27)
Notamos que na região do condensado a pressão é independente da densidade. A
partir deste resultado podemos analizar o comportamento das isotermas no espaço
Daniel A. Stariolo - IF-UFRGS - 2014
60
(P, v), por exemplo. Para uma temperatura constante temos um ponto de transição
P = Pc (vc ) que se obtém fazendo z = 1 na solução para a pressão. Usando
agora a expressão correspondente ao ponto crítico, eq. (4.18), podemos escrever
a temperatura em função de vc . Obtemos:
h2 g5/2 (1)
1
Pc (vc ) =
.
5/3
5/3
2πm(g3/2 (1)) vc
(4.28)
P
T3
T2
T1
Yc(T2)
Y
Figura 4.6: Isotermas do gás ideal de Bose-Einstein para três temperaturas T1 <
T2 < T3 . A linha tracejada corresponde à curva Pc (vc ).
Para cada temperatura a relação anterior define uma linea crítica no plano
(P, v). Na figura 4.6 se mostra o comportamento de algumas isotermas do gás de
Bose-Einstein. Vemos que, para v < vc (T ) entramos na região do condensado e
a pressão é independente do volume específico P = cte. A forma das isotermas
lembra a forma das isotermas da transição líquido-gás em um líquido clássico na
região de coexistência. Neste caso a coexistência corresponderia ao condensado
de partículas no estado fundamental e ao resto que formam a fase normal, ou “gasosa”. No entanto não podemos puxar a analogia muito longe, dado que de fato
a fração de partículas nos estados excitados tende para zero no limite termodinâmico, e a condensação de fato acontece no espaço de momentos, e não no espaço
Daniel A. Stariolo - IF-UFRGS - 2014
61
real. Continuando com a analogia podemos nos perguntar quais são os volumes
específicos das fases condensada e gasosa. Da figura 4.6 podemos concluir que
o volume específico do gás corresponde ao ponto vc (T ). Mas o volume específico do condensado deveria ser zero nesta interpretação, ou seja, a densidade do
condensado é infinita. Este resultado é claramente não físico, e provém do fato
de estar considerando partículas livres (não interagentes) que podem se aproximar
indefinidamente entre elas.
Outra característica marcante do condensado de Bose-Einstein é a forma do
calor específico em função da temperatura. Para isso calculemos inicialmente a
entropia por unidade de volume. Esta é dada por:
1 ∂ΩBE
∂P
s = lim −
= lim
(4.29)
V →∞
V →∞
V
∂T
∂T V,µ
V,µ
Derivando em (4.27) e fazendo uso da propriedade
1
dgn (z)
= gn−1 (z)
dz
z
obtemos
s=
(
5 kB
g (1)
2 λ3T 5/2
5 kB
g (z)
2 λ3T 5/2
se λ3T ρ ≥ g3/2 (1)
− kB ρ ln z se λ3T ρ < g3/2 (1)
(4.30)
(4.31)
Se pode verificar facilmente que s = 0 quando T = 0 em acordo com a terceira
lei da Termodinâmica. Agora estamos em condições de calcular o calor específico
a densidade constante, dado por:
∂s
(4.32)
cρ = T
∂T ρ
Derivando em (4.31) mantendo ρ constante se obtém:
( 15 kB
g (1)
se λ3T ρ ≥ g3/2 (1)
4 λ3T 5/2
cρ =
g (z)
15 kB
g (z) − kB ρ 94 g3/2
se λ3T ρ < g3/2 (1)
4 λ3 5/2
1/2 (z)
(4.33)
T
O calor específico em função de T é mostrado na figura 4.7.
Notando que g1/2 (z) → ∞ quando z → 1 resulta que cρ é continuo no ponto
crítico, apresentando uma derivada descontinua. Para altas temperaturas cρ tende
ao valor constante correspondente ao gás ideal clássico. Para temperaturas baixas,
cρ ∼ T 3/2 , da mesma forma que a entropia, e tende a zero para temperatura zero.
Daniel A. Stariolo - IF-UFRGS - 2014
62
3.0
2.5
Cρ / (kBρ)
2.0
1.5
1.0
.5
0.0
0
Tc
1
2
3
T
Figura 4.7: Calor específico a densidade constante do gás ideal de Bose-Einstein
em função da temperatura.
Como vimos, o gás de Bose-Einstein apresenta uma série de comportamentos que não são compatíveis com a realidade, como isotermas planas, um calor
específico continuo na transição de fase, etc. A origem básica destes defeitos do
sistema é o fato de desprezar completamente as interações entre os bósons. Neste
sentido é interessante notar que o fenômeno da condensação aparece quando
ρλ3T = g3/2 (1)
(4.34)
ou seja, quando
1/3
λT
=
g
(1)
≈ 1, 377
(4.35)
3/2
v 1/3
Nestas condições o comprimento de onda de de Broglie é da ordem da distância típica entre as partículas, e nesta situação é claro que as interações entre as
partículas não podem ser desprezadas. Modelos mais realistas levam em conta interações repulsivas de curto alcance entre os bósons, importantes a temperaturas
muito baixas. Incluindo efeitos das interações repulsivas os comportamentos não
físicos vistos antes desaparecem, sem no entanto desaparecer o fenômeno da condensação. Para uma descrição qualitativa dos recentes resultados experimentais
Daniel A. Stariolo - IF-UFRGS - 2014
63
em condensados de Bose-Einstein em átomos frios se pode consultar, por exemplo, o livro de Pathria [1], terceira edição.
Tal vez a predição mais importante do gás de Bose-Einstein seja que é possível ter uma transição de fases exclusivamente como consequência da estatística,
independente das interações entre as partículas.
Finalmente, se consideramos o limite de altas temperaturas ou baixas densidades, ou seja, quando
1/3
λT
≪
g
(1)
(4.36)
3/2
v 1/3
temos que z → 0 e então g5/2 (z) ≈ g3/2 (z) ≈ g1/2 (z) ∼ z. Assim, neste regime
z
λ3T
(4.37)
hNikB T
kB T z
= ρkB T =
3
λT
V
(4.38)
ρ≈
enquanto que para a pressão obtemos:
P ≈
e a equação para o calor específico se reduz a
cρ ≈
3
15 kB z 9
k
ρ
=
ρkB
−
B
4 λ3T
4
2
(4.39)
Vemos então que a altas temperaturas ou baixas densidades o gás de Bose-Einstein
se comporta como um gás ideal clássico, ou seja, os efeitos da estatística quântica
se tornam desprezíveis.
4.2 Radiação de corpo negro
No final do século XIX um problema relevante era a determinação das propriedades do espectro de radiação de materiais, em particular de corpos astronômicos
como as estrelas. Se observou que o espectro não dependia de propriedades do
material específico, como composição química, forma, e sim das suas variáveis
termodinâmicas, como temperatura. A partir das leis de Maxwell do campo eletromagnético se tentou determinar a densidade de energia emitida por uma cavidade
de volume V em um material qualquer, em equilíbrio na temperatura T . Nestas
condições, as paredes da cavidade emitem e abosorvem continuamente radiação
eletromagnética, cuja distribuição de frequências, e por conseguinte sua energia,
devem ser consequência do estado termodinâmico dos átomos que as formam.
Daniel A. Stariolo - IF-UFRGS - 2014
64
Através de uma análise clássica a partir das soluções de ondas das equações de
Maxwell e considerações estatísticas no Hamiltoniano do campo eletromagnético
se conclui que a densidade de energia da radiação em um corpo negro é dada por:
Z ∞
U
=
u(ν)dν.
(4.40)
V
0
onde
8π
kB T ν 2
(4.41)
3
c
é a densidade na frequência ν ou densidade espectral. O resultado (4.41) ficou
conhecido como a lei de Rayleigh-Jeans. Logo se reconheceu que este resultado
não podia estar correto, pois implica que
Z ∞
U
8π
= 3 kB T
ν 2 dν → ∞,
(4.42)
V
c
0
u(ν) =
o que foi chamado de “catástrofe do ultravioleta” por ser o comportamento em
altas frequências o responsável pela divergência da densidade de energia.
A solução deste problema deu origem ao desenvolvimento da Mecânica Quântica, quando Max Planck em 1900 propós que os osciladores que formavam o
campo eletromagnético somente poderiam ter um conjunto “discreto” de energias,
múltiplos inteiros de uma quantidade fundamental dada por h̄ω. Posteriormente,
os trabalhos de Bose e Einstein em torno de 1925 levaram em conta o caráter
indistinguível das partículas quânticas, o que permite uma derivação alternativa e
completamente equivalente dos resultados de Planck. Neste último tratamento, em
lugar de considerar um gás de osciladores quânticos (distinguíveis), a formulação
do problema leva naturalmente a considerar um gás de bósons não interagentes,
os quanta do campo eletromagnético, chamados fótons. Vamos ver na sequência
alguns resultados relevantes de ambas abordagens.
4.2.1 A lei de Planck
A solução de Planck é equivalente a considerar um gás de osciladores quânticos
com Hamiltoniano dado por:
X
H=
h̄ω(~k)n~k,j
(4.43)
~k,j
onde ω(~k) = ck é a relação de dispersão do campo electromagnético (c é a velocidade da luz no vácuo), j = 1, 2 corresponde as duas polarizações transversais
Daniel A. Stariolo - IF-UFRGS - 2014
65
do campo eletromagnético e n~k,j = 0, 1, . . .. A função de partição canônica pode
ser escrita na forma:
Y
Z=
Z~k,j
(4.44)
~k,j
Notar que, neste problema, os osciladores são distinguíveis, cada um tendo uma
frequência característica própria. Além do mais, o número de osciladores é indefinido, podendo ser infinito mesmo em um volume finito. Obtemos:
Z~k,j =
∞
X
n=0
Desta forma:
ln Z =
X
~k,j
1
~
e−βh̄ω(k)n =
ln Z~k,j = −2
X
~k,j
1 − e−βh̄ω(~k)
i
h
~
ln 1 − e−βh̄ω(k)
(4.45)
(4.46)
e a energia interna resulta
U =−
X
k
∂
ln Z = 2h̄c
.
βh̄ck
∂β
e
−1
(4.47)
~k
No limite termodinâmico, substituindo
X
~k
V
→
(2π)3
Z
d3 k,
obtemos:
V h̄c
U(T, V ) = 2
π
Z
∞
k3
dk.
eβh̄ω(~k) − 1
Da Ec.(4.48) e considerando que ω = 2πν = ck resulta que
Z
8πh ∞
ν3
U
= 3
dν,
V
c
eβhν − 1
0
(4.48)
0
(4.49)
de onde sai a lei de radiação de Planck:
u(ν, T ) =
8πh ν 3
.
c3 eβhν − 1
(4.50)
Daniel A. Stariolo - IF-UFRGS - 2014
66
No limite de baixas frequências ν → 0 a Ec.(4.50) reproduz a lei de RayleighJeans:
8π
kB T ν 2 .
(4.51)
c3
No entanto, a integral (4.49) é finita. De fato, fazendo o câmbio de variáveis
x = βhν obtemos a ley de Stefan-Boltzmann:
Z ∞
8π
x3
U
4
=
(k
T
)
dx = σT 4
(4.52)
B
x−1
V
(hc)3
e
0
u(ν) ∼
que da a densidade total de energia dentro da cavidade.
4.2.2 O gás de fótons
Uma interpretação física dos osciladores de Planck pode ser dada a partir da
quantização do campo eletromagnético, proposto por Paul A. M. Dirac em 1928.
Na quantização do campo eletromagnético surgem operadores cujas autofunções
correspondem P
a estados simétricos de N partículas independentes com energias
h̄ω(~k) e N = ~k,j n~k,j com n~k,j = 0, 1, 2, . . .. Por tanto, os números quânticos
n~k,j podem ser interpretados como números de ocupação de estados de partículas com energias h̄ω(~k). Assim, o campo eletromagnético pode ser considerado
como composto por partículas, chamadas fótons, que obedecem a estatística de
Bose-Einstein. Os fótons possuem momento linear p~ = h̄~k e se movem na velocidade da luz c. Por tanto devem possuir massa em
prepouso nula para sua energia
ser consistente com a expressão relativística ε = c2 p2 + m2 c4 = cp.
Uma característica importante do gás de fótons é que o número deles na cavidade não se conserva, pois fótons são constantemente emitidos e aborvidos pelo
corpo negro. Isto equivale ao sistema ter um potencial quimico nulo µ = 0. Desta
forma, o potencial de um gás de fótons no ensemble grande canônico é dado por:
X ~
Ω(T, V ) = 2kB T
(4.53)
ln 1 − e−βh̄ω(k) .
~k
onde o fator 2 é consequência da degenerescência nas direções de polarizão da
radiação. O número médio de fótons com momento h̄~k, independentemente da
direção de polarização é dado por:
n~k =
2
eβh̄ω(~k) − 1
.
(4.54)
Daniel A. Stariolo - IF-UFRGS - 2014
67
A partir deste resultado, a energia interna pode ser calculada facilmente:
X
U(T, V ) =
h̄ω(~k) n~k .
(4.55)
~k
Substituindo (4.54) na (4.55) obtemos a equação (4.47). Como estamos trabalhando no formalismo grande canônico, a pressão da radiação na cavidade pode
ser obtida facilmente na forma:
Z
kB T ∞ 2
Ω
k ln 1 − e−βh̄ck dk.
(4.56)
P =− =− 2
V
π
0
Integrando por partes e comparando com (4.48) obtemos a equação de estado para
um gás de fótons:
U
P =
.
(4.57)
3V
Para completar esta descrição, notamos que nas funções termodinâmicas do
gás de fótons não aparece nenhuma singularidade, ou seja, os fótons não apresentam o fenômeno da condensação de Bose-Einstein. O motivo disto é que o
número de fótons não se conserva, e por tanto, eles aparecem e desaparecem em
lugar de condensar.
Capítulo 5
Gás ideal de Fermi-Dirac
Os férmions são partículas de spin semi-inteiro. Já vimos que o Princípio de
Exclusão de Pauli limita o número de férmions en cada estado quântico a ser zero
ou um. A estatística que resulta deste vínculo leva o nome de estatística de FermiDirac. Assim, podemos escrever a função grande partição na forma (3.23):
ZF D (T, µ, V ) =
1
YX
l
e−βnl (ǫl −µ)
(5.1)
nl =0
onde o índice l indica um conjunto de números quânticos l = (~k, σ), onde σ =
±(2s + 1)/2 é o número quântico de spin, correspondente aos autovalores do
operador de spin Sz = ±(2s+1)h̄/2, com s = 0, 1, 2 . . .. Por exemplo, os elétrons
têm spin σ = ±1/2, ou seja s = 0. Se o espectro de energias é independente do
spin (em ausência de campos eletromagnéticos), podemos escrever:


1
1

Y X
X
−βn
(ǫ −µ)
−βn
(ǫ −µ)
ZF D (T, µ, V ) =
e ~k,σ=1/2 ~k
e ~k,σ=−1/2 ~k


n~k,σ=1/2 =0
n~k,σ=−1/2 =0
~k
Y
2
=
1 + e−β(ǫ~k −µ)
(5.2)
~k
Em geral, para férmions de spin |σ| arbitrário teremos g = 2|σ| + 1 autovalores,
e consequentemente a potência 2 na expressão (5.2) corresponde ao valor de g. O
potencial grande canônico é dado por:
X
ln {1 + exp [−β(ǫk − µ)]} (5.3)
ΩF D = −kB T ln ZF D (T, µ, V ) = −gkB T
k
68
Daniel A. Stariolo - IF-UFRGS - 2014
69
O número médio de partículas é então dado por:
X
X
1
∂Ω
=g
=
hnk i
hNi = −
β(ǫk −µ) + 1
∂µ T,V
e
k
k
(5.4)
Então, o número médio de ocupação do nível de energia ~k tem a forma:
hnk i =
g
eβ(ǫk −µ) + 1
.
(5.5)
Na figura 5.1 se mostra o comportamento do número médio de ocupação.
Figura 5.1: O valor médio do número de ocupação de um gás de Fermi-Dirac,
para um dado valor do momento ~k.
A energia interna de um sistema de férmions é dada por:
X
X
gǫk
U=
ǫk hnk i =
eβ(ǫk −µ) + 1
k
(5.6)
k
e a pressão resulta:
P =−
gkB T X ΩF D
ln 1 + e−β(ǫk −µ)
=
V
V
k
(5.7)
Daniel A. Stariolo - IF-UFRGS - 2014
70
Os resultados anteriores são válidos para qualquer sistema fermiônico, dependem do espectro de energias ǫk . No caso de um gás ideal de férmions, o espectro
de energias é de partícula livre:
ǫk =
h̄2 k 2
2m
(5.8)
Neste caso, fazendo o limite para o continuo, cambiando variáveis e expressando as quantidades anteriores em termos da energia ǫ, podemos escrever:
Z ∞
hNi = gV
D(ǫ) f (ǫ) dǫ
(5.9)
Z0 ∞
U = gV
ǫ D(ǫ) f (ǫ) dǫ
(5.10)
0
(5.11)
onde
1
D(ǫ) = 2
4π
e
2m
h̄2
3/2
ǫ1/2
(5.12)
1
f (ǫ) =
(5.13)
eβ(ǫ−µ) + 1
é a função distribuição de Fermi-Dirac. Seguindo o mesmo procedimento e integrando por partes na expressão para a pressão (5.7) obtemos a equação de estado
do gás ideal de Fermi:
Z ∞
2U
2
P =
= g
ǫ D(ǫ) f (ǫ) dǫ
(5.14)
3V
3 0
5.1 Gás de Fermi completamente degenerado
(T = 0)
A T = 0 a função distribuição tem a forma de um degrau em ǫ = µ, como se
mostra na figura 5.1. O férmions então vão preenchendo os níveis de energia
acessíveis, obedecendo o Princípio de Exclusão, até o chamado “nível de Fermi”
ou “energia de Fermi” que é função da densidade do sistema. Para obter o valor
da energia de Fermi ǫF notamos que, para T = 0
Z ǫF
hNi = gV
D(ǫ) dǫ
(5.15)
0
Daniel A. Stariolo - IF-UFRGS - 2014
71
onde podemos interpretar D(ǫ) como sendo a densidade de estados de energia ǫ.
Integrando obtemos:
h̄
ǫF =
2m
6π 2
g
2/3 N
V
2/3
(5.16)
A pressão a T = 0 é dada por:
2
g
P =
3
Z
ǫF
ǫ D(ǫ) dǫ
0
h̄2
2
ǫF ρ =
=
5
5m
6π 2
g
2/3
ρ5/3
(5.17)
Notamos que, mesmo a T = 0, o gás de Fermi possui um pressão finita. Isto é
consequência do Princípio de Exclusão, que impede uma ocupação arbitrária dos
estados.
Se pode definir uma “temperatura de Fermi” na forma
TF =
ǫF
kB
(5.18)
Esta temperatura determina uma escala abaixo da qual as propriedades do sistema
são essencialmente quânticas. Por exemplo, em metais alcalinos como o Na e
o Li, a temperatura de Fermi é da ordem TF ∼ O(104 K). Nestes metais os
elétrons de condução podem ser considerados como um gás de férmions livres em
primeira aproximação (modelo de Drude e Lorentz). Nas estrelas anãs brancas a
TF ∼ O(109 K). Para comparação, a temperatura física do Sol é ∼ 105 K. No
interior do núcelo atômico, a matéria nuclear fermiônica possui uma temperatura
de Fermi TF ∼ O(1011 K).
5.2 Gás de Fermi degenerado (T ≪ TF )
A temperaturas finitas porém muito menores que TF alguns férmions são excitados e passam a ocupar estados de energia acima do nível de Fermi. As grandezas
termodinâmicas agora dependem da temperatura. Uma análise rápida, qualitativa,
permite estimar o número de férmions excitados e o excesso na energia interna
do sistema. Por causa do termo exponencial na distribuição de Fermi, para poder
excitar partículas acima do nível de Fermi é necessário que ǫ − µ ∼ kB T , ou seja,
a energia de excitação é da ordem kB T (ver figura 5.1). Assim, a área debaixo
Daniel A. Stariolo - IF-UFRGS - 2014
72
da curva no integrando em (5.9) acima do nível de Fermi é da ordem D(ǫF )kB T
(ver figura 5.2), e então
∆N ≈ gV D(ǫF )kB T.
(5.19)
Pelo mesmo raciocínio, a partir de (5.10) o excesso de energia devido aos férmi-
Figura 5.2: A função D(ǫ)f (ǫ) para temperaturas baixas T ≪ TF .
ons excitados é da ordem
∆U ≈ gV D(ǫF )(kB T )2
(5.20)
Uma consequência importante deste comportamento é que a contribuição dos
graus de liberdade fermiônicos para o calor específico em baixas temperaturas
é linear com T , cV ∼ cte T . Em geral, na temperatura ambiente, esta contribuição resulta desprezível frente a contribuição das vibrações da rede cristalina, a
contribuição dos fônons (que são bósons), que é da ordem T 3 :
cV ∼ a T + b T 3
(5.21)
Vamos então determinar as funções termodinâmica do gás de Fermi a temperaturas finitas T ≪ TF . Temos que resolver as integrais em (5.9) e (5.10) para o
número médio de partículas e a energia interna do gás, respectivamente. Notamos
que todas as integrais são da forma:
Z ∞
I=
φ(ǫ)f (ǫ) dǫ
(5.22)
0
Daniel A. Stariolo - IF-UFRGS - 2014
73
onde φ(ǫ) = Aǫn , com n ≥ 1/2. Integrando por partes em I, chamando u = f (ǫ)
e dv = φ(ǫ)dǫ, obtemos:
Z ∞
∞
I = f (ǫ)v(ǫ)|0 −
f ′ (ǫ)v(ǫ)dǫ
0
Z ∞
= −
f ′ (ǫ)v(ǫ)dǫ
(5.23)
0
Rǫ
onde v(ǫ) = 0 φ(u)du. Como f ′ (ǫ) é nula em quase todo o intervalo de integração exceto em uma região estreita no entorno de ǫ = µ, podemos expandir v(ǫ)
em série de Taylor no entorno de ǫ = µ:
∂v v(ǫ) = v(µ) +
(ǫ − µ) + . . .
∂ǫ ǫ=µ
∞
X
1 ∂ k v (ǫ − µ)k .
(5.24)
=
k
k! ∂ǫ
ǫ=µ
k=0
Então, as integrais se reduzem a integrais do tipo:
Z ∞
Ik = −
f ′ (ǫ)(ǫ − µ)k dǫ
(5.25)
0
Cambiando variáveis para x = β(ǫ − µ), podemos reescrever:
Z ∞
xk ex
1
dx
Ik = k
β −βµ (ex + 1)2
Para T ≪ TF :
(5.26)
∞
xk ex
dx + O(e−βµ )
(5.27)
x + 1)2
(e
−∞
Desprezando a correção exponencial e notando que as integrais para k ímpares se
anulam, obtemos para as duas primeiras contribuições:
1
Ik = k
β
I0 = 1
Z
π2
I2 = 2
3β
(5.28)
Por tanto:
1 ∂ 2 v I2 + . . .
I = v(µ) I0 +
2 ∂ǫ2 ǫ=µ
Z µ
π 2 ∂ 2 v (kB T )2 + O(T 4 )
=
φ(s) ds +
2
6 ∂ǫ ǫ=µ
0
(5.29)
Daniel A. Stariolo - IF-UFRGS - 2014
74
Com estes resultados é possível obtermos expressões para o número de partículas,
a energia interna e a equação de estado do gás de Fermi a temperaturas baixas:
Z ∞
Z ∞
hNi = = gV
D(ǫ) f (ǫ) dǫ = gV C
f (ǫ) ǫ1/2 dǫ
0
0
2
2 3/2 π
2 −1/2
+ ...
(5.30)
= gV C µ + (kB T ) µ
3
12
onde C =
escrever:
1
4π 2
2m 3/2
.
h̄2
Reorganizando os termos da expressão anterior podemos
"
#
2
2
π
k
T
B
3/2
ǫF = µ3/2 1 +
+ ... .
(5.31)
8
µ
Invertendo essa equação obtemos uma expansão para o potencial quimico a baixas
temperaturas:
#
"
2
π2 T
+ ...
(5.32)
µ = ǫF 1 −
12 TF
que mostra que µ < ǫF para T pequenas. A energia interna é dada por:
Z ∞
Z ∞
U = gV
ǫ D(ǫ) f (ǫ) dǫ = gV C
f (ǫ) ǫ3/2 dǫ
0
0
2 5/2 π 2
2 1/2
= gV C µ + (kB T ) µ + . . .
5
4
Inserindo o resultado (5.32) na expressão anterior obtemos:
"
#
2
3
5π 2 T
U = NǫF 1 +
+ ...
5
12 TF
O calor específico a volume constante do gás de Fermi vem dado por:
π2
T
1 ∂U
= kB
cV =
N ∂T V,N
2
TF
(5.33)
(5.34)
(5.35)
que mostra o comportamento linear da contribuição fermiônica ao calor específico
do sistema.
Daniel A. Stariolo - IF-UFRGS - 2014
75
5.3 Magnetismo em um gás ideal de férmions
As propriedades magnéticas dos materiais são determinadas quase exclusivamente
pelos momentos magnéticos dos elétrons dos átomos do material. Os momentos
magnéticos dos núcleos atômicos são da ordem de mil vezes mais fracos que os
momentos dos elétrons, e por tanto podem ser desprezados para descrever as respostas magnéticas mais importantes. Desta forma, os diferentes comportamentos
magnéticos observados nos materiais estão estreitamente relacionados com a estatística de Fermi-Dirac e o Princípio de Exclusão de Pauli. Em muitos materiais os
momentos magnéticos apresentam uma forte interação mútua, o que origina uma
rica diversidade de comportamentos e fases magnéticas, sendo os mais comuns o
ferromagnetismo e o antiferromagnetismo.
Por outra parte, mesmo nos casos em que os momentos magnéticos interagem de forma fraca entre si, na presença de campos magnéticos externos os elétrons apresentam dois tipos característicos de comportamentos: (a) movimento
em órbitas quantizadas perpendiculares ao campo magnético aplicado, que origina um acoplamento entre os momentos angulares orbitais e o campo, e (b) os
spins dos elétrons tendem a se alinharem na direção do campo magnético externo.
O primeiro efeito produz o fenômeno do diamagnetismo enquanto que o segundo
produz o paramagnetismo. O paramagnetismo foi estudado em uma abordagem
clássica por Paul Langevin no início do século XX. Mais tarde, Wolfgang Pauli
descreveu o comportamento de um gás ideal de elétrons em presença de um campo
externo, o que ficou conhecido como “paramagnetismo de Pauli”.
5.3.1 Paramagnetismo de Pauli
A interação entre um campo magnético e os graus de liberdade de spin dos elétrons livres leva a um desdobramento dos orbitais ou níveis de energia do sistema
conhecido como “efeito Zeeman”. O Hamiltoniano do sistema é dado por:
N X
1 2
~
H=
p − µ0 B.~σi
2m i
i=1
(5.36)
~ é um campo magnético uniforme, µ0 é o “magneton de Bohr” e ~σ são
onde B
os operadores de spin. Notamos que, como a interação com o campo é local, o
Hamiltoniano ainda corresponde a soma de contribuições de partícula única. O
Hamiltoniano para um elétron em presença de um campo orientado na direção z
Daniel A. Stariolo - IF-UFRGS - 2014
76
é:
1 2
p − µ0 Bσz
2m
e por tanto o espectro de energia de um elétron resulta:
H1 =
1 2
p − µ0 Bs,
2m
ǫ(~p, s) =
(5.37)
(5.38)
onde s = ±1. O potencial grande canônico é dado por:
XX
Ω = −kB T
ln 1 + ze−βǫ(~p,s)
p
~
= −kB T
s=±1
β 2
ln 1 + z exp −
p + βµ0 Bs .
2m
s=±1
XX
p
~
(5.39)
No limite continuo obtemos:
Z
4πkB T V ∞ 2 X
β 2 2
Ω = −
k
ln 1 + z exp −
h̄ k + βµ0Bs dk
(2π)3
2m
0
s=±1
3/2 Z ∞
X kB T V 2m
1/2
−βǫ+βµ0 Bs
= −
ǫ
ln
1
+
ze
dǫ
(5.40)
4π 2
h̄2
0
s=±1
onde na última linha foi feito o câmbio de variáveis ǫ = h̄2 k 2 /2m. Como s = ±1,
podemos escrever:
Ω = Ω+ + Ω−
(5.41)
onde
kB T V
Ω± = −
4π 2
2m
h̄2
3/2 Z
0
∞
ǫ1/2 ln 1 + ze−βǫ±βµ0 B dǫ.
O número médio de elétrons é dado por:
∂Ω
= hN+ i + hN− i ,
hNi = −
∂µ T,V,B
(5.42)
(5.43)
onde
V
hN± i = 2
4π
2m
h̄2
3/2 Z
∞
0
−1
ǫ1/2 1 + z −1 eβǫ∓βµ0 B
dǫ.
(5.44)
Daniel A. Stariolo - IF-UFRGS - 2014
77
A função grande potencial termodinâmico é função do campo magnético:
Ω(T, µ, V, B) = U − T S − µN − BM
M é o momento magnético médio do sistema, ou magnetização:
∂Ω
= µ0 (hN+ i − hN− i) .
M =−
∂B T,V,µ
(5.45)
(5.46)
Magnetização no estado fundamental
Quando β → ∞ e µ0 B ≪ ǫF então µ → ǫF e z → eβǫF . O integrando de hN+ i
se comporta na forma:
1+
z −1
1
1
∼
exp (βǫ − βµ0B)
1 + exp [β (ǫ − µ0 B − ǫF )]
1 ǫ − µ0 B − ǫF < 0
∼
0 ǫ − µ0 B − ǫF > 0
(5.47)
e
3/2 Z ǫF +µ0 B
2m
ǫ1/2 dǫ
h̄2
0
3/2
2 V
2m
=
(ǫF + µ0 B)3/2
2
2
3 4π
h̄
V
hN+ i =
4π 2
(5.48)
Da mesma forma obtemos:
2 V
hN− i =
3 4π 2
2m
h̄2
3/2
(ǫF − µ0 B)3/2
(5.49)
Então
1V
hNi =
6 π2
1V
M=
6 π2
2m
h̄2
2m
h̄2
3/2 h
i
(ǫF + µ0 B)3/2 + (ǫF − µ0 B)3/2
3/2
h
i
µ0 (ǫF + µ0 B)3/2 − (ǫF − µ0 B)3/2 .
(5.50)
(5.51)
Daniel A. Stariolo - IF-UFRGS - 2014
78
Escrevendo
1V
hNi =
6 π2
1V
M=
6 π2
2m
h̄2
2m
h̄2
3/2
3/2
3/2
ǫF
3/2
µ0 ǫF
h
i
(1 + µ0 B/ǫF )3/2 + (1 − µ0 B/ ǫF )3/2
(5.52)
h
i
3/2
3/2
(1 + µ0 B/ǫF ) − (1 − µ0 B/ǫF )
,
(5.53)
podemos fazer expansões para campos fracos µ0 B ≪ ǫF :
"
3/2
2 #
µ0 B
1 V 2m
3/2
ǫF + O
hNi =
3 π 2 h̄2
ǫF
"
3 #
3/2
µ0 B
V
2m
µ0 B
3/2
+O
.
M= 2
µ0 ǫF
2π
ǫF
ǫF
h̄2
(5.54)
(5.55)
Então, para campos fracos:
3
M ∼ hNi µ0
2
µ0 B
ǫF
;
(5.56)
isto é, a magnetização é diretamente proporcional ao campo magnético B e por
tanto a susceptibilidade a campo nulo é constante e positiva:
3ρµ20
1 ∂M
=
(5.57)
χ0 =
V
∂B V,N 2ǫF
T =0,B=0
Este é um dos resultados característicos do paramagnetismo de Pauli.
Magnetização no limite degenerado T ≪ TF
A temperatura finita a magnetização é dada por:
M = µ0 (hN+ i − hN− i)
3/2 Z ∞
V
2m
=
µ0
ǫ1/2 {f (ǫ − µ0 B) − f (ǫ + µ0 B)} dǫ. (5.58)
4π 2 h̄2
0
Daniel A. Stariolo - IF-UFRGS - 2014
79
Para campos fracos µ0 B ≪ ǫF podemos expandir as expressões para a distribuição de Fermi, obtendo:
3/2
Z ∞
V
2m
2
µ0 B
ǫ1/2 f ′ (ǫ)dǫ
M ∼ − 2
2π
h̄2
0
3/2
Z ∞
V
2m
=
µ20 B
ǫ−1/2 f (ǫ)dǫ,
(5.59)
2
2
4π
h̄
0
onde na segunda linha foi feita uma integração por partes. Da mesma forma se
obtém para o número médio de férmions:
V
hNi =
4π 2
∼
V
2π 2
2m
h̄2
2m
h̄2
3/2 Z
∞
0
3/2 Z
∞
ǫ1/2 {f (ǫ − µ0 B) + f (ǫ + µ0 B)} dǫ
ǫ1/2 f (ǫ)dǫ.
(5.60)
0
As integrais são da forma geral analizada anteriormente e por tanto podemos usar
os resultados anteriores para obter expansões em potências da temperatura para a
magnetização e o número de partículas. Fazendo as substituições obtemos para a
magnetização o resultado:
"
#
2
2
2
π
kB T
3µ B hNi
1−
+··· .
(5.61)
M= 0
2ǫF
12
ǫF
A partir deste resultado podemos obter a primeira correção de temperatura finita
para a susceptibilidade a campo nulo:
"
#
2
2
2
1 ∂M
3µ ρ
π
kB T
χ0 =
= 0 1−
+··· ,
(5.62)
V ∂B T,V
2ǫF
12
ǫF
Este resultado obtido originalmente por Pauli lhe permitiu explicar a fraca dependência com a temperatura na susceptibilidade dos metais alcalinos, nos quais a
temperatura de Fermi é muito alta, da ordem O(104K).
Limite clássico
Para altas temperaturas z ≪ 1 e então:
f (x) ∼ ze−βx
(5.63)
Daniel A. Stariolo - IF-UFRGS - 2014
80
isto é, a distribuição de Fermi tende para a distribuição de Maxwell-Boltzmann.
Substituindo nas eqs.(5.59) e (5.60) obtemos
3/2
Z ∞
2m
senh(βµ0 B)
ǫ1/2 e−βǫ dǫ
2
h̄
0
3/2
Z ∞
V z 2m
cosh(βµ0 B)
ǫ1/2 e−βǫ dǫ.
hNi = 2
2π
h̄2
0
Vz
M = µ0 2
2π
Dividindo as equações anteriores se obtém finalmente:
µ0 B
M = µ0 hNi tanh
,
kB T
(5.64)
(5.65)
(5.66)
que é o resultado da teoria clássica de Langevin. A susceptibilidade a campo nulo
resulta
χ0
hNi
sech2 (µ0 βB)
V
T,V
2
= µ0 βρ 1 − (µ0 βB)2 + . . .
ρµ20
.
≈
kB T
1
=
V
∂M
∂B
= µ20 β
(5.67)
Esta expressão se conhece como lei de Curie, sendo representativa do comportamento da maioria dos materiais paramagnéticos. É possível obter esta mesma
expressão considerando um sistema clássico de N momentos dipolares distinguíveis, o que deixa evidente o caráter do limite clássico de um gás de férmions.
Capítulo 6
Interações, simetrias e ordem em
matéria condensada
6.1 Líquidos e gases
Os fluidos, líquidos e gases, são os sistemas que apresentam o maior número de
simetrias possíveis, no sentido que suas propriedades físicas não mudam frente a
uma série de transformações, especialmente de coordenadas.
Quando dizemos que um fluido é homogêneo e isotrópico, queremos dizer que
suas propriedades são invariantes frente a translações espaciais, rotações arbitrárias e reflexões ou inversões respeito da origem de coordenadas. O conjunto de
transformações que deixam um sistema invariante formam um grupo, o grupo de
simetria. O grupo de simetria que inclui translações, rotações e reflexões se chama
Grupo Euclideano. Tipicamente os fluidos são invariantes frente a operações do
grupo euclideano. Fisicamente, isto quer dizer que o entorno ou a vizinhança de
uma pequena região no interior de um fluido é a mesma independentemente que
a região seja trasladada, rotada ou de que se faça uma reflexão em torno de uma
origem de coordenadas. Vamos ver que, de forma geral, o mesmo não acontece
com a matéria no estado sólido, os fluidos são os sistemas com a maior simetria
possível.
A homogeneidade de um fluido implica invariância translacional. Por exemplo, para a densidade espacial vale a relação:
N
1 X
~
hn(~x)i ≡ h
δ(~x − ~xi )i = hn(~x + R)i,
N i
81
(6.1)
Daniel A. Stariolo - IF-UFRGS - 2014
82
~ é um deslocamento arbitrário. Em particular, se R
~ = −~x obtemos que
onde R
hn(~x)i = hn(0)i, ou seja, a densidade em qualquer ponto é igual à densidade na
origem. Logo a densidade não depende de ~x.
Outra grandeza muito importante para caracterizar o estado de um sistema é a
função de correlação de dois pontos, definida como:
Cnn (~x1 , ~x2 ) = hn(~x1 )n(~x2 )i
N
X
= h
δ(~x1 − ~xi )δ(~x2 − ~xj )i
(6.2)
i,j=1
Se o sistema possui invariância translacional então Cnn (~x1 , ~x2 ) ≡ Cnn (~x1 − ~x2 ).
A transformada de Fourier da função de correlação da densidade de dois pontos é
o fator de estrutura:
Z
S(~q) =
dd~x e−i~q·~x Cnn (~x)
= hn(~q)n(−~q)i
onde ~x = ~x1 − ~x2 e
n(~q) =
Z
dd x e−i~q·~x n(~x) = h
é a transformada de Fourier da densidade.
(6.3)
X
i
e−i~q·~xi i
(6.4)
6.2 Redes cristalinas
A baixas temperaturas ou altas pressões os materias normalmente cristalizam e
os átomos se organizam espacialmente em estruturas periódicas, chamadas redes
cristalinas. O tipo de estrutura cristalina na qual um elemente específico irá cristalizar depende, essencialmente, do potencial interatômico.
Um conceito importante para o estudo das redes cristalinas é a definição de
uma rede de Bravais (segundo o Ascroft-Mermin [8]):
1. Uma rede de Bravais é uma arranjo infinito de pontos discretos, com uma
estrutura e orientação que aparece a mesma vista desde qualquer um dos
pontos da rede.
Daniel A. Stariolo - IF-UFRGS - 2014
Figura 6.1: As 14 redes de Bravais em três dimensões
83
Daniel A. Stariolo - IF-UFRGS - 2014
84
2. Uma rede de Bravais (tridimensional) consiste de todos os pontos cujos
vetores posição podem ser definidos como
~ = n1 ~a1 + n2 ~a2 + n3 ~a3
R
(6.5)
onde ~a1 , ~a2 e ~a3 são três vetores quaisquer não coplanares e n1 , n2 e n3 são
inteiros.
Os vetores ~a1 , ~a2 e ~a3 são chamados vetores primitivos e permitem “desenvolver” a rede completamente. As magnitudes dos vetores primitivos são conhecidas como constantes de rede. Uma célula da rede determinada por um conjunto
qualquer de vetores primitivos se chama célula primitiva . Uma célula primitiva
também permite obter toda a rede por translações ao longo dos vetores primitivos.
A rede cristalina no espaço real se chama as vezes rede direta. É possível
definir uma rede recíproca no espaço de momentos, da seguinte forma:
~ formando uma rede
(Ashcroft-Mermin) Considere um conjunto de pontos R
~
de Bravais, e uma onda plana, eik·~r . Esta onda plana tem uma periodicidade dada
pelo comprimento de onda λ = k/2π. Para um ~k arbitrário esta onda não terá, em
geral, a periodicidade da rede de Bravais, mas para alguns conjuntos de vetores ~k
a terá.
O conjunto de todos os vetores de onda ~k que produzem ondas planas com a
periodicidade de uma rede de Bravais dada é conhecido como rede recíproca.
A periodicidade da rede de Bravais implica:
~
~
~
eik·(~r+R) = eik·~r
(6.6)
~ da rede de Bravais. Pela identidade anterior,
para qualquer ~r e para qualquer R
podemos caracterizar a rede recíproca como o conjunto de vetores de onda ~k que
satisfacem
~ ~
eik·R = 1,
(6.7)
~ da rede de Bravais.
para todos os R
Daniel A. Stariolo - IF-UFRGS - 2014
85
É possível mostrar que a rede recíproca é ela mesma uma rede de Bravais.
Podemos também definir a rede recíproca da rede recíproca, que não é mais do
que a rede de Bravais original. A rede recíproca nem sempre possui a mesma
simetria da rede direta. Por exemplo, a rede recíproca de um rede fcc é uma rede
bcc.
6.3 Sistemas magnéticos
Os spins em sistemas magnéticos podem apresentar uma grande variedade de estruturas ordenadas, tão diversas quanto as encontradas na ordem atômica cristalina.
Os spins associados aos elétrons atômicos interagem entre si através de diversas forças de interação. Uma das mais importantes, que se origina nas interações
eletrostáticas dos elétrons, é a interação de troca que é uma interação de curto
alcance entre momentos de spin. Uma forma simplificada da mesma para um par
~ se pode escrever na forma:
de spins S
~1 · S
~2 .
−J S
(6.8)
~ representa o operador de spin em sistemas quânticos ou o vetor de momento
S
dipolar magnético em sistemas clássicos. Detalhes importantes desta interação é
que não depende da orientação relativa dos spins com respeito à rede cristalina.
Depende apenas da orientação relativa dos vetores de spin. A interação de troca
é a responsável principal pelo surgimento do ferromagnetismo em algumas substâncias como os metais de transição Fe, Ni e Co. Em um sistema com N spins
em interação, o modelo mais bem sucedido para descrever uma série de propriedades dos materiais ferromagnéticos, como a transição entre fases paramagnética
e ferromagnética, correlações entre spins, susceptibilidades magnéticas, calor específico, etc. é o modelo de Heisenberg:
X
~i · S
~j
H = −J
S
(6.9)
i,j
onde os pares {i, j} correspondem a todos os pares de vizinhos próximos, devido
ao caráter de curto alcance da interação de troca. O modelo de Heisenberg pode
~i são operadores de spin,
ser analizado na versão quântica, na qual as variáveis S
~i são vetores. A constante de troca J pode
ou na versão clássica, na qual os S
ser positiva ou negativa. Quando é positiva, a interação tende a alinhar spins
Daniel A. Stariolo - IF-UFRGS - 2014
86
vizinhos, o que leva ao estado ferromagnético. Quando J < 0 a energia de troca
é minimizada quando um spin fica antiparalelo aos seus vizinhos próximos, isto
leva ao estado antiferromagnético, como mostrado esquematicamente na figura
6.2.
Figura 6.2: Algumas estruturas magnéticas .
Uma outra interação importante entre momentos magnéticos é a interação dipolar, de origem clássica, que tem a forma:
g
XS
~i · S
~j − 3(S
~i · êij )(êij · S
~j )
,
rij3
i<j
(6.10)
onde êij = ~rij /rij são vetores unitários na direção que une os sítios i e j. Notamos
que esta interação é de longo alcance, decaindo com a inversa do cubo da distância entre pares de spins. Ela também é anisotrópica, dependendo da orientação
relativa dos spins com os vetores da rede ~rij . A interação dipolar é tipicamente
Daniel A. Stariolo - IF-UFRGS - 2014
87
4 ordens de grandeza menor que a interação de troca, e por tanto não é o fator
principal que leva ao alinhamento dos spins na fase ferromagnética. No entanto,
seu caráter de longo alcance produz campos magnéticos locais fortes, sendo responsável pela origem dos domínios magnéticos. Uma substância ferromagnética
em ausência de campo externo não apresenta, pelo geral, um alinhamento global
dos spins, mas um mosaico de domínios onde os spins apontam em diferentes direções, como mostra a figura 6.3. Estas configurações são escolhidas pelo sistema
para minimizar a energia magnética global.
Figura 6.3: Domínios magnéticos
Em alguns cristais o efeito do potencial cristalino é forte o suficiente para
ser sentido pelos elétrons, produzindo a interação spin-órbita. Uma manifestação
deste tipo de interação é a presença de uma campo de anisotropia sobre os spins,
chamada anistropia magnetocristalina. No caso de anisotropia uniaxial de eixo
fácil z, a forma mais elementar de representar sua contribuição energética é:
X
2
(6.11)
−D
Siz
i
Notamos que esta anisotropia depende quadraticamente da componente z do spin,
e por tanto não distingue sentidos, apenas uma direção no espaço. Esta contribuição energética contribui para o alinhamento dos spins na direção z.
Quando estas três formas de interação magnética estão presentes simultaneamente em um sistema, podem dar lugar a uma variedade enorme de estruturas
magnéticas no estado fundamental, dependendo das intensidades relativas de J,
g e D. A temperatura finita transições de fases entre diferentes tipos de ordem
magnética podem surgir. Em filmes magnéticos ultrafinos com anisotropia perpendicular, a competição entre estas interações produz transições de fase a temperaturas finitas entre estruturas semelhantes as fases dos cristais líquidos, somente
Daniel A. Stariolo - IF-UFRGS - 2014
88
que neste caso as estruturas correspondem a ordem de spin e não a ordem posicional das moléculas, como se ve na figura 6.4.
Figura 6.4: Domínios em filmes ultrafinos de Fe/Cu(001) com magnetização perpendicular.
Existem diversas técnicas experimentais para medir ordem magnética. Uma
técnica clássica é difração de nêutrons, já que o nêutron possui spin que interage
com o spin eletrônico. Outras técnicas amplamente utilizadas na atualidade são
microscopia de força atômica (AFM), microscopia de força magnética (MFM),
e uma variedade de espectrometrias de espalhamento de elétrons, como a microscopia de varredura de elétrons, que permitem obter diretamente imagens da
estrutura magnética dos átomos, como por exemplo SEMPA (Scanning electron
microscopy with polarization analysis), utilizada para obter as imagnes da figura
6.4.
Daniel A. Stariolo - IF-UFRGS - 2014
89
6.4 Entre os líquidos e os cristais: os cristais líquidos
Os líquidos e os sólidos são dois casos extremos de ordem e simetria. Os líquidos
apresentam a máxima simetria possível do grupo espacial: translações e rotações
arbitrárias em R3 . Os líquidos são estruturalmente desordenados, apresentam apenas ordem de curto alcance. Já os sólidos cristalinos apresentam um grupo de
operações de simetria muito reduzido respeito dos líquidos: são invariantes frente
um conjunto discreto de translações compatíveis com a periodicidade da rede, e
possivelmente frente a um conjunto discreto de rotações. Apresentam ordem de
longo alcance, originado na estrutura cristalina periódica. Daqui em diante vamos
definir a ordem determinada pela invariância frente a translações espaciais como
sendo uma ordem posicional, e a ordem por invariância frente a rotações como
ordem orientacional.
Entre estes dois extremos existem materiais que apresentam todo um espectro
de simetrias e ordens intermediários. O exemplo paradigmático são os cristais
líquidos, substâncias formadas por moléculas anisométricas (sem simetria esférica). Moléculas típicas que formam cristais líquidos são de dois tipos básicos:
alongadas (moléculas calamíticas) ou com forma de disco (moléculas discóticas).
Em geral, a parte interna destas moléculas é rígida e a parte externa, fluida. Este
caráter duplo da estrutura das moléculas dá origem a interações chamadas estéricas, que levam a diversos tipos de ordem orientacional, juntamente com o caráter
fluido das fases líquidas.
• A altas temperaturas, as moléculas em um cristal líquido (que podemos
representar esquematicamente como elipsoides alongados, como na figura
6.6), estão desordenadas. A desordem diz respeito tanto aos seus centros
de massa (desordem posicional) quanto as orientações dos eixos de simetria das moléculas (desordem orientacional). Neste regime, o cristal líquido
apresenta uma estrutura idêntica à de um fluido isotrópico. O fator de estrutura (em função de ~k1 , ~k2 , ~k3 ) apresentará tipicamente duas cascas esféricas
com raios correspondentes aos dois comprimentos característicos das moléculas: o comprimento l e o diâmetro a. Em uma projeção bidimensional,
como na figura 6.7, as esferas serão círculos.
• Quando o líquido é resfriado abaixo de uma temperatura característica, aparece uma primeira fase ordenada conhecida como fase nemática (N, ver
figura 6.6(b)). Em esta fase as moléculas apontam preferencialmente ao
Daniel A. Stariolo - IF-UFRGS - 2014
90
Figura 6.5: Algumas moléculas que produzem fases de cristais líquidos e as transições de fases em função da temperatura.
longo de uma direção, especificada por um vetor unitário ~n chamado diretor. Seus centros de massa permanecem desordenados. Por tanto, a fase
nemática quebra a simetria orientacional mas não a translacional. È um
exemplo típico de ordem orientacional. O sistema ainda apresenta invariância rotacional em um plano perpendicular ao diretor. Mas em qualquer
Daniel A. Stariolo - IF-UFRGS - 2014
91
Figura 6.6: Ilustração esquemáticas das fases em cristais líquidos
plano que contenha o diretor a simetria é reduzida a rotações discretas de
ângulo 180o . Na realidade o diretor não é propriamente um vetor, mas um
Daniel A. Stariolo - IF-UFRGS - 2014
92
pseudo-vetor, já que os dois extremos são identificados ou equivalentes.
Vamos ver que a ordem nemática, diferentemente da ordem magnética por
exemplo, não é vetorial, mas tensorial. Na fase nemática o fator de estrutura
(ou sua projeção em 2d) reflete a quebra de simetria orientacional: ele preserva a simetria frente a rotações arbitrárias em um plano perpendicular ao
diretor (círculo de raio maior na figura 6.7). mas na direção de ~n apresenta
invariância de rotação apenas por ângulos de π .
• Uma possibilidade mais complexa de fase nemática é produzida por moléculas quirais, como o colesterol , que não apresentam simetria frente a
reflexões. Estas moléculas produzem uma fase nemática quiral ou colestérica, (N ∗ ). Nesta fase, as moléculas na direção de alinhamento giram
formando uma hélice, com um passo que é tipicamente de alguns milhares
de angstroms. Por tanto as moléculas colestéricas espalham luz visível.
• Diminuindo mais a temperatura se pode passar de uma fase nemática para
uma nova fase chamamda fase esmética-A (Sm − A, ver figura 6.6(c)).
Nesta fase as moléculas se organizam em camadas bem diferenciadas. Os
planos das camadas são perpendiculares aos eixos maiores das moléculas,
e a espessura destas camadas corresponde tipicamente ao comprimento l
das moléculas. Em cada camada as moléculas se encontram desordenadas
posicionalmente e podem fluir nos planos. As camadas correspondem à
presença de uma onda de densidade na direção perpendicular as mesmas.
Por tanto existe ordem translacional ou posicional na direção perpendicular
as camadas, ao longo dos eixos moleculares, ou paralelo ao diretor ~n. A
onda de densidade pode ser definida como:
hn(~x)i = n0 + 2nq0 cos (q0 z),
(6.12)
onde q0 = 2π/l, e o eixo z é perpendicular aos planos. Esta onda de densidade produz um fator de estrutura caracterizado por dois picos de Bragg
simétricos em ±q0 :
S(~q) = |hnq0 i|2 (2π)3 [δ(~q − q0 êz ) + δ(~q + q0 êz )] .
(6.13)
• Em alguns cristais líquidos a fase esmética apresenta um projeção finita
do diretor sobre o plano das camadas, o diretor está inclinado respeito da
normal as camadas. Ainda mais, a projeção apresenta uma direção definida,
como mostra a figura 6.6(d). Esta fase é chamada fase esmética C (Sm −
Daniel A. Stariolo - IF-UFRGS - 2014
93
Figura 6.7: O fator de estrutura nos cristais líquidos
C). A fase esmética C possui uma simetria inferior a da fase esmética A. A
direção da projeção de ~n no plano das camadas define um eixo c ou diretor-
Daniel A. Stariolo - IF-UFRGS - 2014
94
c. Pode haver uma transição entre as fases esmética A e esmética C. O fator
de estrutura nestas fases tem a forma genérica descrita na figura 6.7(c) e (d).
• Quando um cristal líquido na fase esmética A é resfriado, ele pode condensar em uma fase cristalina, com ordem posicional de longo alcance, ou então
pode condensar na chamada fase esmética B. Na fase esmética B o cristal
líquido apresenta ordem orientacional de quase-longo alcance no plano das
camadas, com simetria rotacional de ordem 6. Uma fase com esta simetria
frente a rotações se chama fase hexática. No fator de estrutura, esta simetria se manisfesta pela presença de arcos difusos no entorno dos valores de
q = 2π/a, separados por ângulos de 2π/6, como mostra a figura 6.8. Notar
a difereça entre os picos de Bragg de uma fase cristalina com simetria hexagonal, na qual as moléculas se encontram sobre os vértices de uma rede
triangular no plano, e os picos difusos, ou quase-picos de Bragg de uma fase
com ordem orientacional hexática, onde as moléculas não ocupam os sítios
de uma rede cristalina perfeita. O fator de estrutura de uma fase hexática no
plano pode ser expandido em série de Fourier:
X
S(θ) =
S6n cos (6nθ)
(6.14)
n
onde θ corresponde a um ângulo no plano a partir do máximo mais intenso
do fator de estrutura, por exemplo. De forma semelhante, se pode definir o
grau de ordem em uma fase hexática através do parâmetro de ordem complexo:
Ψ6 = e6iθ
(6.15)
onde θ representa o ângulo entre a linha que une dois átomos e o eixo x, por
exemplo.
Daniel A. Stariolo - IF-UFRGS - 2014
95
Figura 6.8: a) Estrutura cristalina hexagonal e fator de estrutura, b) Ordem orientacional na fase hexática e fator de estrutura
6.5 Simetrias e parâmetros de ordem
Como se pode concluir do visto até aqui, considerações de simetria têm um papel
central na matéria condensada. Os fenômenos mais dramáticos da matéria condensada, as transições de fase, muitas vezes podem ser analizadas e entendidas a
partir de transformações das condições de simetria do sistema frente a variação de
parâmetros externos, como temperatura, pressão ou campos elétricos e magnéticos.
Um sistema físico é descrito analíticamente pelo Hamiltoniano do mesmo. O
Daniel A. Stariolo - IF-UFRGS - 2014
96
Hamiltoniano apresenta invariância frente a algumas operações de simetria, que
permitem tirar conclusões sobre o comportamento e a estrutura do sistema sob
diferentes condições. Em um gás ideal por exemplo, o Hamiltoniano é invariante
frente ao grupo espacial composto por translações, rotações e reflexões arbitrárias
do espaço, além de translações e reversão temporal. O Hamiltoniano de Heisenberg (6.9) é invariante frente a translações e reversão temporal além de rotações
globais dos spins respeito de um eixo arbitrário. Tipicamente, a altas temperaturas ou em sistemas diluidos, o sistema se encontra em uma fase desordenada, a
qual é invariante frente a operações do mesmo grupo G de invariância do Hamiltoniano. Em uma transição de fase alguma invariância é quebrada. Operadores
que não permanecem invariantes através de uma transição de fases são chamados
parâmetros de ordem. No modelo de Heisenberg, a magnetização:
X
~ = 1
~i
M
S
N i
(6.16)
é o parâmetro de ordem. A invariância frente ao grupo de rotação simultânea
de todos os spins em R3 existente no Hamiltoniano do modelo de Heisenberg é
quebrada para T < Tc , onde Tc é a temperatura crítica do modelo. Acima de Tc ,
~ = 0, e abaixo de Tc , hMi
~ =
hMi
6 0. O grupo de simetria original é reduzido
~ . O sistema não é mais
ao subgrupo de rotações respeito a eixos paralelos a M
~. A
invariante frente a rotações dos spins respeito de eixos perpendiculares a M
fase ordenada do modelo de Heisenberg é uma fase com simetria quebrada.
Para especificar completamente o comportamento de uma fase ordenada, temos que saber como o parâmetro de ordem se transforma frente a uma operação
do grupo de simetria. No caso do modelo de Heisenberg, o grupo de simetria é o
grupo das rotações.
A quebra de simetria em uma transição de fases se reflete na estrutura termodinâmica do sistema: o número de mínimos na energia livre é igual ao número
de elementos do grupo de simetria associado ao parâmetro de ordem. Para explorar esta interpretação é importante distinguir grupos de simetria discretos e
continuos. Se o grupo de simetria for discreto então existirão um número discreto
de fases termodinâmicas equivalentes, enquanto que no caso do grupo ser continuo haverá uma variedade continua onde cada ponto representa uma possível fase
termodinâmica. O modelo de Ising é um exemplo do primeiro caso e o modelo de
Heisenberg pertence ao último grupo.
Outra distinção importante é entre simetrias locais ou globais. Um sistema
possui uma simetria local se é invariante frente a operações do grupo de simetria
Daniel A. Stariolo - IF-UFRGS - 2014
97
aplicadas localmente, a uma parte do sistema. Este caso é o menos comum. O Hamiltoniano do modelo de Heisenberg possui uma simetria global, que corresponde
à rotação simultânea dos spins por um ângulo fixo respeito de qualquer eixo. O
grupo de simetria correspondente é o O3 , o grupo de rotações em três dimensões.
• O modelo de Ising representa um material ferromagnético com um eixo de
anisotropia que força os spins a apontar em um única direção. O Hamiltoniano é:
X
H = −J
σi σj
(6.17)
hiji
onde σi = ±1. O grupo de simetria do parâmetro de ordem, a magnetização,
é o grupo discreto Z2 .
• Uma generalização do modelo de Heisenberg onde o parâmetro de ordem
tem n componentes é o modelo O(n), cujo grupo de simetria continua é o
On . Este modelo é interessante porque se reduz ao modelo de Ising no caso
n = 1, ao modelo chamado XY para n = 2, ao modelo de Heisenberg para
n = 3, e é exatamente solúvel no limite n → ∞.
• O modelo XY corresponde a um ferromagneto com um “plano fácil”. O
vetor de magentização é forçado a estar sobre o plano. Possui um grupo de
simetria continua, que é o O2 . Outra realização desta simetria é na transição
líquido normal- superfluido. Neste caso, o parâmetro de ordem é a função
de onda do líquido quântico:
Ψ = |Ψ| eiθ
(6.18)
que é um número complexo e por tanto pode ser representado como um
vetor em duas dimensões, com módulo |Ψ| e fase θ. Na representação complexa o grupo de simetria é o U(1).
Capítulo 7
Transições de fase e fenômenos
críticos
7.1 O modelo de Ising em d = 1: solução exata
O modelo de Ising foi originalmente concebido como um modelo para um material
ferromagnético com forte anisotropia uniaxial, no qual os momentos magnéticos
apontam preferencialmente em uma direção. Neste sentido é um sistema mais
simples, com menos graus de liberdade, do que o modelo de Heisenberg no qual
os dipolos podem apontar em qualquer direção no espaço. O próprio Ising obteve
a solução completa da termodinâmica do modelo em uma dimensão espacial. O
Hamiltoniano do modelo de Ising em um campo magnético externo B é dado por:
H = −J
X
hiji
σi σj − B
N
X
σi
(7.1)
i=1
onde σi = ±1 e h. . .i indica uma soma a todos os pares de primeiros vizinhos.
Para resolver o modelo em uma dimensão é útil rescrever o Hamiltoniano em uma
forma simétrica:
H = −J
N
X
i=1
N
1 X
(σi + σi+1 )
σi σi+1 − B
2 i=1
(7.2)
e vamos considerar condições de contorno periódicas identificando σN +1 = σ1 .
Deste forma a cadeia fica fechada formando um anel e os efeitos das bordas do
98
Daniel A. Stariolo - IF-UFRGS - 2014
99
sistema aberto são suprimidos. No limite termodinâmico estas condições de contorno não afetam os resultados, que coincidem com os da cadeia original aberta
nos extremos. A função de partição canônica pode ser escrita na forma:
X
X
PN
1
(7.3)
Z(T, B) =
···
eβ i=1 {Jσi σi+1 + 2 B(σi +σi+1 )}
σ1 =±1
=
X
σ1 =±1
σN =±1
···
X
hσ1 |P |σ2 ihσ2 |P |σ3 i · · · hσN −1 |P |σN ihσN |P |σ1i.
σN =±1
Na expressão anterior P denota o operador com elementos de matriz dados por:
1
hσi |P |σi+1 i = exp β Jσi σi+1 + B(σi + σi+1 )
(7.4)
2
P é chamada de matriz de transferência. Pela definição anterior:
β(J+B)
h+1|P | + 1i h+1|P | − 1i
e
e−βJ
P =
=
h−1|P | + 1i h−1|P | − 1i
e−βJ
eβ(J−B)
(7.5)
Como todos os termos têm a mesma estrutura, a função de partição se reduz a:
X
N
hσ1 |P N |σ1 i = T r P N = λN
(7.6)
Z(T, B) =
1 + λ2
σ1 =±1
onde λ1 e λ2 são os autovalores da matriz de transferência P . Os autovalores são
determinados pelo determinante secular
β(J+B)
−βJ
e
−
λ
e
=0
(7.7)
−βJ
β(J−B)
e
e
−λ cuja solução é:
1/2
λ± = eβJ cosh (βB) ± e−2βJ + e2βJ sinh2 (βB)
(7.8)
Se pode verificar que λ− < λ+ de forma que (λ− /λ+ )N → 0 quando N → ∞.
Assim, só o maior autovalor determina o comportamento do sistema no limite
termodinâmico. A energia livre de Helmholtz é dada por:
F (T, B) = −kB T ln Z(T, B) ≈ −NkB T ln λ+
(7.9)
o
n
−4βJ
1/2
= −NJ − NkB T ln cosh (βB) + e
+ sinh2 (βB)
Daniel A. Stariolo - IF-UFRGS - 2014
A magnetização por sítio m = M/N é dada por:
1 ∂F
sinh (βB)
m(T, B) = −
=
1/2
N ∂B T
e−4βJ + sinh2 (βB)
100
(7.10)
Notamos que se o campo externo for nulo a magnetização também será zero para
qualquer temperatura finita. Isto elimina a possiblidade de ter uma transição de
fase para uma fase com magnetização espontânea a temperatura finita. Por este
motivo o própio Ising considerou que o modelo não apresentava maior interesse.
No entanto, também é possível ver que para T = 0 a magnetização satura no
valor m = 1 independentemente do valor de B, o que indica a presença de uma
transição de fase a T = 0. Também, a partir do resultado anterior, podemos obter
a magnetização do paramagneto fazendo J = 0 → m = tanh (βB).
Para campos externos fracos B ≪ 1 podemos aproximar os senos hiperbólicos
pelo primeiro termo da série de Taylor, linear em βB, e derivando em relação ao
campo obtemos a susceptibilidade da cadeia de Ising no regime de resposta linear:
∂m
e2J/kB T
χ0 (T ) =
=
(7.11)
∂B T
kB T
Notamos que a susceptibilidade diverge exponencialmente para T → 0, diferentemente do que acontece em um ponto crítico usual onde a divergência é como lei
de potência χ ∼ (T − Tc )−γ . A densidade de energia interna u = U/N a campo
nulo é dada por:
u0 (T ) = −
1 ∂ ln Z(T, B = 0)
= −J tanh (βJ)
N
∂β
(7.12)
e o calor específico:
c0 (T ) =
∂u0
= kB (βJ)2 sech2 (βJ)
∂T
(7.13)
O calor específico apresenta apenas um máximo arredondado, como se pode ver
na figura 7.1, semelhante ao que acontece em qualquer sistema de dois estados, o
que é conhecido como efeito Schottky.
Como a cadeia de Ising é um sistema de spins em interação, é natural supor que os spins devem apresentar correlações. Vejamos como calcular funções
de correlação spin-spin neste sistema. Fixamos B = 0 e vamos permitir que a
constante de interação J = Ji seja agora função da posição, por motivos apenas
Daniel A. Stariolo - IF-UFRGS - 2014
101
Figura 7.1: O calor específico da cadeia de Ising.
técnicos que serão esclarecidos a seguir. Além disso, vamos considerar agora uma
cadeia aberta, de forma que possui somente N − 1 pares de vizinhos próximos.
Desta forma, a função de partição do sistema pode ser escrita como:
Z(T, J1 , . . . , JN −1 ) =
X
σ1 =±1
···
−1
X NY
eβJi σi σi+1
(7.14)
σN =±1 i=1
A correlação entre um par de spins vizinhos é definida como:
1 ∂
1 1 ∂
Z=
ln Z
hσk σk+1 i =
Z β ∂Jk
β ∂Jk
(7.15)
Notamos que os fatores em 7.14 com σ1 e σN aparecem apenas uma vez. Somando
o correspondente com σN obtemos:
X
eβJN−1 σN−1 σN = 2 cosh (βJN −1σN −1 ) = 2 cosh (βJN −1 )
(7.16)
σN =±1
onde a última identidade se deve a que o cosh é função par e σi = ±1. Procedendo
com as somas podemos escrever uma relação de recorrência para a função de
partição:
Z(T, J1 , . . . , JN −1 ) = 2 cosh (βJN −1 )Z(T, J1 , . . . , JN −2 )
(7.17)
Daniel A. Stariolo - IF-UFRGS - 2014
102
Substituindo os valores do lado direito obtemos uma solução para a iteração:
Z(T ) =
−1
X NY
[2 cosh (βJi )] = 2
N
σ1 =±1 i=1
N
−1
Y
cosh (βJi )
(7.18)
i=1
e por tanto
ln Z(T ) = N ln 2 +
N
−1
X
ln cosh (βJi )
(7.19)
i=1
Aplicando a definição (7.15) obtemos:
hσk σk+1 i = tanh (βJk )
(7.20)
Para obter a correlação entre um par de spins separados por uma distância arbitrária r, notamos que como σi = ±1:
hσk σk+r i = h(σk σk+1 )(σk+1 σk+2 ) . . . (σk+r−1 σk+r )i
1 1 ∂
1 ∂
1
∂
=
···
Z
Z β ∂Jk
β ∂Jk+1
β ∂Jk+r−1
k+r−1
Y
=
tanh (βJi )
(7.21)
i=k
Como estamos interessados em um valor constante para a interação Ji = J ∀i,
obtemos:
hσk σk+r i = tanhr (βJ)
(7.22)
Notamos que a T = 0 a correlação entre qualquer par de spins hσk σk+r i = 1, o
que corresponde a qualquer dos estados fundamentais com todos os spins positivos
ou todos negativos. Para T > 0 podemos escrever
hσk σk+r i = e−r/ξ
(7.23)
onde definimos o comprimento de correlação ξ(T ):
ξ(T ) = [ln coth (βJ)]−1
(7.24)
Para temperaturas baixas βJ ≫ 1:
1
ξ ≈ e2βJ
2
(7.25)
Daniel A. Stariolo - IF-UFRGS - 2014
103
que diverge exponencialmente para T → 0. Então vemos que, para temperaturas
finitas, os spins do sistema apresentam uma correlação que decai exponencialmente com a distância entre o par de spins considerados. Por sua vez, a correlação decai com uma distância típica ξ, o comprimento de correlação, que depende
da temperatura, sendo muito grande a temperaturas baixas e divergindo quando
T → 0, como acontece em geral no ponto crítico de transições de fase continuas,
embora a divergência neste caso seja exponencial en lugar de algébrica como nos
pontos críticos usuais. Neste sentido, o modelo de Ising em d = 1 é anômalo pois
não apresenta magnetização espontânea a temperatura finita e apenas apresenta
uma transição de fase a temperatura nula.
7.2 Teoria de campo médio do modelo de Ising
Quando vamos de uma dimensão para dimensões superiores as dificuldades técnicas para resolver a mecânica estatística aumentam consideravelmente, e pouquissimos sistemas podem ser resolvidos de forma exata. Então é importante desenvolver ferramentas para aproximar o cálculo. Existe um grande número de técnicas para obter soluções aproximadas de modelos estatísticos, como expansões
em séries de alta e baixa temperatura, simulações computacionais, aproximações
baseadas em teorias de campos. A mais simples aproximação de aplicação geral
a muitos sistemas é a teoria de campo médio.
A teoria de campo médio começou com a aproximação da equação de estado
para um líquido clássico por van der Waals (1873). Em 1906, Pierre Weiss desenvolveu uma aproximação equivalente para estudar a transição de fase em materiais ferromagnéticos. Em 1934, W. L. Bragg e E. J. Williams desenvolveram uma
aproximação de campo médio para a transição ferromagnética equivalente a de
Weiss mas que pode ser generalizada facilmente a diferentes sistemas e situações.
7.2.1 Aproximação de Bragg-Williams
Na aproximação de Bragg-Williams começamos calculando a entropia correspondente a configurações dos spins com magnetização fixa m. A magnetização do
modelo de Ising (7.1), m = hσi i, é igual a m = (N+ − N− )/N, onde N+ é o
número de spins para cima, N− é o número de spins para baixo e N é o número
total de spins no sistema.
Para um dado valor de m existe um número grande de configurações possíveis
de spins para cima (+) ou para baixo (-). O logaritmo desse número é o número
Daniel A. Stariolo - IF-UFRGS - 2014
104
de estados de microestados de magnetização m, ou entropia microcanônica do
sistema:
S
N
N
= ln
= ln
N+
N(1 + m)/2
kB
N!
(7.26)
= ln
(N(1 + m)/2)!(N(1 − m)/2)!
Usando a aproximação de Stirling para N grande:
ln N! = N ln N − N + O(ln N)
(7.27)
obtemos
S
s(m)
1
1
≡
= ln 2 − (1 + m) ln (1 + m) − (1 − m) ln (1 − m)
kB N
kB
2
2
(7.28)
Para obter o potencial termodinâmico de interesse, f (T, m) = U(m) − T S(m),
temos que calcular a energia interna, U = hHi:
−1
U = Zm
T rm H e−βH .
(7.29)
Notar que T rm é um traço restrito a configurações com magnetização m, Zm =
T rm e−βH , β = 1/kB T e kB é a constante de Boltzmann. O cálculo de Zm é complexo e equivale a obter a solução exata para o modelo. Em seu lugar realizamos
um cálculo aproximado. Na aproximação de Bragg-Williams se substitui o valor
local do spin σi por seu valor médio m independente da posição :
U = −J
X
≈ −J
X
hiji
hi,ji
hσi σj i − B
2
m −B
N
X
i=1
N
X
i=1
hσi i
1
m = − JNzm2 − NBm,
2
(7.30)
onde z é o número de vizinhos próximos dos sítios da rede. Na rede quadrada em
d dimensões z = 2d. A densidade de energia livre de Bragg-Williams é dada por:
f (T, m) = (U − T S)/N
kB T
1
[(1 + m) ln (1 + m) + (1 − m) ln (1 − m)]
= − Jzm2 − Bm +
2
2
−kB T ln 2
(7.31)
Daniel A. Stariolo - IF-UFRGS - 2014
105
Figura 7.2: A energia livre na aproximação de Bragg-Williams.
O comportamento da função f (T, m) para B = 0 está representado graficamente
para diversas temperaturas na figura 7.2.
Na figura da esquerda, para campo externo nulo, vemos que a altas temperaturas a função apresenta um único mínimo, para m = 0. Esta é a fase paramagnética.
A uma temperatura bem definida Tc a função passa a ter dois mínimos simétricos
±m. O valor absoluto destes mínimos cresce a medida que a temperatura baixa
com |m| → 1 quando T → 0. No entorno de Tc o valor de m é muito pequeno,
en então podemos expandir as funções termodinâmicas em potências de m:
1
1
s(m) = ln 2 − m2 − m4 + . . .
2
12
(7.32)
Daniel A. Stariolo - IF-UFRGS - 2014
106
e
1
1
f (T, m) = (kB T − zJ)m2 + kB T m4 − kB T ln 2 + . . .
(7.33)
2
12
Para T fixa, a função f apresenta um mínimo único em m = 0 se T ≥ zJ/kB .
Exatamente em Tc = zJ/kB a função desenvolve dois mínimos simétricos com
m 6= 0. Esta temperatura indica a presença de uma quebra espontânea da simetria
de inversão do modelo de Ising, assinatura de uma transição de fase de segunda
ordem, na temperatura crítica:
zJ
(7.34)
Tc =
kB
Em presença de um campo magnético externo B, a energia livre f − mB
é assimétrica, como mostra a figura da direita em 7.2. Para temperaturas altas
T > Tc a energia livre apresenta um único mínimo m > 0. Em T = Tc aparece
um segundo mínimo local. O mínimo com m > 0 continua sendo o mínimo
absoluto para T < Tc , e por tanto o comportamento do parâmetro de ordem não
muda neste caso em T = Tc . A equação de estado em presença de um campo
externo é dada por:
∂f
kB T
= −zJm − B +
ln [(1 + m)/(1 − m)]
∂m
2
= −zJm − B + kB T tanh−1 m = 0
(7.35)
Então
m = tanh [β(B + zJm)].
(7.36)
A quantidade B + zJm é o campo local médio, o mesmo para todos os sítios
do sistema. Ele tem uma contribuição do campo externo B e uma contribuição
proveniente do campo molecular produzido pelos vizinhos próximos de um sítio,
zJm = kB Tc m. O comportamento da equação de estado pode ser visualizado na
figura 7.3.
Expandindo a equação de estado para temperaturas baixas e campo nulo obtemos:
m = tanh (βzJm) ≈ 1 − 2 e−2βzJ
(7.37)
e por tanto m → 1 exponencialmente rápido com T . Perto da temperatura de
transição m ≪ 1 e podemos expandir para m pequeno (tanh x ∼ x − x3 /3 + . . .):
1
1
m ≈ (Tc /T )m − (Tc /T )3 m3 ≈ (Tc /T ) m − m3 ,
3
3
(7.38)
Daniel A. Stariolo - IF-UFRGS - 2014
107
Figura 7.3: A equação de estado na aproximação de Bragg-Williams.
onde no último passo aproximamos (Tc /T )3 ∼ 1 já que o termo cúbico tende
para um mais rápido que o termo linear quando T → Tc . Notamos que m = 0 é
sempre solução. Existem outras duas soluções com m 6= 0:
m = ±[3(Tc − T )/T ]1/2
(7.39)
Vemos que m va a zero de forma continua a medida que T → Tc . A transição de
fase ferromagnética-paramagnética é uma transição de segunda ordem na aproximação de campo médio. O expoente 1/2 é um exemplo de expoente crítico. Este
comportamento da magnetização que decai continuamente para zero com uma lei
de potências e o correspondente expoente crítico, é uma manifestação genérica
Daniel A. Stariolo - IF-UFRGS - 2014
108
de transições de fase de segunda ordem, ou continuas. Todos os sistemas cujo
parâmetro de ordem apresenta o mesmo comportamento crítico, no sentido do parâmetro de ordem ir a zero com uma lei de potências caracterizada por um mesmo
expoente, pertencem a mesma classe de universalidade [6].
Na aproximação de Bragg-Williams, como desenvolvida acima, assumimos
que o parâmetro de ordem é espacialmente uniforme hσi i = m. Esta condição
pode ser relaxada para permitir um parâmetro espacialmente variável hσi i = mi .
Neste caso a energia livre é escrita na forma:
F =−
X
1X
Jij mi mj − T
s(mi )
2
i
(7.40)
hi,ji
Esta forma é preferível para tratar casos nos quais o parâmetro de ordem não é
uniforme, como é o caso de fases moduladas em cristais líquidos, ou diferentes
tipos de ordem antiferromagnética.
Para fechar esta seção sobre a aproximação de campo médio do modelo de
Ising, notamos que o ponto de partida foi desenvolver uma aproximação para a
energia livre do modelo como função do parâmetro de ordem, a magnetização
m, em lugar da variável natural da energia livre de Helmholtz, que é o campo
magnético B. Esta alternativa é fundamental no formalismo da teoria de Landau
que vamos ver a continuação.
7.3 A teoria de Landau de transições de fase
Até aqui vimos que o programa da mecânica estatística tem sido o cálculo da
função de partição de um sistema, a partir da qual é possível fazer uma conexão
rigorosa com a termodinâmica do mesmo. No entanto o cálculo da função de
partição é uma tarefa pelo geral complexa , e então é desejável poder ter acesso
aos potenciais termodinâmicos por caminhos alternativos, a partir de premisas
gerais sobre o comportamento do sistema, mesmo sem contar com uma descrição
detalhada a partir do Hamiltoniano do mesmo.
Landau propós uma abordagem deste problema de caráter muito geral, fenomenológica, baseada nas propriedades de simetria do potencial termodinâmico
F (T, N, V, hφ(~x)i), onde hφ(~x)i é o parâmetro de ordem do sistema considerado
(magnetização, densidade).
Daniel A. Stariolo - IF-UFRGS - 2014
109
7.3.1 Transições de fase continuas
A teoria de Landau parte da premisa que a forma do potencial F pode ser deduzida
essencialmente através das seguintes observações:
• F (T, N, V, hφ(~x)i) deve ser uma função invariante respeito de operações
do grupo de simetria G da fase desordenada.
O segundo ponto fundamental na teoria de Landau é a seguinte observação:
• Perto da transição de fase, o parâmetro de ordem é pequeno (em uma transição de segunda ordem), e então se pode fazer uma expansão do potencial
F em série de Taylor do parâmetro de ordem:
∞
X
F
=
an ([K], T ) φn
f (T, φ) ≡
V
n=0
(7.41)
onde φ = hφ(~x)i. Vamos assumir por enquanto que o parâmetro de ordem
é espacialmente homogêneo. Também vamos assumir daqui em diante que
o número de partículas N e o volume V do sistema considerado são constantes, e por tanto não vamos incluí-los explicitamente em f . A suposição
que f possa ser desenvolvida em uma série de Taylor implica que ela é uma
função analítica de φ perto da transição.
Na prática, a expansão (7.41) poderá ser truncada para um número pequeno de
termos. Quantos termos serão necessários para descrever corretamente a transição
de fase dependerá essencialmente da dimensão espacial d e da dimensão do espaço
do parâmetro de ordem. No caso do modelo de Ising, o truncamento até ordem φ4
é suficiente. No entanto, é importante notar que na expansão devem estar presentes
todas as combinações analíticas do parâmetro de ordem que deixam invariante f
frente ao grupo de simetria G.
A equação de estado para φ é:
∂f
= h = a1 + 2a2 φ + 3a3 φ2 + 4a4 φ3
∂φ
(7.42)
Para T > Tc o parâmetro de ordem φ deve ser nulo se o campo externo for nulo,
então a1 = 0.
No caso particular do modelo de Ising, o grupo de simetria G é o grupo das
reflexões, e por tanto f (φ) = f (−φ). Então f somente poderá ter potências pares
de φ:
f = a0 + a2 φ2 + a4 φ4 .
(7.43)
Daniel A. Stariolo - IF-UFRGS - 2014
110
Como queremos que o estado termodinâmico seja estável para T < Tc , a4 > 0.
Caso contrário poderiamos ter a solução φ → ∞ como mínimo absoluto de f .
O coeficiente a0 é o valor de f para T > Tc , quando φ = 0. Se pode pensar
nele como contendo as contribuições a f não provenientes do parâmetro de ordem
de interesse. Nesse sentido, como o que queremos é descrever a transição de fase
associada a φ, vamos considerar a0 = 0, ou então redefinir f − a0 → f .
Como os coeficientes podem depender em geral da temperatura, perto da transição podemos expandi-los na forma:
T − Tc 1
a2 + O((T − Tc )2 )
(7.44)
Tc
T − Tc 1
a4 = a04 +
a4 + O((T − Tc )2 )
(7.45)
Tc
Se pode escolher a4 como uma constante positiva. Sua dependência em T não
será dominante para determinar o comportamento termodinâmico na transição.
Da equação de estado aplicada a (7.43) obtemos para φ:
(
se T > Tc
q0
φ=
(7.46)
)
± −a2a2 (T
se T < Tc
4
a2 = a02 +
Então, para que φ possa ter uma solução real e finita para T < Tc se deve
exigir que a02 = 0.
Se acrescentamos um termo proveniente de um campo externo h conjugado
de φ, a energia livre de Landau para o modelo de Ising adota a forma final:
1
(7.47)
f = r φ2 + u φ4 − h φ
2
onde r = a (T − Tc ) e as constantes foram redefinidas na notação mais comum na
literatura. O comportamento do potencial f está descrito na figura 7.4.
É importante notar que a teoria de Landau é fenomenológica, ou seja, ela não
está baseada em um modelo microscópico, tendo sido obtida apenas por argumentos de simetria. Ela fornece o comportamento qualitativo correto na proximidade
de uma transição de fase continua. Por exemplo, diferentemente da aproximação
de campo médio de Bragg-Williams para o modelo de Ising, a teoria de campo
médio de Landau não prediz um valor para a temperatura crítica em função de
parâmetros microscópicos. No entanto faz predições para grandezas universais,
como expoentes críticos. De (7.46) extraimos o comporamento do parâmetro de
ordem próximo da transição:
φ ∼ (Tc − T )β
(7.48)
Daniel A. Stariolo - IF-UFRGS - 2014
111
Figura 7.4: O funcional de Landau para um modelo com simetria de Ising.
Daniel A. Stariolo - IF-UFRGS - 2014
112
Vemos que φ → 0 com o expoente crítico β = 1/2. Este expoente é o mesmo que
se obtém na aproximação de Bragg-Williams. Na realidade todas as aproximações
de campo médio para um problema com dada simetria dão como resultado os
mesmos expoentes, chamados de expoentes clássicos. Tanto a aproximação de
Bragg-Williams como a teoria de Landau consideram um parâmetro de ordem
homogêneo, desconsideram flutuações. Quando o papel das flutuações é incluido
o expoente crítico toma valores menores, neste caso próximo de 1/3 em d = 3 e
1/8 em d = 2. Neste último caso o valor é exato.
Podemos obter a equação de estado derivando (7.47) respeito de φ:
r φ + 4u φ3 = h.
(7.49)
A susceptibilidade pode ser obtida derivando a equação de estado respeito de h:
∂φ
= 1.
∂h
(7.50)
1/r se T > Tc ,
1/2|r| se T < Tc .
(7.51)
[r + 12u φ2]
Obtemos:
∂φ
=
χ=
∂h
Substituindo a dependência de r na temperatura obtemos:
χ ∼ |T − Tc |−γ .
(7.52)
γ é o expoente crítico da susceptibilidade, que é igual a 1 na teoria de Landau, e
corresponde ao valor universal de campo médio para sistemas com parâmetros de
ordem tipo Ising. Em sistemas tridimensionais γ ∼ 4/3 quando são consideradas
flutuações na vizinhança do ponto crítico.
O parâmetro de ordem em função do campo externo na temperatura crítica
também apresenta comportamento universal com o expoente δ. Novamente, a
partir da equação de estado (7.49) obtemos em T = Tc :
φ∼
h
4u
1/δ
,
(7.53)
onde δ = 3. A energia livre f é zero para T > Tc e negativa para T < Tc :
0
se T > Tc
f=
(7.54)
2
−r /(16u) se T < Tc .
Daniel A. Stariolo - IF-UFRGS - 2014
Deste resultado podemos obter o valor do calor específico:
∂2f
0
se T > Tc ;
cV = −T
=
2
2
T a /(8u) se T < Tc .
∂T
113
(7.55)
O calor específico apresenta uma descontinuidade finita na temperatura crítica.
Este calor específico da a contribuição na vizinhança da transição de fase. A função completa apresenta outra contribuição analítica associada a outros graus de
liberdade. O comportamento com a temperatura de diversas grandezas termodinâmicas na aproximação de campo médio pode ser vista na figura 7.5. Notar que
cV corresponde à contribuição da energia livre de Landau mais uma parte analítica
proveniente de outros graus de liberdade.
7.3.2 Transições de primeira ordem na teoria de Landau
Na expansão em série de Taylor do potencial termodinâmico um termo linear em
φ é proibido porque φ = 0 acima da temperatura crítica. Um termo cúbico em
φ foi descartado com um argumento de simetria, no caso de um sistema com
simetria de Ising por causa da simetria f (φ) = f (−φ) a energia livre não pode
conter termos ímpares no parâmetro de ordem. No entanto, um termo cúbico pode
existir em sistemas onde a simetria da fase desordenada o permita. Consideremos
a expansão do potencial nesse caso:
1
f = a t φ2 + w φ3 + u φ4 − h φ
2
(7.56)
onde t ≡ T − Tc . Para h = 0 a equação de estado leva as soluções seguintes:
p
(7.57)
φ=0
φ = −c ± c2 − a t/4u,
onde c ≡ 3w/8u. Para ter uma solução real φ 6= 0 , t < t∗ ≡ 4uc2/a. Como t∗ >
0, esta condição acontece para uma temperatura maior que a temperatura crítica,
que agora corresponde apenas à temperatura na qual o termo de segunda ordem
em φ na energia livre se anula. A figura 7.6 mostra o andamento do potencial com
a temperatura no caso w < 0. Para t < t∗ um segundo mínimo aparece, embora
o mínimo absoluto ainda corresponda a φ = 0. A uma certa temperatura t1 o
valor de f é igual para os dois mínimos, e abaixo desta temperatura o segundo
mínimo passa a ser o mínimo global. Em t1 o parâmetro de ordem apresenta uma
discontinuidade finita. Acontece uma transição de primeira ordem.
Daniel A. Stariolo - IF-UFRGS - 2014
114
Figura 7.5: Comportamento de algumas grandezas termodinâmicas na teoria de
Landau para um sistema com simetria Ising.
No entanto, é importante levar em conta que para t → t−
1 o parâmetro de
ordem não é arbitrariamente pequeno, e então, a expansão de Landau não é válida
de forma geral. Quando a expansão é justificada, a preseça de um termo cúbico
leva o sistema a apresentar uma transição de primeira ordem.
7.4 Flutuações do parâmetro de ordem
Embora o parâmetro de ordem em um sistema homogêneo seja uma constante φ,
variações espaciais φ(~x) podem ser naturais em casos com presença de campos
Daniel A. Stariolo - IF-UFRGS - 2014
115
Figura 7.6: Uma transição de primeira orden na teoria de Landau.
externos inomogêneos h(~x) ou em sistemas com modulações espaciais no campo
φ como por exemplo, quando existem interações competitivas.
De um ponto de vista microscópico, o parâmetro de ordem φ é uma média estatística φ ≡ hφi, que envolve uma soma sobre um conjunto de graus de liberdade
microscópicos em uma certa região do espaço. Por tanto é válido se perguntar
sobre qual o significado físico da função da posição φ(~x) em um contexto termodinâmico. Se pode dar um significado a φ(~x) considerando uma “partição” do
sistema em blocos de tamanho a ≪ Λ−1 ≤ ξ(T ), onde a é a constante de rede (a
distância de equilíbrio entre um par de partículas) e ζ(T ) é um comprimento que
mede o alcance das correlações no sistema. Então, em uma escala Λ−1 podemos
considerar que o parâmetro de ordem é efetivamente constante. Assim, definimos o parâmetro de ordem local φΛ (~x) como o valor do parâmetro dentro de um
bloco com origem em ~x. Este processo se denomina granulado grosso (coarse
graining). Desta forma a energia livre de Landau fica bem definida na escala dos
blocos Λ. O problema agora é que ela depende da escala Λ. Temos que somar
Daniel A. Stariolo - IF-UFRGS - 2014
116
as contribuições de todos os grãos que compoem o sistema. Mas a energia livre
não pode
P ser, como poderiamos concluir sem refletir, a soma de termos do tipo
F = ~x f (φΛ (~x)), pois esta quantidade equivale a considerar que φΛ (~x) pode
variar de forma independente em cada bloco. No entanto é fácil se convencer que
não será bom, de um ponto de vista energético, ter grandes diferenças nos valores de equilíbrio de φΛ (~x) nos diferentes blocos. Uma forma de contornar este
problema é incluir um termo que penalize grandes variações do parâmetro de ordem local (também chamado parâmetro de ordem de granulado grosso). A forma
analítica mais simples que este termo pode tomar é:
!2
X X c φΛ (~x) − φΛ (~x + ~δ)
(7.58)
−1
2
Λ
δ
~
x
onde ~δ é um vetor de magnitude Λ−1 apontando na direção do bloco vizinho próximo do ponto ~x, e o valor do custo em energia é independente do sinal da diferença dos parâmetros de ordem em blocos vizinhos. A constante c pode depender
da temperatura.
Então, considerando que φΛ (~x) varia pouco na escala a, e tomando o limite
continuo, podemos escrever a energia livre de Landau na forma:
Z
Z
1
d
(7.59)
F [φΛ (~x)] = d x f (T, φΛ (~x)) + dd x c [∇φΛ (~x)]2 ,
2
onde φΛ (~x) ≡ hφΛ (~x)iΛ e f (T, φ(~x)) tem a forma da densidade de energia livre
de Landau homogênea (7.47). Agora a energia livre de Landau F [φΛ (~x)] é um
funcional de φΛ (~x), no sentido que depende da função φΛ (~x) em todos os pontos
~x. Um corte, ou “cutoff” para distâncias menores que Λ−1 está implícito em todas
as integrais.
É importante notar que o funcional de Landau F , ou energia livre de Landau,
NÃO É a energia livre de equilíbrio F (T, φ) do sistema. O funcional de Landau
é, na verdade, uma energia livre de granulado grosso ou Hamiltoniano efetivo, no
sentido que a função de partição do sistema pode ser obtida na forma:
Z
Z = DφΛ e−βF [φΛ (~x)] ,
(7.60)
R
onde a notação DφΛ indica uma integral funcional. Fisicamente, a integral
funcional equivale a somar as contribuições de todas as configurações dos campos
φ(~x) pesados com o peso estatístico correspondente. A dependência na escala Λ
Daniel A. Stariolo - IF-UFRGS - 2014
117
implica que este formalismo está bem definido para distâncias grandes. Variações
dos campos na escala do espaçamento de rede ou das distâncias interpartícula
estão fora do alcance do formalismo. No entanto, como veremos a seguir, na
análise da física na vizinhança de um ponto crítico apenas o comportamento a
longas distâncias é importante.
Então, realizando a integração funcional sobre os graus de liberdade ainda não
integrados, podemos obter o potencial termodinâmico A(T, h) correspondente:
Z(T, h) = T r e−βH = e−βA ,
(7.61)
onde H ≡ F [φΛ (~x)] deixa explícito o caráter de Hamiltoniano “efetivo” do funcional F , e h é um campo externo conjugado do parâmetro de ordem φ. A energia
livre de Helmholtz pode ser obtida via uma transformação de Legendre na forma:
F (T, φ) = A(T, h) + N φh.
(7.62)
7.5 Funções de correlação
Considerando a possibilidade do parâmetro de ordem variar espacialmente, podemos escrever o potencial termodinâmico A na forma:
A[T, ~h(~x)] = −T ln Z[T, ~h(~x)],
(7.63)
onde consideramos uma possível variação espacial do campo externo. Adotamos
a convenção kB = 1, ou seja, daqui para frente todas as temperaturas estão em
unidades da constante de Boltzmann. Notamos que tanto o potencial A quanto
a função de partição Z são na verdade funcionais no sentido discutido na seção
anterior. Para cada função h(~x) obtemos um valor para Z e um para A. Em
presença de um campo externo local h(~x), a função de partição pode ser escrita
na forma:
Z
R d
~
~
~
(7.64)
Z = Dφ(~x) e−β {F [φ(~x)]− d x h(~x)·φ(~x)} ,
onde F [φ(~x)] é dada por (7.59) e o subíndice Λ será eliminado da notação exceto
quando o significado das expressões não seja claro.
O parâmetro de ordem na escala Λ, que para um sistema magnético é a magnetização local, é dado por:
hφi (~x)i =
1 δZ
δA
=−
,
Z δ βhi (~x)
δhi (~x)
(7.65)
Daniel A. Stariolo - IF-UFRGS - 2014
118
~ e
onde hφi i e hi representam a i-ésima componentes cartesianas dos vetores hφi
~h, e o símbolo δ representa uma derivada funcional. O potencial termodinâmico
obedece a seguinte identidade diferencial:
Z
~ x)i · δ~h(~x).
dA = −S dT − dd x hφ(~
(7.66)
A susceptibilidade local generalizada é dada pelo tensor:
χij (~x, ~x′ ) =
δhφi (~x)i
,
δhj (~x′ )
(7.67)
~ x).
onde i, j são as componentes i e j de um parâmetro de ordem vetorial φ(~
A função de correlação conectada representa as correlações das flutuações do
parâmetro de ordem em relação ao valor médio, e é dada por:
Gij (~x, ~x′ ) = h[φi (~x) − hφi (~x)i][φj (~x′ ) − hφj (~x′ )i]i
δ 2 ln Z
1
=
β 2 δhj (~x′ )δhi (~x)
1 δhφi (~x)i
=
= T χij (~x, ~x′ )
′
β δ hj (~x )
(7.68)
Notamos que a função de correlação de dois pontos conectada é proporcional
à susceptibilidade generalizada.
A susceptibilidade ou resposta global é definida como:
Z
χij = dd xdd x′ χij (~x, ~x′ )
(7.69)
e, em sistemas com invariância translacional, é proporcional ao limite q = 0 da
transformada de Fourier da função de correlação conectada χij = lim~q→0 βGij (q)
.
Uma transformada de Legendre nos permite obter um potencial termodinâmico que é função do parâmetro de ordem (equivalente à energia livre de Helmholtz),
em lugar de ser função do campo:
Z
~ x)i] = A[T, ~h(~x)] + dd x ~h(~x) · hφ(~
~ x)i.
F [T, hφ(~
(7.70)
O funcional F satisfaz a relação diferencial:
Z
~ x)i.
dF = −S dT + dd x ~h(~x) · δhφ(~
(7.71)
Daniel A. Stariolo - IF-UFRGS - 2014
119
A equação de estado é dada por:
δF
= hi (~x).
δhφi (~x)i
(7.72)
Em ausência de campo externo o estado de equilíbrio é dado pelo valor de hφi (~x)i
que minimiza F . Notar que, nesta forma funcional, o parâmetro de ordem pode
não ser homogêneo, o mínimo de F é determinado por uma função da posição.
A Derivada funcional
Consideremos um funcional Φ[h(~x)]. A derivada funcional de Φ é definida
como:
δΦ
Φ[h(~x) + ǫδ(~x − ~y )] − Φ[h(~x)]
= lim
.
(7.73)
δh(~y ) ǫ→0
ǫ
δΦ/δh(~y ) representa o câmbio induzido em Φ em resposta a um câmbio em h(~x)
no ponto ~x = ~y .
Utilizando esta definição é possível mostrar algumas derivadas funcionais comuns:
δh(~x)
= δ(~x − ~y ),
(7.74)
δh(~y )
onde Φ[h(x)] = h(x) é o funcional identidade. Se f é uma função de h(~x):
δh(~x)
δf (h(~x))
= f′
= f ′ δ(~x − ~y ),
δh(~y )
δh(~y )
δh(~x)
δf (g(h(~x)))
= f ′ g′
= f ′ g ′ δ(~x − ~y ),
δh(~y )
δh(~y )
(7.75)
(7.76)
onde f ′ (z) = df /dz.
Por exemplo, para f (φ(~x)) = φ4 (~x):
δf
δφ(~x)
= f′
= 4φ3 (~x)δ(~x − ~y )
δφ(~y )
δφ(~y )
(7.77)
Uma situação comum na física é a de um funcional F [φ(~x)] pode ser expresso
na forma
Z
F [φ(~x)] = dd x f (φ(~x), ∂i φ(~x)),
(7.78)
Daniel A. Stariolo - IF-UFRGS - 2014
120
onde ∂i φ(~x) são derivadas espaciais de φ(~x) (componentes do gradiente), então
Z
δf
δF
=
dd x
δφ(~y )
δφ(~y)
Z
∂f δφ(~x)
∂f
δ∂i φ(~x)
d
=
d x
+
∂φ(~x) δφ(~y ) ∂(∂i φ(~x)) δφ(~y )
Z
∂f
∂f
d
=
d x
δ(~x − ~y ) +
∂i δ(~x − ~y ) , (7.79)
∂φ(~x)
∂(∂i φ(~x))
onde na última linha usamos o fato que a derivada comum e a derivada funcional
comutam e índices repetidos se somam. Usando:
∂f
∂f
∂f
δ(~x − ~y ) = δ(~x − ~y )∂i
+
∂i δ(~x − ~y ),
∂i
∂(∂i φ(~x))
∂(∂i φ(~x)) ∂(∂i φ(~x))
integrando por partes no último termo, desprezando termos de superfície e fazendo
a integral em ~x obtemos:
∂f
∂f
δF
=
− ∂i
,
δφ(~y)
∂φ(~y )
∂∂i φ(~y )
(7.80)
cuja solução estacionária é semelhante a equação de movimento da mecânica Lagrangeana.
Após a transformada de Legendre que leva de A para F podemos obter a
inversa da função de correlação derivando F respeito de hφi (~x)i. Fazemos isto
em dois passos: primeiro derivamos hφi (~x)i respeito de hφk (~x′′ )i:
δhφi (~x)i
= δik δ(~x − ~x′′ )
δhφk (~x′′ )i
Z
δhφi (~x)i δhj (~x′ )
.
=
dd x′
δhj (~x′ ) δhφk (~x′′ )i
(7.81)
onde se fez uso da regra da cadeia na derivada funcional e índices repetidos estão
somados. A inversa de χij (~x, ~x′ ) é definida na forma:
Z
dd x′ χij (~x, ~x′ )χ−1
x′ , ~x′′ ) = δik δ(~x − ~x′′ ).
(7.82)
jk (~
Comparando as duas últimas identidades e usando a definição da susceptibilidade
obtemos:
δ2F
δhi (~x)
′
χ−1
(~
x
,
~
x
)
=
=
.
(7.83)
ij
δhφj (~x′ )i
δhφj (~x′ )iδhφi (~x)i
Daniel A. Stariolo - IF-UFRGS - 2014
121
7.5.1 Correlações na teoria de Landau
Vamos calcular agora as funções de correlação e susceptibilidade partindo da energia livre de Landau para um campo escalar:
Z
Z
1
d
(7.84)
F = d x f (T, hφ(~x)i) + dd x c [∇hφ(~x)i]2 .
2
Substituindo para a densidade de energia livre a forma (7.47) com h = 0,
obtemos:
δ2F
δhφ(~x)iδhφ(~x′ )i
= (r + 12u hφ(~x)i2 − c∇2 )δ(~x − ~x′ ).
χ−1 (~x, ~x′ ) =
(7.85)
O último termo corresponde ao operador Laplaciano, e se obtém após integrar
por partes a variação do termo do gradiente quadrado, e desprezar um termo de
superfície:
Z
Z
δ
δ
d
d
d
x
∂
φ(~
x
)∂
φ(~
x
)
=
d
x
[∂i φ(~x)∂i φ(~x)]
i
i
δφ(~x′ )
δφ(~x′ )
Z
Z
δ
δφ(~x)
d
=
d x 2∂i φ(~x)
∂i φ(~x)
= 2 dd x ∂i φ(~x)∂i
′
δφ(~x )
δφ(~x′ )
Z
= 2 dd x ∂i φ(~x)∂i δ(~x − ~x′ ).
(7.86)
Usando
∂i [∂i φ(~x)δ(~x − ~x′ )] = ∂i2 φ(~x)δ(~x − ~x′ ) + ∂i φ(~x)∂i δ(~x − ~x′ ),
(7.87)
e desprezando o termo de superfície, obtemos:
Z
Z
δ
d
d x ∂i φ(~x)∂i φ(~x) = −2 dd x ∂i2 φ(~x)δ(~x −~x′ ) = −2∂i2 φ(~x′ ). (7.88)
′
δφ(~x )
Finalmente,
δ
−2∂i2 φ(~x′ ) = −2∂i2 δ(~x − ~x′ ),
δφ(~x)
(7.89)
que leva ao resultado em (7.85). O mesmo resultado pode ser obtido diretamente
aplicando a expressão geral obtida em (7.80).
Daniel A. Stariolo - IF-UFRGS - 2014
122
Usando agora a relação (7.82), que define a inversa de χ, obtemos:
(r + 12u hφ(~x)i2 − c∇2 ) χ(~x, ~x′ ) = δ(~x − ~x′ ),
(7.90)
ou, usando (7.69):
(r + 12u hφ(~x)i2 − c∇2 ) G(~x, ~x′ ) = T δ(~x − ~x′ ).
(7.91)
A solução geral destas equações é complicada pela dependência em hφ(~x)i2 .
Assumindo que o sistema apresenta invariância translacional é possível resolver
para χ(~x, ~x′ ) por transformanda de Fourier:
Z
χ(~q) = dd x χ(~x) e−i~q·~x
(7.92)
Se o parâmetro de ordem é homogêneo e dado pela solução de campo médio de
Landau obtemos:
1
r + 12u hφi2 + cq 2
1
,
=
1 + (qζ)2
χ(~q) =
onde
ζ(T ) =
c
r + 12u hφi2
1/2
(7.93)
(7.94)
tem unidades de comprimento. Fazendo a transformada inversa de Fourier da
susceptibilidade, ou da função de correlação que é equivalente, é possível mostrar
que ζ(T ) é um comprimento de correlação. Usando a solução de campo médio
para hφi se obtém:
(c/r)1/2
se T > Tc
(7.95)
ζ(T ) =
1/2
(c/(−2r))
se T < Tc
Então, vemos que próximo do ponto crítico ζ ∼ |T − Tc |−ν , onde ν = 1/2 é o
expoente crítico do comprimento de correlação. Em sistemas tridimensionais o
valor real de ν está em torno de 2/3.
A existência de um comprimento de correlação é um dos conceitos centrais na
física da matéria condensada. A própria idéia de condensado implica a existência
de uma região onde as partículas estão fortemente correlacionadas. A extensão
Daniel A. Stariolo - IF-UFRGS - 2014
123
desta região depende de parâmetros externos, como a temperatura, ou pressão.
Uma das características do fenômeno de invariância de escala no ponto crítico é a
divergência do comprimento de correlação, ou seja, todo o sistema está fortemente
correlacionado em Tc .
A forma da susceptibilidade (7.93) foi obtida pela primeira vez por Ornstein
e Zernicke na análise do ponto crítico gás-líquido. A transformada inversa de
Fourier permite obter a função de correlação espacial de dois pontos:
Z
ei~q·~x
dd q
χ(~x) =
(2π)d 1 + (qζ)2
(d−2)/2
Z
Ωd
q d−1 dq
1
=
J(d−2)/2 (qr)
(7.96)
d
2
(2π)
1 + (qζ)
qr
onde Ωd é o ângulo sólido d-dimensional e Jn (x) é uma função de Bessel. A
integral no vetor de onda resulta em:
χ(r) ∝
1
ζr
(d−2)/2
r
,
K(d−2)/2
ζ
(7.97)
onde Kµ (x) é uma função de Bessel modificada. Para x ≫ 1, Kµ (x) ≈ x−1/2 e−x .
Então, para distâncias grandes comparadas com o comprimento de correlção, a
função de correlação de dois pontos se comporta como:
G(r) = T χ(r) ∝
e−r/ζ
r (d−1)/2
(7.98)
Notamos que no ponto crítico T = Tc as correlações espaciais decaem algebricamente com r −(d−1)/2 . Para T 6= Tc as correlações decaem de forma exponencial
em uma escala dada pelo comprimento de correlação ζ(T ).
7.6 Sistemas com simetria O(n)
Sistemas com simetria O(n) possuem um parâmetro de ordem vetorial com n
componentes. Na fase desordenada, o Hamiltoniano tem que ser invariante frente
a rotações no espaço n-dimensional do parâmetro de ordem. Casos particulares
são o modelo de Ising, com n = 1, que já analizamos. O modelo XY, que é um
modelo de rotores no plano, com n = 2. O modelo de Heisenberg para a transição
ferromagnética, com n = 3.
Daniel A. Stariolo - IF-UFRGS - 2014
124
A energia livre de Landau do modelo O(n) é análoga a do modelo com simetria Ising (7.47). A única diferença é que, devido a simetria rotacional da fase
paramagnética, a energia livre deve depender de:
~ 2 ≡ hφi2 =
|hφi|
n
X
i=1
hφi i2 ,
(7.99)
que é invariante por rotações. Em presença de um campo externo hi na direção i
a equação de estado resulta:
∂f
= (r + 4uhφi2)hφi i = hi .
∂φi
(7.100)
Acima da temperatura crítica, ou seja, se r > 0, a única solução com hi = 0 é que
todas as componentes do parâmetro de ordem sejam nulas. Então:
0
se T > Tc ;
(7.101)
hφi =
(−r/4u)1/2 ei se T < Tc .
onde ~e é um vetor unitário arbitrário no espaço do parâmetro de ordem. O comportamento é o mesmo do modelo de Ising, e então o modelo O(n) sofre uma
transição de fase de segunda ordem, com expoentes críticos β, γ, δ e ν iguais aos
do modelo de Ising. No entanto, diferentemente ao modelo de Ising que quebra
uma simetria discreta, a arbitrariedade do vetor unitário ~e que define a direção de
ordenamento do sistema, indica que uma simetria continua foi quebrada, como
mostrado na figura 7.7 para o caso XY (n = 2).
A quebra de uma simetria continua traz profundas consequências no comportamento das funções de correlação e susceptibilidades para T < Tc . Como já
visto, a função de correlação conectada entre as componentes i e j do parâmetro
de ordem é dada por:
Gij (~x, ~x′ ) = hφi (~x)φj (~x′ )i − hφi (~x)ihφj (~x′ )i.
(7.102)
Esta correlação pode ser decomposta em duas partes, correspondentes a correlações entre as componentes paralela e perpendiculares à direção de ordenamento
do sistema:
Gij (~x, ~x′ ) = Gk (~x, ~x′ ) ei ej + G⊥ (~x, ~x′ )(δij − ei ej ).
(7.103)
Se a direção de ordenamento é o eixo definido por e1 , então ~e = (1, 0, 0, . . .) e
obtemos:
G11 (~x, ~x′ ) = Gk (~x, ~x′ ) = hφ1(~x)φ1 (~x′ )i − hφ1 (~x)ihφ1 (~x′ )i,
Gii (~x, ~x′ ) = G⊥ (~x, ~x′ ) = hφi (~x)φi (~x′ )i − hφi (~x)ihφi (~x′ )i,
(7.104)
(i 6= 1).
Daniel A. Stariolo - IF-UFRGS - 2014
125
Figura 7.7: A parte homogênea da energia livre de Landau para o modelo O(2).
Derivando a energia livre de Landau respeito de φi (~x) e φj (~x′ ) e transformando
Fourier obtemos o tensor de susceptibilidade:
χ−1
q ) = T G−1
q ) = (r + 4uhφi2 + cq 2 )δij + 8uhφi ihφj i,
ij (~
ij (~
(7.105)
ou, em termos das componentes paralelas e perpendiculares:
2
2
χ−1
k = r + 12uhφi + c q
e
χ−1
q)
⊥ (~
2
2
= r + 4uhφi + c q =
r + c q 2 se T > Tc ;
c q2
se T < Tc .
(7.106)
(7.107)
Notamos que a componente paralela tem o mesmo comportamento que no modelo
de Ising. No entanto, na fase ordenada para T < Tc , na direção perpendicular a
susceptibilidade ou as correlações G⊥ (~q) = T χ⊥ (~q) têm um comportamento com
lei de potência:
T
(7.108)
G⊥ (~q) = 2 .
cq
No espaço real as correlações também decaem algebricamente:
G⊥ (~x, 0) ∼ |x|−(d−2) .
(7.109)
Daniel A. Stariolo - IF-UFRGS - 2014
126
Como a suscpetibilidade global é dada por χij = lim~q→0 βGij (~q), o resultado
anterior implica que o sistema possui susceptibilidade transversal infinita na fase
de baixa temperatura com simetria quebrada. Ou seja, é necessário um campo
externo arbitrariamente pequeno para mudar o valor (ou melhor, a direção) do parâmetro de ordem. Isto pode ser interpretado fisicamente pela estrutura da energia
livre de Landau da figura 7.7. Da figura fica evidente que f possui um número
infinito de mínimos para T < Tc , e se pode passar continuamente de um mínimo
para outro. Ou seja, não custa energia ir de um mínimo qualquer a um outro qualquer. No entanto, na direção paralela a situação é diferente: existe uma penalidade
energética para mudar o módulo do parâmetro de ordem.
O comportamento da componente transversal da susceptibilidade (7.107) indica que, em termos de modos no espaço de Fourier, a susceptibilidade aumenta
de forma ilimitada para modos de comprimento de onda grande e é infinita para
λ → ∞. Em outras palavras, a flutuação na energia de Landau f pode ser feita
arbitrariamente pequena para flutuações de comprimento de onda suficientemente
grandes. No caso do modelo O(2) da figura vemos que existe exatamente um
modo perpendicular à direção de ordenamento com excesso de energia livre arbitrariamente pequena. Em geral, em um modelo com simetria O(n) haverá um
modo deste tipo por cada direção transversal, ou seja um total de n − 1 modos transversais de baixa energia, chamados modos de Goldstone. Os modos de
Goldstone se manifestam matematicamente como polos em ~q = 0 na componente
transversal da susceptibilidade, como se ve em (7.107) na fase de simetria rotacional quebrada. Exemplos de modos de Goldstone são as ondas de spin, ou
mágnons em sistemas ferromagnéticos e também os fônons, ou oscilações da rede
cristalina associados a quebra da simetria por translações no espaço. Ambas fenômenos correspondem a excitações de baixa energia dos respectivos sistemas e são
consequência da quebra de simetrias continuas.
7.7 Validade da teoria de campo médio: o critério
de Ginzburg
Como temos visto, a aproximação de campo médio consiste essencialmente em
substituir um parâmetro de ordem que flutua localmente por um parâmetro médio
espacialmente constante. Por tanto, a aproximação de campo médio será boa
sempre que as flutuações do parâmetro de ordem respeito do seu valor médio
sejam pequenas. Uma medida da importância das flutuações do parâmetro de
Daniel A. Stariolo - IF-UFRGS - 2014
127
ordem pode ser obtida calculando o valor médio de δφ(~x) = φ(~x) − hφ(~x)i em
um volume da ordem Vζ ≈ ζ d (V. L. Ginzburg, 1960), onde ζ é da ordem do
comprimento de correlação.
O desvio do parâmetro de ordem respeito do seu valor médio no volume Vζ é
dado por:
Z
δφζ ≡ Vζ−1
dd x δφ(~x).
(7.110)
Vζ
As flutuações serão desprezíveis se h(δφζ )2 i for muito menor que hφi2 na fase
ordenada, ou seja, se
Z
Z
d
d ′
′
−1
−2
dd x G(~x) < hφi2 ,
(7.111)
d x d x hδφ(~x)δφ(~x )i = Vζ
Vζ
Vζ
Vζ
onde G(~x) é a função de correlação (conectada) do parâmetro de ordem e foi
assumida invariância translacional. Como a aproximação de campo médio fornece
uma predição para a função de correlação e para o parâmetro de ordem, a própria
aproximação possui um teste de consistência interna.
Vamos analizar o critério de Ginzburg para uma teoria com campo escalar
4
φ , usando os resultados conhecidos para hφi e para G(~x, ~x′ ) = T χ(~x, ~x′ ). A
susceptibilidade generalizada é dada por (7.93):
Z
dd q
ei~q·~x
χ(~x) = χ
(2π)d 1 + (qζ)2
= c−1 |~x|−(d−2) Y (|~x|/ζ),
(7.112)
onde
Z
∞
T Vζ−1 c−1
Z
dd x |~x|−(d−2) Y (|~x|/ζ)
T Vζ−1 c−1
Z
z
0
2
h(δφζ ) i =
dΩd eiz cos θ
(2π)d [z 2 + η 2 ]
dz
Y (η) =
Obtemos:
Z
d−1
Vζ
Z
(7.113)
ζ
dΩd
(dr r d−1 ) r −(d−2) Y (r/ζ)
0
Z
Z 1
−1 −1 2
dΩd
= T Vζ c ζ
dz z Y (z)
=
0
=
−(d−2)
Ad T ζ
c
< hφi2 =
|r|
,
4u
(7.114)
Daniel A. Stariolo - IF-UFRGS - 2014
128
onde ζ = (c/|r|)1/2 é o comprimento de correlação e Ad é uma constante que
depende da dimensão d. Definindo um comprimento de correlação microscópico
ζ(T = 0) = ζ0 = (c/aTc )1/2 e o valor do salto no calor específico na transição
∆cV = Tc a2 /8u (ver equação (7.55)), podemos reescrever o resultado anterior de
forma adimensional:
(4−d)/2
d−4 T − Tc
Ad
ζ
=
>
.
(7.115)
ζ0
Tc
2∆cV ζ0d
A relação anterior nos diz que para d > 4, como ζ d−4 → ∞ quando T → Tc , a
desigualdade anterior sempre é satisfeita próximo da transição. No entanto, para
d < 4, como ζ d−4 → 0 quando T → Tc , a desigualdade nunca é satisfeita perto de
Tc . Então podemos concluir que a aproximação de campo médio será satisfatória
para dimensão d > 4, mas não será consistente para d < 4, em teorias φ4 . A
dimensão ds = 4 que representa um limite para a validade da aproximação de
campo médio, se conhece como dimensão crítica superior. A dimensão crítica
superior depende, assim como os expoentes críticos, da simetria do parâmetro de
ordem e do alcance das interações.
Para um sistema qualquer, com expoentes críticos de campo médio β, γ, ν,
devemos levar em conta que T χ ∼ |T − Tc |−γ e hφi ∼ |T − Tc |β . Então, desconsiderando fatores constantes de ordem um, o critério de Ginzburg é satisfeito
se:
t−γ ≪ t2β−νd ,
(7.116)
onde t = |T − Tc |/Tc é a temperatura reduzida. Então, para um sistema geral, a
dimensão crítica superior é determinada pela condição:
2β + γ
≡ ds .
(7.117)
ν
Para dimensões d < ds , a aproximação de campo médio poderá ser válida para
temperaturas suficientemente longe de Tc , sempre que a desigualdade (7.115), ou
em geral (7.116), seja satisfeita. A medida que T se aproxima de Tc as flutações
se tornam cada vez mais importantes. A temperatura que define a identidade na
equação (7.115) é conhecida como temperatura de Ginzburg:
2/(4−d)
|TG − Tc |
Ad
tG =
=
.
(7.118)
Tc
2∆cV ζ0d
d>
De forma equivalente, é possível definir o comprimento de Ginzburg ζG , na forma:
ζG4−d ∼ ∆cV ζ04 = c2 /(8uTc ),
(7.119)
Daniel A. Stariolo - IF-UFRGS - 2014
129
ou
ζG ∼ ζ0 (∆cV ζ0d )1/(4−d) .
(7.120)
A teoria de campo médio é válida quando t > tG ou ζ < ζG .
Notar que |TG − Tc | → 0 se ζ0 → ∞ para d < 4. Isto quer dizer que o
campo médio será válido até temperaturas muito próximas de Tc se o comprimento de correlação microscópico for grande, mesmo para d < ds . Este é o
caso em sistemas com interações de longo alcance ou em supercondutores, por
exemplo. Quando ζ0 , ou |TG − Tc | não é pequena, se espera que aconteça um
“crossover”, ou mudança de regime, de um comportamento de campo médio para
um comportamento crítico quando a temperatura reduzida t = (T − Tc )/Tc for da
ordem da temperatura reduzida de Ginzburg tG . A figura (7.8) mostra de forma
esquemática o crossover no comportamento da inversa da susceptibilidade.
Figura 7.8: Representação esquemática do crossover de campo médio para comportamento crítico na inversa da susceptibilidade .
O critério de Ginzburg permite entender por qué em alguns sistemas a apro-
Daniel A. Stariolo - IF-UFRGS - 2014
130
ximação de campo médio pode ser muito boa e em outros não. Uma transição
que é descrita de forma satisfatória pela teoria de campo médio é a transição metal normal-supercondutor. Na figura (7.9) vemos medidas do parâmetro de ordem e de calores específicos para esta transição, junto com predições da teoria
BCS (Bardeen-Cooper-Schrieffer, 1957), que é uma teoria de campo médio para
a transição supercondutora.
Figura 7.9: O parâmetro de ordem e calores específicos na transição metal normalsupercondutor, para diversos materiais, junto com predições de campo médio.
O calor específico apresenta uma discontinuidade finita em Tc , de acordo com
a predição de campo médio. A temperaturas baixas, cs vá a zero exponencialmente, fato este de natureza quântica e não explicado pelo campo médio considerado. O parâmetro de ordem va a zero como (T − Tc )1/2 , em completo acordo
com campo médio, e satura para temperaturas baixas. O salto no calor específico em alumínio é da ordem de 2 × 104 erg mole−1 K. O parâmetro de rede em
Al é 4Å, e o comprimento de correlação microscópico é ζ0 ≈ 1.6 × 104 Å. Então, ∆cV ≈ 2 × 105 /42 erg cm−3 K −1 , resultando uma temperatura de Ginzburg
Daniel A. Stariolo - IF-UFRGS - 2014
131
tG ≈ 10−16 ! A temperatura crítica em Al é 1.19 K e por tanto é praticamente
impossível aceder à região crítica. Neste caso, o motivo para uma TG tão pequena
é o enorme valor do comprimento de correlação microscópico em relação à constante da rede. Este comportamento é observado na maioria dos supercondutores,
o que resultou no éxito da teoria BCS. Na década dos oitenta foram descobertos
novos compostos supercondutores, chamados supercondutores de alta temperatura crítica, pois a supercondutividade é observada até temperaturas da ordem de
100 K. A teoria BCS se mostrou insatisfatória para descrever esta classe de supercondutores. Os mecanismos microscópicos por trás da supercondutividade de
alta temperatura crítica ainda são desconhecidos.
Referências Bibliográficas
[1] R. K. Pathria and P. D. Beale, Statistical Mechanics, 3rd edition, Elsevier.
[2] K. Huang, Statistical Mechanics, John Wiley & Sons.
[3] L. E. Reichl, A Modern Course in Statistical Physics, John Wiley & Sons.
[4] S. R. A. Salinas, Introdução à Física Estatística, Edusp.
[5] P. M. Chaikin and T. C. Lubensky, Principles of Condensed Matter Physics,
Cambridge University Press.
[6] N. Goldenfeld, Lectures on Phase Transitions and the Renormalization
Group, Addison-Wesley.
[7] L. D. Landau and E. M. Lifshitz, Statistical Physics - Pergamon Press.
[8] N. W. Ashcroft and N. D. Mermin, Solid State Physics, Sounders College.
132
Download