Mecânica Estatística Daniel A. Stariolo Programa de Pós-Graduação em Física Instituto de Física Universidade Federal do Rio Grande do Sul 2014 i Sumário 1 Fundamentos da Mecânica Estatística 1.1 O que é a Mecânica Estatística ? . 1.2 Ergodicidade e equilíbrio . . . . . 1.2.1 O Teorema de Liouville . 1.2.2 A hipótese ergódica . . . 1.3 Sistemas quânticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Teoria de ensembles estatísticos 2.1 O ensemble microcanônico . . . . . . . . . . . . . . 2.1.1 Gás ideal monoatômico clássico . . . . . . . 2.1.2 A formulação de Gibbs . . . . . . . . . . . . 2.2 O ensemble canônico . . . . . . . . . . . . . . . . . 2.2.1 A densidade de estados e a função de partição 2.2.2 Flutuações da energia . . . . . . . . . . . . . 2.2.3 Gás ideal no ensemble canônico . . . . . . . 2.3 Fluidos clássicos não ideais . . . . . . . . . . . . . . 2.4 O ensemble Grande Canônico . . . . . . . . . . . . 2.4.1 Flutuações no número de partículas . . . . . 2.4.2 Adsorção em superfícies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Estatísticas quânticas 3.1 Sistemas de partículas indistinguíveis . . . . . . . . . . 3.2 Gases ideais quânticos . . . . . . . . . . . . . . . . . . 3.2.1 O gás de Maxwell-Boltzmann e o limite clássico 3.2.2 Estatística de Bose-Einstein . . . . . . . . . . . 3.2.3 Estatística de Fermi-Dirac . . . . . . . . . . . . ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 3 3 6 8 . . . . . . . . . . . 12 12 15 17 19 21 22 25 26 33 36 38 . . . . . 42 42 47 47 51 51 Daniel A. Stariolo - IF-UFRGS - 2014 iii 4 Gás ideal de Bose-Einstein 4.1 A condensação de Bose-Einstein 4.2 Radiação de corpo negro . . . . 4.2.1 A lei de Planck . . . . . 4.2.2 O gás de fótons . . . . . 52 52 63 64 66 . . . . . . . . . . . . . . . . . . . . 5 Gás ideal de Fermi-Dirac 5.1 Gás de Fermi completamente degenerado (T = 0) . . . . . . . . . . . . . . . . . . 5.2 Gás de Fermi degenerado (T ≪ TF ) . . . 5.3 Magnetismo em um gás ideal de férmions 5.3.1 Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 71 75 75 6 Interações, simetrias e ordem em matéria condensada 6.1 Líquidos e gases . . . . . . . . . . . . . . . . . . . 6.2 Redes cristalinas . . . . . . . . . . . . . . . . . . 6.3 Sistemas magnéticos . . . . . . . . . . . . . . . . 6.4 Entre os líquidos e os cristais: os cristais líquidos . 6.5 Simetrias e parâmetros de ordem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 81 82 85 89 95 . . . . . . . . . . . 98 98 103 103 108 109 113 114 117 121 123 126 7 Transições de fase e fenômenos críticos 7.1 O modelo de Ising em d = 1: solução exata . . . . . . . . 7.2 Teoria de campo médio do modelo de Ising . . . . . . . . 7.2.1 Aproximação de Bragg-Williams . . . . . . . . . 7.3 A teoria de Landau de transições de fase . . . . . . . . . . 7.3.1 Transições de fase continuas . . . . . . . . . . . . 7.3.2 Transições de primeira ordem na teoria de Landau 7.4 Flutuações do parâmetro de ordem . . . . . . . . . . . . . 7.5 Funções de correlação . . . . . . . . . . . . . . . . . . . . 7.5.1 Correlações na teoria de Landau . . . . . . . . . . 7.6 Sistemas com simetria O(n) . . . . . . . . . . . . . . . . 7.7 Validade da teoria de campo médio: o critério de Ginzburg Referências Bibliográficas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 Capítulo 1 Fundamentos da Mecânica Estatística 1 Daniel A. Stariolo - IF-UFRGS - 2014 2 1.1 O que é a Mecânica Estatística ? A Termodinâmica é uma teoria macroscópica, com um formalismo elegante, de grande generalidade, construido sobre poucas hipóteses fundamentais. O conceito central da termodinâmica é a entropia, a qual é definida de forma um tanto abstrata, através de um princípio variacional que determina que, em um sistema isolado, o estado de equilíbrio termodinâmico do sistema é aquele estado macroscópico para o qual a entropia é máxima. A Termodinâmica descreve os efeitos macroscópicos de sistemas formados por um grande número de entes microscópicos, sejam partículas, células, spins, etc. que obedecem as leis fundamentais da Mecânica Clássica (leis de Newton) ou da Mecânica Quântica (equação de Schroedinger), segundo o caso. Uma descrição microscópica destes sistemas deve então partir necessariamente das leis da Mecânica. A Mecânica Estatística é uma teoria probabilística que estabelece a conexão entre os dois níveis de descrição: o macroscópico (Termodinâmica) e o microscópico (Mecânica). Ao tentar descrever as propriedades de um sistema formado por um grande número de partículas se torna necessário recorrer a uma descrição probabilística do estado de um sistema. Um estado microscópico, ou microestado de um sistema de N partículas, corresponde ao conjunto dos graus de liberdade do mesmo, por exemplo as 3N coordenadas e os 3N momentos generalizados em um sistema clássico, ou ao conjunto de números quânticos que caracterizam a função de onda de um sistema. O conjunto de microestados compatíveis com os valores das variáveis macroscópicas do sistema , como a energia interna U, o volume V e o número de partículas N, constitui um macroestado ou estado macroscópico. Descrever o estado microscópico exato de um conjunto de N partículas para todo tempo é uma tarefa formidável. No entanto, o estado de equilíbrio termodinâmico é determinado em função de umas poucas variáveis. Além do mais, de um ponto de vista prático ou aplicado, resulta mais importante conhecer propriedades globais ou macroscópicas da matéria, como a temperatura ou a pressão, do que a posição e velocidade de um partícula individual em um gás ou líquido. O programa da Mecânica Estatística é associar um peso ou probabilidade de ocorrência aos diferentes microestados e predizer o resultado médio de um conjunto grande de medidas de um observável dado. A própria teoria fornece, por sua vez, uma predição das flutuações que podem ocorrer nestas medidas. Como estamos falando de resultados médios em um número grande de medidas ou observações, vamos desenvolver um formalismo de ensembles ou conjunto de sistemas idênticos, em oposição a análise de um sistema particular. Essa é outra característica fundamental da Mecânica Estatística. Daniel A. Stariolo - IF-UFRGS - 2014 3 A Mecânica Estatística moderna, tal vez mais do que qualquer outra área da Física, encontra aplicações em praticamente todas as ciências exatas e além. Embora se originou do esforço de encontrar uma conexão entre a mecânica das partículas e a Termodinâmica, o formalismo estatístico se mostrou extremamente geral e útil na predição de propriedades tão díspares quanto a ocorrência ou não de supercondutividade de um material, a evolução de preços de produtos na bolsa de valores, a probabilidade de ocorrência de um terremoto ou a morfologia típica de uma colônia de células em um tecido vivo. Por motivos históricos, a Mecânica Estatística foi desenvolvida inicialmente para predizer propriedades macroscópicas de sistemas em equilíbrio termodinâmico. Nesse caso falamos de Mecânica Estatística do equilíbrio. No entanto, os fundamentos da Mecânica Estatística estão na Mecânica, ou seja, nos sistemas dinâmicos. A grande maioria dos sistemas de interesse , físicos ou não, não se encontram em equilíbrio, como por exemplo os sistemas biológicos ou problemas dinâmicos como a evolução de preços nas bolsas de valores. Para descrever estes sistemas em uma abordagem probabilistica é necessário desenvolver uma Mecânica Estatística fora do equilíbrio, os métodos para descrever o equilíbrio não são suficientes e novas técnicas são necessárias para lidar com a variável temporal. Embora muito se sabe na atualidade sobre processos fora do equilíbrio, ainda não se conta com um formalismo razoavelmente simples, compacto e poderoso, como a teoria de ensembles para o equilíbrio. No presente curso, de extensão semestral, faremos apenas uma abordagem inicial ao problema dinâmico, com o único intuito de conectar o problema mecânico com o equilíbrio estatístico. Um conceito fundamental neste caminho é o de ergodicidade. 1.2 Ergodicidade e equilíbrio 1.2.1 O Teorema de Liouville Consideremos um sistema clássico de N partículas, isolado em um volume V , cuja dinâmica obedece as equações de Hamilton. Um microestado deste sistema fica definido pelos valores instantâneos das 3N coordenadas generalizadas qi e os 3N momentos generalizados pi : dqi ∂H(p, q) = dt ∂pi dpi ∂H(p, q) = − dt ∂qi (1.1) Daniel A. Stariolo - IF-UFRGS - 2014 4 onde i = 1, . . . , 3N, H(p, q) é o Hamiltoniano do sistema e (p, q) representa um vetor do espaço de fase com 6N componentes. Como o sistema é isolado, H não depende explicitamente do tempo, o sistema é conservativo e H é uma constante do movimento que corresponde a energia mecânica: H(p, q) = E. (1.2) A identidade anterior define uma superfície de energia no espaço de fase. A evolução do sistema conservativo é descrita por uma trajetória ou curva no espaço de fase sobre a superfície de energia. Como na Mecânica Clássica cada condição inicial (p0 , q0 ) determina de forma unívoca e evolução do sistema, trajetórias no espaço de fase nunca se cruzam. Para uma dada energia E do sistema, existe um conjunto infinito de microestados. Definimos a função ρ(p, q, t) como sendo a densidade de probabilidade de encontrar o sistema em um elemento de volume dp dq no espaço de fase ao tempo t. O conjunto de pontos (p, q) cuja probabilidade ao tempo t é ρ(p, q, t)dp dq formam um ensemble estatístico. Cada ponto representa uma cópia exata do sistema em um microestado diferente. O conceito de ensemble estatístico foi introduzido por Josiah Willard Gibbs (1839-1903) na segunda metade do século XIX e ocupa um rol fundamental no formalismo e interpretação da Mecânica Estatística do equilíbrio. A densidade de probabilidade deve estar normalizada para todo tempo: Z ρ(p, q, t) dp dq = 1, (1.3) Γ onde a integração se extende a todo o espaço de fase Γ. Para obter as equações que regem a dinâmica do sistema de N partículas começamos considerando que o número de partículas se deve conservar. Consideremos a probabilidade de encontrar o sistema dentro de um volume V0 , limitado por uma superfície S0 . A medida que o tempo passa algumas trajetórias saem de V0 e a probabilidade correspondente P (V0 ) muda. Como a probabilidade total é conservada, eq. (1.3), e as trajetórias não se cruzam, a variação da probabilidade no volume V0 deve corresponder ao fluxo da mesma através da superfície S0 , como acontece em um fluido: Z Z dP (V0) ∂ ~n · J~ dS (1.4) ρ(p, q, t) dp dq = − = dt ∂t V0 S0 onde J~ = ~v ρ é uma corrente de probabilidade, ~v = {q̇i , ṗi } é a velocidade (generalizada) de um ponto no espaço de fase e ~n é um vetor unitário normal à superfície Daniel A. Stariolo - IF-UFRGS - 2014 5 S0 . Usando o Teorema de Gauss: Z Z ∂ ~ · J) ~ dp dq (∇ ρ(p, q, t) dp dq = − V0 ∂t V0 (1.5) Como V0 é arbitrário então: dρ ~ + ∇ · (~v ρ) = 0 dt (1.6) Mas ~ · ~v = ∂ q̇ + ∂ ṗ ∇ ∂q ∂p 3N X ∂ ∂H ∂ ∂H = + − =0 ∂q ∂p ∂p ∂q i i i i i=1 (1.7) Então: ∂ρ ~ =0 + ~v · ∇ρ ∂t ou dρ =0 dt (1.8) A equação anterior se conhece como o Teorema de Liouville. Diz que a derivada total, ou derivada convectiva de ρ no espaço de fase Γ é nula para qualquer ponto e qualquer instante. Podemos interpretar então a evolução dos pontos do ensemble estatístico no espaço de fase como sendo análogos a um fluido incompressível. Notando que ~ = q̇ ∂ρ + ṗ ∂ρ = ∂H ∂ρ − ∂H ∂ρ = {ρ, H} , ~v · ∇ρ ∂q ∂p ∂p ∂q ∂q ∂p (1.9) onde {ρ, H} é o parêntese de Poisson entre ρ e H, podemos reescrever o Teorema de Liouville da seguinte forma: ∂ρ = − {ρ, H} . ∂t (1.10) Em equilíbrio, ρ não depende explicitamente do tempo, é uma constante do movimento, e então {ρ, H} = 0. Esta condição se pode satisfazer, por exemplo, se ρ for uma função explícita de H, ou seja, se ρ(p, q) ≡ ρ[H(p, q)]. O caso mais simples corresponde a ρ = cte. Agora estamos em condições de enunciar o Postulado Fundamental da Mecânica Estatística. Daniel A. Stariolo - IF-UFRGS - 2014 6 Postulado de igual probabilidade a priori Para formular o mesmo de forma transparente conceitualmente, vamos relaxar a condição que a energia seja estritamente constante, permitindo então que flutue entre dois valores próximos E e E + ∆, com ∆ ≪ E. Isto pode ser justificado pelo fato de, na realidade, não existirem sistemas perfeitamente isolados. A posteriori vamos ver que esta condição não afeta os resultados no limite de sistemas grandes, que serão independentes de ∆. No entanto, pode ser mostrar que a quantidade fundamental no postulado, que é o volume no espaço de fase ou número de microestados de energia E, Γ(E) , é uma função irregular de E, enquanto que a integral em um intervalo é bem comportada. Em um sistema em equilíbrio com energia entre E e E + ∆, todos os microestados acessíveis são igualmente prováveis. Formalmente: 1 se E ≤ H(p, q) ≤ E + ∆ Γ(E) (1.11) ρ(p, q) = 0 caso contrário onde Γ(E) = Z dp dq (1.12) E≤H(p,q)≤E+∆ é o volume do espaço de fase ocupado pelo sistema. Os pontos nesse volume definem um ensemble conhecido como o ensemble microcanônico. 1.2.2 A hipótese ergódica A média temporal de uma função f (p, q) ao longo de uma trajetória no intervalo de tempo (t0 , t0 + T ) é definida como Z 1 t0 +T hf iT = f (p(t), q(t)) dt (1.13) T t0 A média de ensemble do mesmo observável é definida como Z hf ie = f (p, q) ρ(p, q) dp dq Z 1 = f (p, q) dp dq Γ(E) E≤H(p,q)≤E+∆ Um sistema é considerado ergódico se hf i = hf ie = limT →∞ hf iT (1.14) (1.15) Daniel A. Stariolo - IF-UFRGS - 2014 7 A hipótese ergódica, introduzida por Ludwig Eduard Boltzmann (1844-1906), consiste em assumir que sistemas com N ≫ 1 são ergódicos. Este é um postulado que em geral só pode ser verificado “a posteriori”, pelas consequências sobre o comportamento do sistema. A ergodicidade de um sistema pode ser de utilidade para obter valores médios de observáveis em tempos relativamente curtos durante uma série de experimentos repetidos, ou então em uma série de simulações computacionais. Suponhamos que rodamos uma simulação de dinâmica molecular de um líquido clássico, e queremos calcular o valor quadrático médio da velocidade das partículas. Se fazemos médias temporais deveremos tomar a média de velocidades instantâneas medidas a intervalos mais ou menos regulares durante uma simulação muito longa, de forma a garantir que uma amostragem significativa das velocidades foi feita. No entanto, se contamos com a posibilidade de rodar muitas simulações idênticas em paralelo, poderemos apreitarmos da ergodicidade do sistema e calcular a mesma média tomando valores das velocidades nos diferentes sistemas, sendo que em cada um deles podemos rodar simulações de muito menos tempo. Ou seja, no primeiro caso fazemos uma média temporal, uma amostragem na linha do tempo, no segundo fazemos uma média no ensemble, uma série de amostragens menores nos diferentes sistemas. Se o sistema físico for ergódico, ambas a médias devem coincidir. A hipótese ergódica, de certa forma, justifica o postulado e igual probabilidade a priori, pois implica que, se um sistema é ergódico, a fração de tempo que ele passa em uma região restrita do espaço de fase acessível é proporcional ao volume dessa região, e não as posições particulares na superfície de energia ocupadas pelo sistem em um determinado tempo. Isto se pode ver da seguinte forma: seja R uma região com R ⊂ Γ. Definimos: 1 se (p, q) ∈ R (1.16) φR (p, q) = 0 caso contrário que o sistema passa em R durante o intervalo T é dado por τR = ROt0tempo +T φ(p(t), q(t)) dt. Se o sistema é ergódico t0 τR 1 lim ≡ hφiT = T →∞ T Γ(E) Z E≤H(p,q)≤E+∆ φ(p, q) dp dq = Γ(R) , Γ(E) (1.17) ou seja, a fração de tempo que o sistema passa em uma dada região R é igual à fração de volume do espaço de fase ocupado pela mesma região. Daniel A. Stariolo - IF-UFRGS - 2014 8 Formalmente, é muito difícl demonstrar que um dado sistema Hamiltoniano é ergódico. Sistemas dissipativos, como um pêndulo amortecido, são claramente não-ergódicos, pois a tempos longos tendem a ficar confinados em um pequeno subespaço (chamado “atrator”) do espaço de fase acessível inicialmente. Mesmo em sistemas conservativos aparentemente simples, como no famoso problema dos três corpos interagindo gravitacionalmente, foi só no século XX que o Teorema KAM (de Kolmogorov, Arnold e Moser) mostrou que existe um conjunto de medida não nula de trajetórias no espaço de fase que ficam aproximadamente confinadas, e que correspondem a conjuntos particulares de condições iniciais. Essas trajetórias se encontram misturadas no espaço de fase a muitas outras com aparência mais caótica, ou “ergódicas”. Pensando que a existência desses estados previstos pelo Teorema KAM era uma propriedade exclusiva de sistemas formados por poucas partículas, depois da Segunda Guerra Mundial, Fermi, Pasta e Ulam fizeram uma das primeiras simulações computacionais de um sistema de osciladores anarmônicos unidimensionais com o intuito de estudar as propriedades de ergodicidade de um sistema de muitas partículas. Os resultados que obtiveram não foram os esperados, de fato foi encontrado que a taxa de transferência de energia entre modos de oscilação era extremamente lenta e, nos tempos acessíveis da simulação, muitas condições iniciais levavam a trajetórias mais parecidas a ciclos limite do que a trajetórias ergódicas. De fato, ergodicidade é violada rigorosamente nas fases com simetrias quebradas nas transições de fases, como na passagem de um líquido a um sólido. O sistema no estado sólido não irá mais explorar todas as configurações de igual energia que o sistema original, no estado líquido, podia explorar. No entanto, essas limitações da hipótese ergódica, formais as vezes ou práticas em outras, não limitam de forma substancial o poder de predição da Mecânica Estatística do equilíbrio, como vamos ver no decorrer do curso. 1.3 Sistemas quânticos Em Mecânica Quântica os estados microscópicos de um sistema são definidos pela função de onde Ψ(q), solução da equação de Schrödinger. Como esta tem uma interpretação probabilística, intrínseca ao formalismo quântico, devemos redefinir o conceito de ensemble para sistemas quânticos. A função de onda Ψ(q) pode ser desenvolvida em termos dos elementos de uma base ortonormal de autofunções de algum operador: X Ψ(q) = cn φn (q) (1.18) n Daniel A. Stariolo - IF-UFRGS - 2014 9 onde |cn |2 é a probabilidade de encontrar o sistema no autoestado φn . O valor esperado (quântico) de um observável Ô é dado por Z hΨ|Ô|Ψi = Ψ∗ (q)ÔΨ(q) dq X = Omn cn c∗m (1.19) m,n onde Omn = hφm |Ô|φn i são os elementos de matriz do operador Ô na base considerada. Em um sistema formado por muitos corpos existirão muitos microestados Ψi (q) compatíveis com os vínculos macroscópicos, e estes serão a base para definir um ensemble. Notar que, neste caso, Ψi (q) é uma função de onda de N corpos, a função de onda do sistema completo. Explicitamente: X Ψi (q) = cin φn (q) (1.20) n e hΨi |Ô|Ψi i = X Omn cin ci∗ m (1.21) m,n representa o valor esperado quântico do operador Ô no microestado Ψi (q). Se agora associamos a cada microestado uma probabilidade de ocorrência pi , a média de ensemble do observável Ô é dada por: X hÔi = pi hΨi |Ô|Ψi i i = X pi i X Omn cin ci∗ m (1.22) m,n Podemos definir uma matriz de elementos ρnm : X ρnm = pi cin ci∗ m (1.23) i tal que hÔi = X ρnm Omn (1.24) m,n O operador cujos elementos de matriz na base ortonormal de autoestados φn são os ρnm é conhecido como operador densidade ou matriz densidade: Z ρnm = φn (q) ρ̂ φ∗m (q) dq ≡ hφn |ρ̂|φm i (1.25) Daniel A. Stariolo - IF-UFRGS - 2014 10 Com esta definição, a média no ensemble de um operador Ô pode ser escrita como X hÔi = ρ̂Ô = T r ρ̂Ô = T r Ô ρ̂ (1.26) nn n Notemos que T r ρ̂ = X ρnn = n X i pi X n |cn |2 = X pi = 1, (1.27) i o que permite interpretar o elemento ρnn como a probabilidade de encontrar o sistema no autoestado φn . O operador densidade se pode expressar também em forma matricial: X ρ̂ = pi Ψi Ψi† (1.28) i onde ci1 .. . i Ψ = i cl .. . e i∗ Ψi† = ci∗ 1 , . . . cl , . . . (1.29) Os microestados satisfazem a equação de Schroedinger ih̄∂Ψi /∂t = ĤΨi . Transpondo e tomando o complexo conjugado obtemos: ∂Ψi† = Ψi† Ĥ † = Ψi† Ĥ −ih̄ ∂t (1.30) onde usamos o fato que Ĥ é hermitiano. Com este resultado e a definição (1.28) pode-se mostrar que ρ̂ satisfaz h i ∂ ρ̂ = − ρ̂, Ĥ ih̄ ∂t (1.31) onde o lado direito representa o comutador de ρ̂ e Ĥ. Este resultado corresponde ao Teorema de Liouville para sistems quânticos descritos por uma matriz densidade ρ̂. Postulado de igual probabilidade a priori para um sistema quântico Daniel A. Stariolo - IF-UFRGS - 2014 11 Seja φn um autoestado de uma base ortonormal do Hamiltoniano Ĥ. Então Ĥφn = En φn . Para um sistema isolado com energia entre E e E + ∆E, seja {φl , l = 1, . . . , M(E)} o conjunto de autoestados de energia E. Então, o postulado de igual probabilidade a priori, para o caso de um sistema quântico, corresponde a 1 para l = 1, 2, . . . , M(E) M (E) (1.32) ρll = 0 para o resto Capítulo 2 Teoria de ensembles estatísticos 2.1 O ensemble microcanônico O postulado de igual probabilidade a priori permite determinar a probabilidade de encontrar o sistema em um microestado compatível com os vínculos macroscópicos, e a partir da probabilidade podemos determinar valores médios de observáveis como energia, magnetização, etc. Para obter uma conexão com a termodinâmica temos que estabelecer uma definição microscópica para a entropia, que é o potencial termodiâmico relevante em sistemas com energia fixa. Como a probabilidade é uma função do número de microestados, e ela é uma quantidade fundamental, é razoavel pensar que a entropia também será função do número de microestados. Em um distema quântico, com níveis de energia En discretos, a definição do número de microestados W (E) de energia E é imediato. No caso clássico é necessário definir um volume unitário no espaço de fase, que é um espaço continuo, tal que permita contar o número de microestados, e que seja compatível com a Mecânica Quântica em algum limite apropriado. O Princípio de Incerteza de Heisenberg, ∆p ∆q ∼ h, implica a existência de um volume minimo no espaço de fase, Vmin ∼ h, tal que resulta impossível identificar estados físicos em escala menor que a constante de Planck h. Definimos então W (E) = Γ(E)/h3N como sendo o número de células unitárias no espaço de fase correspondentes a um volume Γ(E) nesse espaço. Para definirmos uma entropia que seja compatível com o formalismo termodinâmico, esta deve ser • Aditiva • Satisfazer a segunda lei da Termodinâmica. 12 Daniel A. Stariolo - IF-UFRGS - 2014 13 Figura 2.1: Dois sistemas separados por uma parede adiabática, fixa e impermeável. Consideremos dois sistemas não interagentes com W1 e W2 microestados respectivamente. O número total de microestados do sistema composto será W = W1 × W2 . Agora, como de acordo com a Termodinâmica a entropia deve ser aditiva, S(W ) = S(W1 ) + S(W2 ), deve ser uma função proporcional ao logaritmo de W . Definimos então a entropia como: S(E) = kB ln W (E). (2.1) Vamos verficar se esta definição é satisfatória, ou seja, se obedece os dois requisitos de compatibilidade com a termodinâmica citados acima. Consideremos agora os subsistemas (1) e (2) separados por uma parede adiabática, fixa e impermeável, como mostra a figura 2.1, de forma que H(p, q) = H1 (p1 , q1 ) + H2 (p2 , q2 ). A entropia de cada subsistema é dada por: S1 (E1 , V1 , N1 ) = kB ln Γ1 (E1 )/h3N S2 (E2 , V2 , N2 ) = kB ln Γ2 (E2 )/h3N (2.2) Qual é a entropia do conjunto ? O volume total do espaço de fase é Γ(E) = Γ1 (E1 ) × Γ2 (E2 ), onde E = E1 + E2 . A entropia do sistema completo é então S(E, V, N) = kB ln Γ(E)/h3N (2.3) 3N 3N = kB ln Γ1 (E1 )/h + kB ln Γ2 (E2 )/h = S1 (E1 , V1 , N1 ) + S2 (E2 , V2 , N2 ) que satisfaz a condição de aditividade. Resta verificar se a definição de Boltzmann satisfaz a segunda lei. Para isto suponhamos que removemos a parede adiabática e Daniel A. Stariolo - IF-UFRGS - 2014 14 permitimos que os subsistemas troquem energia (parede diatérmica). Desta forma a energia de cada subsistema poderá variar entre 0 e E, tal que E1 + E2 = E permaneça fixa em todo momento. O número de microestados do sistema total com energia E, para um valor fixo de E1 pode ser escrito como: W (E, E1 ) = 1 Γ(E, E1 ) = 3N Γ1 (E1 )Γ2 (E − E1 ) 3N h h (2.4) O número total de microestados compatível com a energia E será dado pela soma de W (E, E1 ) para todos os valores de E1 entre 0 eE. Se discretizamos o espectro de energias em intervalos de largura ∆, podemos escrever E/∆ Γ(E) = X i=1 Γ1 (Ei )Γ2 (E − Ei ) (2.5) O número de microestados cresce com a energia, então como Γ(E) é uma função monótona crescente de E, quando Γ1 (Ei ) cresce, Γ2 (E − Ei ) decresce, e viceversa. Se conclui que Γ(E) deve passar por um máximo em algum valor 0 ≤ Ei ≤ E. Sejam E 1 e E 2 = E − E 1 os valores das energias para as quais Γ1 (E1 )Γ2 (E2 ) é máximo. Então se deve satisfazer que Γ1 (E 1 )Γ2 (E 2 ) ≤ Γ(E) ≤ E Γ1 (E 1 )Γ2 (E 2 ) ∆ (2.6) ou ln Γ1 (E 1 )Γ2 (E 2 ) ≤ ln Γ(E) ≤ ln E ∆ + ln Γ1 (E 1 )Γ2 (E 2 ) (2.7) S(E, V, N) = S1 (E 1 , V1 , N1 ) + S2 (E 2 , V2 , N2 ) + O(ln N) (2.8) Analisemos a ordem de grandeza destes termos. Em geral o número de microestados cresce exponencialmente com o número de partículas, de forma que ln Γi ∝ Ni , ou seja, a entropia é extensiva. No entanto, a energia cresce proporcionalmente a N: E∝ N = N1 + N2 . Desta forma, no limite quando N1 , N2 → ∞ E o termo em ln ∆ se torna desprezível frente a ln Γ e por tanto a relação (2.7) é satisfeita como uma igualdade. Assim, a entropia do sistema total é dada por: A entropia (2.1) é aditiva e extensiva, e os subsistemas tomam valores de energias E 1 e E 2 que maximizam o número total de estados acessíveis. No limite Daniel A. Stariolo - IF-UFRGS - 2014 15 termodinâmico este resultado corresponde a segunda lei da Termodinâmica 1 Ainda considerando que a probabilidade dos subsistemas se encontrarem com energias E1 e E2 será proporcional ao número de microestados compatíveis, temos que ln P (E, E1) = cte + ln Γ(E1 ) + ln Γ(E − E1 ) (2.9) Maximizando em relação a E1 obtemos ∂ ln Γ(E1 ) ∂ ln Γ(E − E1 ) ∂ ln P (E, E1 ) = − =0 ∂E1 ∂E1 ∂E2 (2.10) Agora usando a definição de entropia de Boltzmann a relação anterior resulta equivalente a ∂S1 ∂S2 = (2.11) ∂E1 E1 =E 1 ∂E2 E2 =E 2 e fazendo uso da relação termodinâmica entre entropia e temperatura concluimos que 1 1 = , (2.12) T1 T2 que corresponde à condição de equilíbrio térmico. Vemos então que a condição de equilíbrio térmico entre dois sistemas equivale a maximizar a entropia do conjunto. 2.1.1 Gás ideal monoatômico clássico Consideremos um gás de N partículas clássicas em um volume V . O Hamiltoniano do gás clássico de partículas não interagentes é: 3N X p2i H= 2m i=1 1 (2.13) É fácil mostrar que esta formulação variacional da segunda lei é equivalente a condição de irreversibilidade, ou seja, se um sistema isolado em equilíbrio passa de um estado a outro estado de equilíbrio a entropia não pode diminiur. Em outras palavras, o número de microestados acessíveis é maximizado no processo. No exemplo do gás simples de partículas não interagentes como o da figura 2.1, a conclusão é que se permitimos que ambos os sistemas troquem energias o sistema total irá equilibrar em um estado que maximize o número de microestados acessíveis, e nunca o contrário. Daniel A. Stariolo - IF-UFRGS - 2014 16 O volume do espaço de fase com energia entre E e E + ∆ é dado por Z Γ(E, V, N) = dp dq. (2.14) E≤H(p,q)≤E+∆ No entanto, um cálculo rigoroso desta quantidade mostra que a dependência com E é muito irregular [1]. Resulta mais conveniente calcular a quantidade: Z Σ(E, V, N) = dp dq, (2.15) H(p,q)≤E de forma que Γ(E) = Σ(E +∆)−Σ(E). É possível mostrar que quando N → ∞, Γ(E) e Σ(E) diferem em termos O(ln N). Por tanto, se estamos interessados no limite termodinâmico, podemos escrever Σ(E, V, N) S(E, V, N) = kB ln (2.16) h3N onde Σ(E, V, N) = Z dp dq = V N Ω3N (R) (2.17) H≤E e onde Ω3N (R) é o volume de uma hiperesfera de dimensão 3N e raio R = √ 2mE: 3N Ω3N (R) = C3N E 2 (2.18) Assim, S(E, V, N) = kB ln V N C3N E h3N 3N 2 ! (2.19) É possível calcular C3N (ver, por exemplo, [1, 2]). Aproximando a expressão resultante para N ≫ 1 obtemos: " 3/2 # 3 4πm E S(E, V, N) = NkB + NkB ln V (2.20) 2 3h2 N Invertendo esta expressão podemos obter a energia interna como função de S, N e V , e a partir dali podemos obter as equações de estado do gás ideal e demais grandezas termodinâmicas. No entanto, podemos notar que se multiplicarmos E, V e N por um fator λ arbitrário resulta S(λE, λV, λN) 6= λS(E, V, N). Ou seja, a entropia que obtivemos não é uma função homogênea como deve ser um potencial Daniel A. Stariolo - IF-UFRGS - 2014 17 termodinâmico. Em particular, a forma obtida da entropia não é extensiva ! J. W. Gibbs resolveu este problema de forma empírica, operacional, postulando que o número de microestados no cálculo anterior foi superestimado e propondo um fator de correção Σ(E) → Σ(E)/N! que leva em conta a indistinguibilidade das partículas do gás ideal. Podemos entender o problema na contagem considerando a entropia de dois sistemas inicialmente isolados que são depois misturados. A entropia de mixing viola a extensividade e leva ao chamado Paradoxo de Gibbs [1, 2, 3, 4]. Incluindo o fator N! e refazendo o cálculo se chega a seguinte expressão para a entropia: " # 3/2 3 5 4πm V E S(E) = NkB (2.21) + NkB ln + ln 2 3 3h2 N N Esta expressão é extensiva e se conhece como Fórmula de Sackur e Tetrode. A introduçao ad hoc do fator de contagem de Gibbs aparece de forma natural em sistemas quânticos de partículas indistiguíveis e será visto quando tratemos o problema dos gases ideais quânticos. 2.1.2 A formulação de Gibbs J. W. Gibbs propós uma expressão para a entropia alternativa a de Boltzmann e que permite formular a teoria a partir de um princípio variacional. Se ρ(p, q) é a densidade de probabilidade de equilíbrio, a entropia de Gibbs é dada por: S = −kB hln (Cρ)i (2.22) onde C é uma constante que vale h3N para um sistema clássico e C = 1 para um sistema quântico. A média deve ser calculada em relação a própria distribuição ρ. No caso clássico: Z S = −kB ρ(p, q) ln h3N ρ(p, q) dp dq (2.23) Agora postulamos que a densidade de equilíbrio é aquela que maximiza a entropia de Gibbs, sujeita aos vínculos macroscópicos. Para um sistema no ensemble microcanônico, onde E,V e N são fixos, o vínculo adicional de normalização das probabilidades é exigido: Z ρ(p, q) dp dq = 1. (2.24) Daniel A. Stariolo - IF-UFRGS - 2014 18 Vínculos podem ser considerados no princípio variacional via multiplicadores de Lagrange. Sendo a entropia de Gibbs um funcional da densidade de probabilidade, a condição de extremo (máximo) pode ser expressa na forma: Z δ S[ρ] − α0 ρ dp dq = 0 (2.25) onde δ indica uma variação funcional e α0 é o multiplicador que impõe a normalização das probabilidades. Desenvolvendo a variação obtemos: Z S[ρ + δρ] − S[ρ] − α0 [ρ + δρ − ρ] dp dq = 0 (2.26) Z Z −kB (ρ + δρ) ln [h3N (ρ + δρ)] − ρ ln (h3N ρ) dp dq − α0 δρ dp dq = 0 Expandindo até primeira ordem em δρ Z −kB − kB ln [h3N ρ] − α0 δρ dp dq = 0 (2.27) Como δρ é arbitrário, se obtém ρ(p, q) = 1 −α0 /kB −1 e . h3N (2.28) A densidade de probabilidade microcanônica é uma constante, como esperado. Resta determinar o valor do multiplicador de Lagrange α0 . Ele é fixado pela condição de normalização da probabilidade, resultando: ρ(p, q) = 1 Γ(E) se E ≤ H(p, q) ≤ E + ∆ (2.29) Notamos que, neste caso de um sistema isolado, a distribuição equiprovável é a que maximiza a entropia de Gibbs ( a segunda variação permite mostrar que o extremo obtido é, de fato, um máximo). Substituindo na definição: Z kB 3N ln h3N /Γ(E) dp, dq (2.30) S(E) = −kB hln (h ρ)i = − Γ(E) ou S(E) = kB ln Γ(E) h3N que coincide com a expressão da entropia de equilíbrio microcanônica. (2.31) Daniel A. Stariolo - IF-UFRGS - 2014 19 2.2 O ensemble canônico Em geral os sistemas não são isolados. Suponhamos um sistema que possa trocar calor com um reservatório térmico a temperatura T . O sistema composto é considerado isolado, com energia E0 = ES +ER fixa. Vamos supor ainda que o sistema e o reservatório estão separados por uma parede diatérmica, rígida e impermeável. No equilíbrio, a probabilidade de encontrar o sistema em um microestado particular j, independentemente do estado do reservatório, será dado por Pj = c WR (ER ) = c WR (E0 − Ej ) (2.32) com c uma constante e WR (ER ) o número de estados microscópicos do reservatório com energia ER = E0 − Ej . Como Ej ≪ E0 : ∂ ln WR (ER ) ln Pj = ln c + ln WR (E0 ) + (−Ej ) + O(Ej2 ) ∂ER ER =E0 (2.33) Da definição de entropia e as condições de equilíbrio: ∂ ln WR (ER ) 1 = ∂ER kB T ER =E0 (2.34) onde T é a temperatura do reservatório. Portanto a probabilidade é proporcional a exp (−βEj ), com β = 1/kB T . A constante de Pproporcionalidade pode ser fixada exigindo a normalização das probabilidades, j Pj = 1, dando como resultado: e−βEj Pj = P −βE i ie β= 1 kB T (2.35) O ensemble canônico e constituído pelo conjunto de microestados de um sistema em contato com um reservatório térmico a temperatura T cujas probabilidades são dadas por (2.35). Consideremos agora um sistema quântico em contato com um reservatório térmico. Vamos obter novamente a probabilidade dos microestados do sistema partindo do princípio variacional de Gibbs. Em equilíbrio a energia média é fixa: X U = hEi = T r(ρ̂Ĥ) = ρnn En (2.36) n Daniel A. Stariolo - IF-UFRGS - 2014 20 onde ρ̂ é o operador densidade e os n′ s são números quânticos correspondentes a uma base de autoestados do operador Hamiltoniano de N partículas e que diagonaliza simultaneamente ambos operadores ρ̂ e Ĥ. A entropia de Gibbs é dada por X S = −kB hln ρ̂i = −kB ρnn ln ρnn (2.37) n A densidade de probabilidade de equilíbrio deve ser aquela que maximize a entropia dePGibbs. Considerando que as probabilidades devem estar normalizadas, T r ρ̂ = n ρnn = 1, devemos introduzir dois multiplicadores de Lagrange e calcular a variação da expressão resultante: h i δ T r α0 ρ̂ + α1 ρ̂Ĥ − kB ρ̂ ln ρ̂ = X δ (α0 ρnn + α1 ρnn En − kB ρnn ln ρnn ) = n X n [(α0 − kB ) + α1 En − kB ln ρnn ] δρnn = 0, (2.38) onde a última linha corresponde à variação de primeira ordem. Como esta é arbitrária obtemos α1 α0 −1 + En (2.39) ρnn = exp kB kB Da condição de normalização obtemos X α1 α0 = exp En = ZN (α1 ) exp 1 − kB kB n (2.40) Definimos a função de partição do sistema: X α1 α1 ZN (α1 ) = exp Ĥ En = T r exp kB kB n (2.41) Multiplicando o coeficiente do término de primeira ordem na variação, que deve ser nulo, por ρnn que maximiza a entropia de Gibbs, e somando em n obtemos: (α0 − kB ) + α1 U + S = 0 (2.42) −kB ln ZN (α1 ) + α1 U + S = 0 (2.43) ou Daniel A. Stariolo - IF-UFRGS - 2014 21 Identificando α1 = −1/T e lembrando que F − U + T S = 0, obtemos F (T, V, N) = −kB T ln ZN (T, V ) (2.44) onde F (T, V, N) é a energia livre de Helmholtz. Esta relação conecta a função de partição com a termodinâmica do sistema. Como F (T, V, N) é uma relação fundamental, a função de partição canônica também contém toda a informação sobre o sistema. A partir de (2.39) e (2.40) podemos escrever a matriz densidade de equilíbrio na forma e−β Ĥ ρ̂ = (2.45) T r e−β Ĥ Já para um sistema clássico a densidade de probabilidade é dada por ρ(p, q) = onde ZN (T, V ) = Z e−βH(p,q) ZN (T, V ) dp dq exp {−βH(p, q)} h3N (2.46) (2.47) 2.2.1 A densidade de estados e a função de partição Consideremos a integral no espaço de fase de uma função arbitrária f que depende de (p, q) através do Hamiltoniano Z dp dq f [H(p, q)] (2.48) I= h3N Podemos escrever a mesma integral na forma Z ∞ I= f (E)g(E)dE (2.49) 0 onde g(E) = Z H(p,q)=E dp dq h3N (2.50) é conhecida como densidade de estados. g(E)dE é o número de estados com energias entre E e E + dE. Em particular, se f (H) = Θ(E − H), onde Θ(x) é a função degrau, obtemos Z E Σ(E) (2.51) I= g(E ′ )dE ′ = 3N h 0 Daniel A. Stariolo - IF-UFRGS - 2014 Então g(E) = 22 1 ∂Σ(E) . h3N ∂E (2.52) É possível mostrar que, no limite N → ∞: 1 ∂Σ(E) w(E) = 3N = eSm (E)/kB 3N h ∂E h onde Sm é a entropia microcanônica. Assim, podemos escrever a função de partição na forma Z ∞ ZN (T ) = e−βE g(E)dE (2.53) (2.54) 0 que corresponde à transformada de Laplace da densidade de estados. No caso quântico a expressão correspondente é: X ZN (T ) = e−βEn (2.55) n onde n representa um conjunto completo de número quânticos, ou seja, a soma varre todos os possíveis autoestados do Hamiltoniano, sendo En os correspondentes autovalores. Se o conjunto de autovalores da energia for degenerado, se pode escrever X ZN (T ) = g(E)e−βE (2.56) E onde agora a soma é feita em todos os autovalores diferentes do Hamiltoniano, e g(E) é a degenerescência do autovalor E. 2.2.2 Flutuações da energia A energia média do sistema no ensemble canônico é dada por P −βEj ∂ ln Z j Ej e U ≡ hHi = =− ZN (T ) ∂β (2.57) Como cada microestado tem associada uma probabilidade de ocorrência Pj , então devem existir flutuações em torno do valor médio. O desvio quadrático médio da Daniel A. Stariolo - IF-UFRGS - 2014 23 energia é dado por h(H − hHi)2 i = hH 2i − hHi2 (2.58) !2 1 X 1 X 2 −βEJ Ej e − 2 Ej e−βEj Z j Z j ∂ ∂ ln Z ∂U ∂U = =− = kB T 2 = k B T 2 N cV > 0 ∂β ∂β ∂β ∂T = onde 1 ∂U (2.59) N ∂T é o calor específico a volume constante. Assim, as flutuações da energia no ensemble canônico são proporcionais ao calor especifico, o que também aponta para a positividade de cV . Esta relação é muito útil para determinar o calor específico em simulações de Monte Carlo, ou Dinâmica Molecular, pois os valores médios de momentos da energia podem ser obtidos facilmente ao longo da trajetória do sistema durante a simulação. O desvio relativo é dado por: p √ hH 2 i − hHi2 1 NkB T 2 cV = ∝√ , (2.60) hHi Nu N cV = onde u = hHi/N é a densidade de energia. Notamos que o desvio relativo ao valor médio tende para zero quando N → ∞. Isto quer dizer que a distribuição de energias está fortemente concentrada em torno do valor médio, e as probabilidades de o sistema se encontrar em microestados diferentes do valor médio são muito pequenas. Desta forma, os resultados do ensemble canônico coincidem com os do ensemble microcanônico no limite termodinâmico. Vejamos isto com um pouco mais de detalhe. Vimos que a probabilidade de encontrar o sistema com uma energia entre E e E + dE é: P (E)dE = g(E) e−βE dE. (2.61) A densidade de estados é uma função fortemente crescente de E, ao passo que o exponencial de Boltzmann decai rapidamente. Como consequência, o produto deve passar por um máximo para alguma energia especial E ∗ . O valor de E ∗ é determinado por: ∂ −βE g(E)e = 0, (2.62) ∂E E=E ∗ Daniel A. Stariolo - IF-UFRGS - 2014 24 que equivale a ∂ ln g(E) = β. ∂E E=E ∗ Mas, S = kB ln g(E) ∂S(E) 1 = = kB β. ∂E E=U T e Isto quer dizer que E ∗ = U. (2.63) (2.64) (2.65) Este resultado é importante pois implica que o valor mais provável da energia é igual à energia média. Vejamos agora qual a forma da distribuição de probabilidades da energia. Para isso é útil expandir o logaritmo da densidade de probabilidade no entorno do valor médio U: ln g(E)e−βE = −βE|E=U + ln g(E)|E=U + 1 ∂2 ln g(E)e−βE E=U (E − U)2 + . . . 2 2 ∂E 1 = −β(U − T S) − (E − U)2 + . . . (2.66) 2kB T 2 CV Obtemos finalmente: −βE P (E) ∝ g(E)e −β(U −T S) ≈e (E − U)2 . exp − 2kB T 2 CV (2.67) A densidade de probabilidade da energia é uma distribuição Gaussiana, com mé√ 2 dia U e desvio padrão kB T CV . Considerando a escala de energia dada pela energia interna U podemos definir a variável adimensional E/U.√Esta também possui uma distribuição Gaussiana, com média 1 e desvio padrão kB T 2 CV /U, que é de ordem O(N −1/2 ). Por tanto, para N >> 1 a distribuição de probabilidade é muito estreita, tendendo a uma função delta quando N → ∞. Integrando o resultado (2.67) é fácil mostrar que 1 −kB T ln ZN (T, V ) ≡ F (T, V, N) ≈ U − T S − kB T ln (2πkB T 2 CV ), (2.68) 2 que inclui correções de ordem ln N à expressão termodinâmica para a energia livre. Finalmente, é interessante notar que as flutuações para sistemas com grande número de graus de liberdade podem ser importantes em situações especiais, como por exemplo perto de transições de fase de segunda ordem, quando cV pode tomar valores muito grandes e até divergir. Daniel A. Stariolo - IF-UFRGS - 2014 25 2.2.3 Gás ideal no ensemble canônico O ponto de partida para obter a termodinâmica de um sistema no ensemble canônico é o cálculo da função de partição. No caso do gás ideal clássico: # " Z 3N X p2i dp dq ZN (T ) = (2.69) exp −β h3N 2m i=1 N Y 3N Z βp2i V dpi exp − = h3N i=1 2m N Z N β V p2ix +p2iy +p2iz ) − 2m ( = dpix dpiy dpiz e h3 = [Z1 (T )]N onde V λ3T (2.70) h 2πmkB T (2.71) Z1 (T ) = é a função de partição de uma partícula e λT = √ é o comprimento de onda térmico das partículas. Esta quantidade, que tem dimensões de comprimento, é importante pois corresponde aproximadamente ao valor médio do comprimento de onda de de Broglie. Se o comprimento de onda térmico for muito menor que a distância típica interpartícula então o gás pode ser considerado clássico. No entanto, se λT for da ordem ou maior que a distância interpartícula, os efeitos quânticos serão importantes e o gás deve ser estudado a partir das estatísticas quânticas de Bose-Einstein ou Fermi-Dirac. A energia livre do gás ideal clássico é dada por: V 3/2 (2.72) F (T, V, N) = −kB T N ln Z1 = −kB T N ln (2πmkB T ) h3 A energia livre obtida não é extensiva: F (T, γV, γN) 6= γF (T, V, N). Encontramos novamente o “paradoxo de Gibbs”. A solução, no contexto do ensemble canônico, consiste em introduzir o fator de contagem de Gibbs na forma: ZN (T, V ) → ZN (T, V ) N! (2.73) Daniel A. Stariolo - IF-UFRGS - 2014 26 No limite de N grande, podemos aplicar a aproximação de Stirling ao fatorial, N! ≈ N ln N − N, dando como resultado: V 3/2 F (T, V, N) = −kB T N ln − kB T N (2.74) (2πmkB T ) Nh3 recuperando o comportamento extensivo da energia livre. 2.3 Fluidos clássicos não ideais Fluidos simples geralmente são bem descritos com a estatística clássica pois nas temperaturas (baixas) onde os efeitos quânticos começam a ser relevantes, estes solidificam. A situação mais comum em relação ao Hamiltoniano de um fluido clássico é que possa ser considerado como a soma de uma parte cinética, dependente das velocidades, e uma energia potencial, que depende das coordenadas: Up (q1 , q2 , . . . , qN ). Então a função de partição clássica se fatora, podendo ser escrita na forma: ZN (T, V ) = ZGI V −N Q (2.75) onde ZGI é a função de partição do gás ideal, com o fator de contagem correto, e Z Q == dq1 · · · dqN e−βUp (q1 ,...,qN ) (2.76) é a função de partição configuracional. Por causa do fatoramento entre a parte cinética e configuracional, o valor médio estatístico de uma função f (q) resulta: Z 1 dq1 · · · dqN f (q1 , . . . , qN ) e−βUp (q1 ,...,qN ) (2.77) hf (q1 , . . . , qN )i = Q que é independente do termo cinético. Para analizar as propriedades de fluidos, gases ou líquidos, é importante levar em consideração questões de simetria. Em primeiro lugar, a energia potencial Up (q1 , q2 , . . . , qN ) deve ser invariante frente a permutações dos índices das partículas, pois, embora partículas clássicas são consideradas distinguíveis, elas são idênticas. Outra simetria importante é a invariância da energia potencial frente a uma translação espacial de todo o sistema, ou seja, se deslocamos todas as coordenadas por um vetor fixo no espaço, a energia potencial deve ser a mesma. Isto quer dizer que a energia potencial deve ser função apenas das distâncias relativas entre as partículas e não das posições absolutas no espaço. A invariância frente Daniel A. Stariolo - IF-UFRGS - 2014 27 a translações globais implica na homogeneidade do fluido. Além de homogêneo, um fluido simples deve ser isotrópico, ou seja, a energia potencial deve ser invariante frente a rotações de coordenadas. Estas três são as invariâncias ou simetrias mais importantes de sistemas fluidos simples. Uma quantidade fundamental para descrever a fase fluida é a densidade local de partículas. Assumindo que as partículas são puntuais, a densidade se define como: Z N N X X 1 ρp (r) = hδ(r − qi )i = dq1 · · · dqN δ(r − qi ) e−βUp (q1 ,...,qN ) . (2.78) Q i=1 i=1 Agora, devido à invariância do potencial frente a permutações de partículas, cada um dos termos da soma deve ser igual aos outros, resultando em: Z Z N ρp (r) = dq2 · · · dqN dq1 δ(r − q1 ) e−βUp (q1 ,...,qN ) (2.79) Q Ainda, como o potencial deve depender apenas das distâncias relativas entre pares de partículas |qi − qj |, podemos definir novas variáveis qi′ = qi − q1 , para i = 2, . . . , N, resultando em Z Z N ′ ) ′ ′ −βU (q2′ ,...,qN dq1 δ(r − q1 ) dq2 · · · dqN e ρp (r) = Q Z N ′ ) ′ −βUp (q2′ ,...,qN = (2.80) dq2′ · · · dqN e Q De forma semelhante: Z Z Z ′ ) ′ ) ′ −βUp (q2′ ,...,qN ′ ′ −βUp (q2′ ,...,qN dq1 = V dq2′ · · · dqN e Q = dq2 · · · dqN e (2.81) De (2.80) e (2.81) se conclui que ρp (r) = N/V para todos os pontos r no volume V . Esta propriedade é válida para qualquer fluido simples. Já em um sólido a densidade local não é uniforme pois as partículas se encontram localizadas no espaço, a invariância translacional é quebrada na fase sólida. Em um gás ideal as posições das partículas são independentes entre si. Já em um fluido real existem correlações entre as posições. Uma função que descreve as correlações espaciais entre partículas é a função de distribuição de pares g(r), definida como: X 2V g(r) ≡ hδ(r − rij )i , (2.82) N(N − 1) (i,j) Daniel A. Stariolo - IF-UFRGS - 2014 28 onde rij ≡ qi − qj é o vetor distância relativa entre as partículas i e j, e a notação (i, j) indica que cada par de partículas é contabilizado apenas uma vez. Notamos que a função g(r) corresponde, essencialmente, ao número médio de pares de partículas que se encontram a uma distância r uma da outra. Para entender melhor a definição da g(r) notamos que, pela invariância do sistema frente a permutações de partículas, todos os termos de pares devem ser idênticos. Ainda, pela isotropia do sistema, a função não pode depender da direção do vetor r, mas apenas do módulo r = |r|. Então: g(r) = V hδ(r − r12 )i . (2.83) Para um gás ideal Up (q1 , . . . , qN ) = 0 e então o valor médio pode ser calculado facilmente, de onde obtemos que hδ(r − r12 )i = 1/V e g(r) = 1. Este resultado quer dizer que, para o gás ideal, todas as distâncias entre pares de partículas são igualmente prováveis. Já no caso de partículas em interação obtemos: Z Z Z V ′ ) ′ ′ ′ ′ −βUp (q2′ ,...,qN g(r) = dq1 dq2 δ(r − q2 ) dq3 · · · dqN e Q Z V2 ′ ′ ′ (2.84) dq3′ · · · dqN e−βUp (r,q3 ...,qN ) . = Q A forma mais frequênte de energia potencial é a que corresponde a uma soma de interações de pares, ou seja: X u(rij ). Up (q1 , . . . , qN ) = (2.85) (i,j) Levando em consideração a simetria do potencial frente a permutações das partículas resulta: N(N − 1) hu(r12 )i 2 Z Z Z N(N − 1) ′ ) ′ ′ ′ ′ −βUp (q2′ ,...,qN dq1 dq2 u(q2 ) dq3 · · · dqN e = 2Q Z Z V N(N − 1) ′ ′ = (2.86) d3 r u(r) dq3′ · · · dqN e−βUp (r,...,qN ) 2Q hUp i = Agora, usando o resultado (2.84) e incluindo a contribuição da energia cinética, obtemos uma expressão para a equação de estado da energia do fluido: Z N(N − 1) 3 d3 r u(r) g(r), (2.87) U = hHi = NkB T + 2 2V Daniel A. Stariolo - IF-UFRGS - 2014 29 Para obter a equação de estado da pressão do fluido, partimos da definição da pressão no ensemble canônico: ∂F ∂ ln ZN = kB T ∂V ∂V ∂ VN ∂ Q ZGI Q = kB T = kB T ρp + kB T . (2.88) ln ∂V VN Q ∂V V N P = − Com um pouco mais de trabalho podemos obter uma expressão para a pressão de um fluido, com interações de pares, em termos da função distribuição de pares: Z 2πρp ∞ 3 du(r) r g(r) dr . (2.89) P = kB T ρp 1 − 3kB T 0 dr Esta última relação se conhece como equação de estado do virial. Notamos que as equações de estado ficam completamente determinadas conhecendo o potencial de pares e a função de distribuição g(r). A função de distribuição de pares pode ser determinada experimentalmente por técnicas de espectroscopia, como espalhamento de raios X, nêutrons, elêtrons, etc. Ela está relacionada com uma quantidade básica em experimentos de espectroscopia que é o fator de estrutura, definido como: 2 + * N X i~k.~ qj ~ (2.90) I(k) = e , j=1 onde a média é realizada no ensemble. I(~k) mede a intensidade do espalhamento em função do vetor de onda k da radiação espalhada pelo material. Da definição anterior obtemos: + + * *N N X ~ XX ~ (2.91) eik.(~qj −~ql ) eik.(~qj −~ql ) = N + I(~k) = j=1 l=1 j6=l Como a função que deve ser mediada depende apenas das coordenadas: Z 1 X ~ ~ dq1 · · · dqN eik.(~qj −~ql ) e−βU (q1 ,...,qN ) I(k) = N + Q j6=l Z N(N − 1) ~ = N+ dq1 · · · dqN eik.(~q2 −~q1 ) e−βU (q1 ,...,qN ) Q Z V N(N − 1) ′ ′ ~ ′ ′ = N+ (2.92) dq2′ · · · dqN eik.~q2 e−βU (q2 ,...,qN ) Q Daniel A. Stariolo - IF-UFRGS - 2014 30 Figura 2.2: O potencial de Lennard-Jones. Comparando com (2.84) obtemos: N(N − 1) I(~k) = N + V Z ~ d3 r eik.~r g(r) (2.93) ou seja, o fator de estrutura está relacionado diretamente com a transformada de Fourier da função de distribuição de pares. Desta forma é possível determinar a função g(r) a partir de dados experimentais para um dado sistema. Para muitos fluidos normais o potencial de interação é repulsivo a distâncias muito curtas (caroço duro) e atrativo a distâncias um pouco maiores. Um potencial semi-empírico muito comum é o potencial de Lennard-Jones: σ 12 σ 6 u(r) = 4ǫ (2.94) − r r que é mostrado na figura 2.2. No potencial, σ possui unidades de comprimento e representa o tamanho do caroço duro. O potencial u(σ) = 0 e cresce muito fortemente para r < σ. Para r > σ o potencial é atrativo, apresentando um mínimo, um ponto de estabilidade mecânica, em r = 21/6 σ. Para distâncias r ≫ σ o potencial tende para zero como 1/r 6, que corresponde a uma interação de van der Waals. A função distribuição de pares para este potencial tem a forma mostrada na figura 2.3. Daniel A. Stariolo - IF-UFRGS - 2014 31 Figura 2.3: A função de distribuição de pares para um sistema com energia potencial de Lennard-Jones, para kB T /ǫ = 0.71 e ρp = 0.844, obtido por simulação numérica. A forma da g(r) pode interpretarse como segue: ρp g(r) é a densidade média de partículas que se observam a uma distância r de uma origem arbitrária. Como para r < σ não pode ter partículas por causa do termo de caroço duro, a g(r) = 0 nesta região. Na sequência, g(r) apresenta um pico pronunciado que corresponde aproximadamente à distância até os primeiros vizinhos, e depois segue uma série de picos menores representando as sucessivas camadas de vizinhos da partícula central. O caráter oscilatório da função é consequência da competição entre forças atrativas e repulsivas no potencial. Finalmente, para distâncias muito grandes, g(r) → 1, que coincide com o valor correspondente a partículas livres, como se espera de um par de partículas muito afastadas em um fluido simples. As posições dos picos dão informação das correlações entre as partículas. Quanto mais diluido seja o fluido, menos picos vão aparecer na g(r), em oposição ao comportamento de um sólido, onde a periodicidade da rede cristalina deve levar à presença de uma série de picos de igual intensidade separados pela mesma distância, correspondente à distância entre as partículas na matriz cristalina. No caso de fluidos com interações fracas, ou densidades baixas, é possível obter a equação de estado da forma seguinte: definimos uma função: f (r) = e−βu(r) − 1 (2.95) Daniel A. Stariolo - IF-UFRGS - 2014 32 Definindo fij ≡ f (rij ), podemos escrever a função de partição configuracional na forma: Z Z Y Y −βu(rij ) Q = dq1 · · · dqN e = dq1 · · · dqN [1 + fij ] (2.96) (i,j) (i,j) Desenvolvendo os produtos obtemos: Z X 1X X Q = dq1 · · · dqN 1 + fij + fij fkl + · · · 2 (i,j) (i,j) (k,l)6=(i,j) XZ = V N + V N −2 dqi dqj fij + · · · (i,j) Z N(N − 1) d3 rf (r) + · · · = V +V 2 N(N − 1) N B(T ) + · · · , 1− = V V N N −1 (2.97) onde Z 1 d3 r e−βu(r) − 1 (2.98) B(T ) = − 2 se conhece como segundo coeficiente virial. Desconsiderando termos de ordem superior na expansão acima, obtemos: Q N2 ≈ 1 − B(T ) VN V (2.99) e, da equação (2.88): P = kB T ρp + kB T 1 N2 B(T ) V2 . N2 − V B(T ) (2.100) Para N 2 B(T )/V ≪ 1 obtemos, finalmente: P ≈ kB T ρp [1 + ρp B(T )]. (2.101) De fato, é possível mostrar que, para potenciais de muito curto alcance, é possível obter uma expansão da equação de estado em potências da densidade de partículas: P = kB T [ρp + ρ2p B(T ) + ρ3p C(T ) + · · · ], (2.102) Daniel A. Stariolo - IF-UFRGS - 2014 33 que se conhece como expansão do virial. Notamos que a aproximação (2.101) é válida somente para densidades muito baixas. Integrando a equação (2.98) por partes para o potencial de Lennard-Jones obtemos: Z 2πβ ∞ 3 du(r) −βu(r) r e dr. (2.103) B(T ) = − 3 0 dr Substituindo em (2.101) e comparando o resultado com (2.89) notamos que truncar a expansão do virial a segunda ordem equivale a aproximar a função de distribuição de pares por: g(r) = e−βu(r) (2.104) Na figura 2.4 podemos ver o resultado de aproximar a g(r) usando a expansão do virial até segunda ordem. Aparece apenas o primeiro pico. Para poder obter os outros picos é necessário ir a ordens superiores na expansão. Esse resultado deixa claro que a expansão de ordem baixa é boa apenas para fluidos muito diluidos. Figura 2.4: A função de distribuição de pares para um sistema com energia potencial de Lennard-Jones, obtido truncando a expansão do virial até segunda ordem para kB T /ǫ = 1. 2.4 O ensemble Grande Canônico Consideremos agora um sistema que pode trocar calor e partículas com o meio no qual se encontra. Neste caso, o número de partículas N não será mais constante, podendo flutuar assim como a energia. No equilíbrio, o valor médio hNi estará Daniel A. Stariolo - IF-UFRGS - 2014 34 bem definido. No caso de um sistema quântico, se pode definir um operador número de partículas N̂, cujos autovalores n, correspondem aos possíveis resultados de uma medida particular. Os estados acessíveis do sistema correspondem aos autoestados da energia para uma partícula, duas partículas, etc. O espaço de Hilbert é formado pela soma direta dos subespaços de uma, duas, três, etc. partículas. Vamos assumir que o operador Ĥ não mescla estados de subespaços com diferente número de partículas, ou seja, que Ĥ comuta com N̂. Desta forma, a matriz que representa Ĥ terá uma estrutura diagonal em blocos Ĥ0 , Ĥ1 , etc. na qual ĤN é o operador Hamiltoniano de N partículas. Os autoestados do Hamiltoniano de um sistema de N partículas serão indexados com um número quântico adicional, por exemplo: Ĥ|N, Eln i = Eln |N, Eln i N̂|N, Eln i = n|N, Eln i (2.105) Vamos agora maximizar a entropia de Gibbs S = −kB T r(ρ̂ ln ρ̂) = −kB ∞ X X n=0 ρnl ln ρnl (2.106) l onde ρnl é o elemento de matriz (diagonal) do operador densidade ρ̂ correspondente aos números quânticos l, n. Os vínculos a ser satisfeitos neste caso são: U = hĤi = T r(ρ̂Ĥ) = N = hN̂ i = T r(ρ̂N̂) = T r ρ̂ = ∞ X X n=0 ∞ X X n=0 ∞ X Eln ρnl (2.107) l n n=0 X ρnl (2.108) l ρnl = 1, (2.109) l que serão incorporados no processo de variação via multiplicadores de Lagrange. Fazendo isso obtemos " # XX δ {α0 ρnl + α1 Eln ρnl + α2 nρnl − kB ρnl ln ρnl } = 0 n l XX n l [(α0 − kB ) + α1 Eln + α2 n − kB ln ρnl ] δρnl = 0 (2.110) Daniel A. Stariolo - IF-UFRGS - 2014 35 Desta condição, e como a identidade vale para variações arbitrárias, obtemos: kB ln ρ̂ = (α0 − kB ) + α1 Ĥ + α2 N̂ ou ρ̂ = e α0 kB −1 α1 e kB (2.111) α Ĥ+ k 2 N̂ B Usando a normalização da matriz densidade, definimos a função α α2 α1 1− k 0 B Ĥ + N̂ . Z ≡e = T r exp kB kB (2.112) (2.113) A função Z é conhecida como grande função de partição. Para fixar os valores das constantes α1 e α2 multiplicamos (2.111) por ρ̂ e tomamos o traço: (α0 − kB ) + α1 U + α2 N + S = 0 (2.114) ou, multiplicando pela temperatura: −kB T ln Z + α1 T U + α2 T N + T S = 0 (2.115) Para determinar os valores das constantes α1 e α2 vamos exigir consistência com a termodinâmica. Identificando α1 = −1/T , α2 = µ/T , onde µ é o potencial quimico, e da definição termodinâmica da função grande potencial: Ω(T, V, µ) = U − T S − µN (2.116) Ω(T, V, µ) = −kB T ln Z. (2.117) Z(T, V, µ) = e−βΩ(T,V,µ) = T r e−β(Ĥ−µN̂ ) (2.118) obtemos: Então e h i 1 ρ̂ = exp −β(Ĥ − µN̂) . Z Das relações anteriores podemos obter, por exemplo, ∂Ω ∂Ω N =− S=− ∂T V,µ ∂µ T,V (2.119) (2.120) Daniel A. Stariolo - IF-UFRGS - 2014 36 Usando a relação de Euler: U = T S − P V + µN obtemos Ω = −P V . Finalmente podemos obter uma relação entre a grande função de partição e a função de partição canônica: X X n e−βEl Z = T r e−β(Ĥ−µN̂ ) = eβµn n = X l n z ZN (T, V ) (2.121) n onde z = eβµ é conhecida como fugacidade. Mais uma vez, como no caso do ensemble canônico, a distribuição que maximiza a entropia de Gibbs é dada pelo exponencial de Boltzmann da energia correspondente ao sistema sujeito aos vínculos macroscópicos correspondentes, neste caso temperatura e potencial quimico fixos. Este procedimento pode ser generalizado facilmente para outras situações com diferentes vínculos, como será discutido com um pouco mais de detalhe no final da próxima seção. 2.4.1 Flutuações no número de partículas No ensemble grande canônico a temperatura e o número médio de partículas são fixos, mas os valores da energia e do número de partículas podem flutuar. Já vimos como estimar as flutuações da energia para um sistema em contato com um reservatório térmico. Vamos agora fazer uma análise semelhante e ver como se comportam as flutuações no número de partículas para um sistema em contato com um reservatório de partículas. Começamos escrevendo a condição de normalização das probabilidades da seguinte forma: Tr ρ = Tr eβ(Ω(T,µ)−H+µN ) = 1, (2.122) onde a notação é válida tanto para sistemas quânticos, onde ρ ≡ ρ̂, H ≡ Ĥ, etc. são operadores, quanto para sistemas clássicos onde T r corresponde a uma integral no espaço de fase e ρ, H, N, etc. são as funções densidade de probabilidade, Hamiltoniano, número de partículas, etc. Derivando em relação ao potencial químico obtemos: ∂Ω β(Ω(T,µ)−H+µN ) Tr β = 0, (2.123) + βN e ∂µ ou β ∂Ω + β Tr Neβ(Ω(T,µ)−H+µN ) = 0. ∂µ (2.124) Daniel A. Stariolo - IF-UFRGS - 2014 Derivando mais uma vez: ∂Ω ∂2Ω β(Ω(T,µ)−H+µN ) = 0, + β Tr Nβ +N e β ∂µ2 ∂µ 37 (2.125) ou 2 ∂2Ω 2 ∂Ω 2 + β Tr [Nρ] + β Tr N ρ = 0. (2.126) ∂µ2 ∂µ Usando a relação (2.120) obtemos uma expressão para o desvio quadrático médio do número de partículas: β 2 ∂ hNi ∂2Ω . N − hNi2 = −kB T 2 = kB T ∂µ ∂µ (2.127) É possível mostrar (ver, por exemplo, o livro de Salinas [4]) que a derivada do número médio de partículas em relação ao potencial quimico está relacionada com a compressibilidade isotérmica do sistema: kB T ∂ hNi kB T κT = hNi2 ∂µ V (2.128) Por tanto, o desvio relativo ao valor médio no número de partículas é da ordem: q hN 2 i − hNi2 ∼ V −1/2 . (2.129) hNi Então vemos que a medida que o volume do sistema aumenta o número de partículas se afasta muito pouco do seu valor médio, que por sua vez coincide com o valor mais provável da distribuição de equilíbrio de Boltzmann. Concluimos que, no limite termodinâmico, quando N e V são muito grandes (comparados com o tamanho das partículas) as flutuações da energia e do número de partículas são desprezíveis, e por tanto nestas condições os três ensembles, microcanônico, canônico e grande canônico são equivalentes do ponto de vista termodinâmico. Uma exceção a este comportamento acontece na vizinhança de um ponto crítico quando as flutuações na densidade do sistema podem ser muito grandes e a compressibilidade cresce sem limites. As flutuações da densidade perto de um ponto crítico levam ao fenômeno da opalescência crítica, um fenômeno que representa uma evidência experimental direta da presença de um ponto crítico. Para concluir esta análise notemos a semelhança entre os operadores densidade nos ensembles canônico e grande canônico em relação ao princípio variacional de Gibbs. Em ambos os ensembles os operadores são dados pela exponencial Daniel A. Stariolo - IF-UFRGS - 2014 38 de uma combinação linear de observáveis, um por cada vínculo macroscópico imposto via um multiplicador de Lagrange. Os valores médios de tais observáveis são todos variáveis termodinâmicas extensivas. Os coeficientes da combinação linear dos mesmos estão associados a multiplicadores de Lagrange respectivos e são iguais ao parâmetro intensivo correspondente ao observável na representação de entropia: 1/T no caso da energia e −µ/T no caso do número de partículas. Generalizando este mecanismo é possível obter diferentes tipos de ensembles, apropriados para situações particulares, sendo que todos são equivalentes no limite termodinâmico. Um exemplo importante é o ensemble das pressões, que corresponde à situação de um sistema em contato com um reservatório térmico e de pressão. Nesta situação, o número de partículas é fixo, mas a energia e o volume podem flutuar. Os vínculos externos são então a energia média e o volume médio (parede móvel ou flexível). Maximizando a entropia de Gibbs como nos casos anteriores é possível obter a função de partição grande canônica no ensemble das pressões: Z ∞ Z ∞ −β(H+P V ) Υ(P, T, N) = Tr e dV = e−βP V ZN (T, V ) dV, (2.130) 0 0 onde ZN (T, V ) é a função de partição canônica para um sistema de N partículas, temperatura T e volume V e G(T, P, N) = −kB T ln Υ(P, T, N) (2.131) é a energia livre de Gibbs, que é o potencial termodinâmico relevante para um sistema a pressão constante. 2.4.2 Adsorção em superfícies Consideremos a superfície de um material sólido, em equilíbrio termodinâmico com um fluido (líquido ou gás), a pressão e temperatura fixas. Os átomos da superfície do sólido apresentam suas interações desbalançadas em relação aos átomos do interior do material, por causa da ausência de átomos do sólido do outro lado da superfície. Então estes átomos superficiais podem atrair átomos do fluido em torno, os que poderão ligarse à superfície sólida. O processo pelo qual átomos (ou moléculas) de um fluido se ligam na superfície de um sólido se chama adsorção. Este fenômeno é fisicamente diferente da absorção, na qual os átomos do fluido podem entrar no interior do volume do outro material, por exemplo em poros. O processo inverso da adsorção é a desorção, na qual um átomo ligado a Daniel A. Stariolo - IF-UFRGS - 2014 39 uma superfície se desprende da mesma e volta para o fluido. Em equilíbrio termodinâmico o número médio de partículas adsorvidas e desorvidas será o mesmo e a concentração do material adsorvido, o adsorvato, na superfície será constante. O processo de adsorção leva a formação de um filme do adsorvato sobre a superfície do adsorvente, e apresenta uma grande gama de aplicações industriais. Um processo real de adsorção é muito complexo, mas se podem entender alguns mecanismos básicos do mesmo através de um modelo simples introduzido em 1916 por Irving Langmuir e que representa um bom exemplo de aplicação do ensemble grande canônico clássico. Os ingredientes fundamentais do modelo consistem em supor que • as partículas do adsorvato se depositam em um número fixo de sítios da superfície adsorvente, chamados sítios de adsorção. • cada sítio de adsorção pode adsorver no máximo uma molécula. • as moléculas adsorvidas não interagem entre si, são independentes. • o fluido é considerado um gás ideal. Já que a superfície do sólido se encontra em equilíbrio com o gás, este pode ser considerado como um reservatório de partículas para a superfície. Vamos então calcular a grande função de partição para os sítios de adsorção e depois impor as condições de equilíbrio termodinâmico com o gás. Vamos supor então que existem M sítios de adsorção e que a energia de ligação das moléculas na superfície é −γ. Assim γ será a energia necessária para desorver ou evaporar uma molécula da superfície. Podemos ainda supor que as moléculas do gás possuem graus internos de liberdade. Seja ζ(T ) a função de partição canônica dos graus internos de liberdade de uma molécula. A função de grande partição do conjunto de sítios de adsorção é dada por: ZM = M X z N ZN (T ), (2.132) N =0 onde ZN (T ) é a função de partição canônica para um sistema de N moléculas adsorvidas. Neste problema não deve ser incluido o fator de contagem de Boltzmann, pois os sítios de adsorção são considerados distinguíveis. Como as moléculas adsorvidas são independentes: N ZN (T ) = g(N) (Z1 (T ))N = g(N) eβγ ζ(T ) (2.133) Daniel A. Stariolo - IF-UFRGS - 2014 40 onde g(N) é o número de formas de distribuir N moléculas em M sítios de adsorção. Então: ZM = M X N M M! z eβγ ζ(T ) = 1 + z eβγ ζ(T ) N!(M − N)! N =0 (2.134) Podemos derivar o resultado anterior por um caminho alternativo. Os graus internos de liberdade das moléculas podem ser considerados redefinindo a fugacidade z → z ′ = z ζ(T ). Cada sítio de adsorção pode ser considerado como um sistema de dois estados: com molécula adsorvida ou sem, com energias −γ e zero respectivamente. Então podemos associar a cada sítio de adsorção um número de ocupação ni = 0, 1, de forma que os estados ni = 0, 1 correspondem ao sítio i-ésimo estar desocupado ou ocupado por um adsorvato respectivamente.P Assim, podemos escrever um Hamiltoniano para este sistema na forma H = −γ M i=1 ni PM e N = i=1 ni , e a função de grande partição pode ser escrita na forma: ′ ZM = Tr e−β(H−µ N ) = X n1 =0,1 ··· X P e i ni β(γ+µ′ ) nM =0,1 M ′ = 1 + eβ(γ+µ ) (2.135) que resulta idêntica com a (2.134). O número médio de partículas adsorvidas é dado por: ∂ ln ZM z eβγ ζ(T ) hNi = z =M . (2.136) ∂z 1 + z eβγ ζ(T ) Se define recobrimento, θ(T, P ), à fração de partículas adsorvidas na superfície hNi/M, que resulta: z eβγ ζ(T ) . (2.137) θ= 1 + z eβγ ζ(T ) A condição de equilíbrio termodinâmico entre a superfície e o gás corresponde à igualdade entre os seus potenciais quimicos. O potencial quimico do gás corresponde ao de um gás ideal, cujo valor é: hNi λ3T (2.138) µ = kB T ln V Por tanto: z ζ(T ) = hNi λ3T P λ3T = V kB T (2.139) Daniel A. Stariolo - IF-UFRGS - 2014 41 Então podemos escrever: θ= onde P0 = P , P0 + P (2.140) kB T −βγ e . λ3T (2.141) A equação (2.140) se conhece como isoterma de Langmuir e define o valor do recobrimento em função da pressão do gás para uma temperatura fixa. Notamos que para P/P0 ≪ 1 o recobrimento se comporta como θ ∼ P/P0 e θ → 1 quando P/P0 ≫ 1. O modelo de Langmuir, embora extremamente simplificado, resulta fisicamente muito natural, e por tanto serve como bom ponto de partida para incluir de forma sistemática condições mais realistas, como interações entre as partículas adsorvidas ou modelos mais sofisticados para o reservatório fluido. Capítulo 3 Estatísticas quânticas 3.1 Sistemas de partículas indistinguíveis O Princípio de Incerteza de Heisenberg leva a concluir que duas partículas idênticas são indistiguíveis, a menos que exista uma situação particular que limite suas posições espaciais, como é caso dos átomos em um sólido. Uma consequência desta condição é que operadores, como o Hamiltoniano de N partículas, são invariantes frente a permutações arbitrárias das variáveis dinâmicas associadas as partículas, ou seja, os operadores são invariantes frente a uma “renumeração” das partículas. Como sabemos, por cada operação de simetria existe um operador associado que comuta com o Hamiltoniano do sistema, e pode ser diagonalizado simultaneamente. Veremos que existem apenas dois autovalores possíveis associados aos operadores de permutação de partículas, e assim o espaço de Hilbert associado a um sistema de N partículas quânticas fica dividido em dois subespaços, com características muito diferentes e implicações fundamentais para o comportamento físico dos sistemas associados a cada um deles. Vamos supor um sistema de N partículas sem spin. A função de onda correspondente na representação de coordenadas é Ψ(q1 , . . . , qN ). Trocas na enumeração das partículas podem ser descritas pelos operadores permutação de pares P̂ik , os quais trocam as coordenadas qi e qk na função de onda: P̂ik Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ) = Ψ(q1 , . . . , qk , . . . , qi , . . . , qN ) (3.1) Se o Hamiltoniano é invariante frente a trocas arbitrárias de pares de partículas se verifica que: h i Ĥ, P̂ik = 0 ∀i, k = 1, . . . , N com i 6= k (3.2) 42 Daniel A. Stariolo - IF-UFRGS - 2014 43 As autofunções de P̂ik têm que satisfazer: P̂ik Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ) = λΨ(q1 , . . . , qi , . . . , qk , . . . , qN ) = Ψ(q1 , . . . , qk , . . . , qi , . . . , qN ) (3.3) Aplicando novamento o operador P̂ik obtemos: P̂ik2 Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ) = Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ) = λ2 Ψ(q1 , . . . , qi , . . . , qk , . . . , qN ). (3.4) Ou seja, os autovalores do operador permutação de pares podem tomar apenas dois valores λ = ±1. Assim, as autofunções são chamadas de simétricas se correspondem a λ = 1 e antissimétricas se correspondem a λ = −1. Se o Hamiltoniano comuta com todos os operadores de permutação, então suas autofunções podem ser construidas de forma a serem totalmente simétricas, ou seja, simétricas frente a qualquer permutação de coordenadas, ou totalmente antissimétricas, ou seja, antissimétricas frente a qualquer permutação de coordenadas. Uma permutação qualquer pode ser realizada pelo operador de permutação P̂ , tal que: P̂ Ψ(q1 , q2 , . . . , qN ) = Ψ(qP1 , qP2 , . . . , qPN ) (3.5) onde P1 , . . . , PN corresponde a uma permutação arbitrária dos números 1, . . . , N. É simples notar que qualquer operador P̂ é equivalente a aplicar uma sequência de permutações de pares P̂ij . Por tanto, as autofunções de P̂ também serão funções simétricas ou antissimétricas. Se uma autofunção qualquer do Hamiltoniano Ψ(q1 , . . . , qN ) não tiver nenhuma paridade definida, podemos construir autofunções totalmente simétricas ou totalmente antissimétricas a partir dela da seguinte forma: X ΨS (q1 , . . . , qN ) = BS P̂ Ψ(q1 , . . . , qN ) (3.6) P A Ψ (q1 , . . . , qN ) = BA X (−1)P P̂ Ψ(q1 , . . . , qN ) (3.7) P onde BS , BA são constantes de normalização e as somas varrem todas as possíveis permutações dos qi′ s. O sinal (−1)P é +1 se a permutação for par, e −1 se for ímpar. Uma permutação é par (ímpar) se o número de permutações de pares necessárias para obter a permutação geral P1 , . . . , PN a partir da 1, 2, . . . , N for par (ímpar) Daniel A. Stariolo - IF-UFRGS - 2014 44 Como exemplo, consideremos uma função de onda de três partículas Ψ(q1 , q2 , q3 ). Podemos construir funções totalmente simetrizadas com a receita anterior: ΨS (q1 , q2 , q3 ) = BS [Ψ(q1 , q2 , q3 ) + Ψ(q2 , q1 , q3 ) + Ψ(q1 , q3 , q2 ) +Ψ(q2 , q3 , q1 ) + Ψ(q3 , q1 , q2 ) + Ψ(q3 , q2 , q1 )] A Ψ (q1 , q2 , q3 ) = BA [Ψ(q1 , q2 , q3 ) − Ψ(q2 , q1 , q3 ) − Ψ(q1 , q3 , q2 ) +Ψ(q2 , q3 , q1 ) + Ψ(q3 , q1 , q2 ) − Ψ(q3 , q2 , q1 )] Funções de onda de sistemas de partículas de um mesmo tipo (elétrons, fótons, quarks) apresentam um tipo de simetria definido frente ao intercâmbio de partículas. Ou seja, as funções de onda de partículas elementares são simétricas ou antissimétricas. As partículas descritas por funções de onda simétricas são chamadas de bósons em homenagem ao físico indio Satyendra Nath Bose (1894-1974). Partículas descritas por funções de onda antissimétricas são chamadas de férmions, em homenagem ao físico italiano Enrico Fermi (1901-1954). O caráter de simetria das funções de onda está também relacionado com o spin das partículas elementares. Na natureza se observa que todos os férmions possuem spin semi-inteiro, enquanto que os bósons apresentam spin inteiro. Esta relação é conhecida como Teorema spin-estatística. As propriedades de simetria das partículas frente ao intercâmbio têm profundas consequências nas propriedades físicas dos sistemas. Do ponto de vista da Mecânica Estatística, bósons e férmions se comportam de forma muito diferente, dando lugar as chamadas estatísitca de Bose-Einstein e estatística de Fermi-Dirac, cujas propriedades vamos analizar a seguir. Para poder construir autofunções com simetria definida, é necessário definir uma base inicial de autofunções do Hamiltoniano. Uma base possível é a correspondente a um sistema de partículas não interagentes, quando o Hamiltoniano das N partículas se reduz à soma de operadores de partícula única: Ĥ(q̂1 , . . . , q̂N , p̂1 , . . . , p̂N ) = N X ĥ(q̂i , p̂i ) (3.8) i=1 Resolvendo o problema de autovalores para uma partícula: ĥφk (q) = ǫk φk (q) (3.9) onde k representa um conjunto de números quânticos, se pode construir um autoestado de Ĥ na forma: N ΨE (3.10) k1 ,...,kN = Πi=1 φki (qi ) Daniel A. Stariolo - IF-UFRGS - 2014 45 que corresponde a um autovalor de Ĥ: E= N X ǫki (3.11) i=1 Assim, no caso de partículas independentes podemos escrever as autofunções totalmente simétricas e antissimétricas na forma: X ΨE,S P̂ φk1 (q1 ) · · · φkN (qN ) (3.12) k1 ,...,kN (q1 , . . . , qN ) = BS P ΨE,A k1 ,...,kN (q1 , . . . , qN ) = BA X P (−1)P P̂ φk1 (q1 ) · · · φkN (qN ) (3.13) A função de onda totalmente antissimétrica pode ser escrita em forma de determinante: φk1 (q1 ) · · · φk1 (qN ) .. .. (3.14) ΨE,A . . k1 ,...,kN (q1 , . . . , qN ) = BA det φkN (q1 ) · · · φkN (qN ) conhecido como determinante de Slater, por John Clarke Slater (1900-1976) que os usou para obter funções de onda antissimétricas para descrever sistemas de elétrons. Da forma do determinante se observa que se duas ou mais partículas estiverem no mesmo estado quântico, então o determinante terá duas ou mais filas ou colunas iguais, e por tanto será identicamente nulo. Este resultado corresponde ao Principio de exclusão de Pauli, ou seja, dois ou mais férmions não podem ocupar simultaneamente o mesmo estado quântico. Também notamos que um estado quântico é caracterizado completamente pelo conjunto de números quânticos {k1 , . . . , kN }. Uma permutação destes índices somente produz um câmbio de sinal no caso antissimétrico e deixa a função de onda inalterada no caso simétrico. A indistinguibilidade das partículas frente a permutações faz com que a quantidade relevante para caracterizar um estado, ou função de onda, seja quantas partículas existem em cada estado. Esta especificação pode ser feita definindo os números de ocupação: nk . A especificação dos P números de ocupação para todos os níveis k de cada partícula, sujeitos ao vínculo k nk = N determina completamente um estado simétrico. No caso de férmions, o Princípio de Exclusão limita os possíveis valores dos números de ocupação a nk = 0, 1. A impossibilidade de identificar as partículas individualmente implica que todos os operadores associados a obseráveis quaisquer devem comutar com os operadores de permutação: h i Ô, P̂ = 0 (3.15) Daniel A. Stariolo - IF-UFRGS - 2014 46 Em particular, o operador densidade ρ̂ deve também ser invariante frente a permutações das partículas do sistema. Uma vez definidos os números de ocupação, a energia de um autoestado de N partículas é dada por: X E= nk ǫk (3.16) k Se conhecermos e espectro de energias ǫi do sistema, podemos calcular a função de partição canônica do mesmo na forma X X nk ǫk ) (3.17) Z(T, N, V ) = T r e−β Ĥ = exp (−β k {nk } onde, P de forma geral, o conjunto de números de ocupação deve satisfazer o vínculo k nk = N. Este vínculo torna o cálculo explícito da função de partição uma tarefa complicada em geral. A dificuldade se reduz se considerarmos o ensemble grande canônico. A grande função de partição é dada por: Z(T, µ, V ) = T r e−β(Ĥ−µN̂ ) = = ∞ X eβµN N =0 = ∞ X X N =0 {nk } X {nk } ∞ X z N Z(T, N, V ) (3.18) N =0 exp (−βn1 ǫ1 − βn2 ǫ2 − · · · ) exp (−β(ǫ1 − µ)n1 − β(ǫ2 − µ)n2 − · · · ) Como N está somado entre zero e infinito, e os n′k s estão sujeitos ao vínculo já visto, a última linha é equivalente a somar os n′k s sem restrições: X Z(T, µ, V ) = exp (−β(ǫ1 − µ)n1 − β(ǫ2 − µ)n2 − · · · ) n1 ,n2 ,... = X e−β(ǫ1 −µ)n1 n1 = e−β(ǫ2 −µ)n2 . . . n2 YX k X nk exp [−β(ǫk − µ)nk ] (3.19) A função grande potencial é dada por: Ω(T, µ, V ) = −kB T ln Z = −kB T X k ln ( X nk e−β(ǫk −µ)nk ) (3.20) Daniel A. Stariolo - IF-UFRGS - 2014 47 O número de ocupação médio é dado por: 1 ∂ ln Z hnk i = − β ∂ǫk T,V (3.21) 3.2 Gases ideais quânticos Para um gás de Bose-Einstein a grande função de partição toma a forma: ) ( ∞ X ∞ ∞ X X X nk (ǫk − µ) (3.22) ZBE (T, µ, V ) = ··· exp −β n1 =0 n2 =0 n∞ =0 k No caso de um sistema de férmions, o Princípio de Exclusão limita os números de ocupação resultando na estatística de Fermi-Dirac: ) ( 1 X 1 1 X X X nk (ǫk − µ) (3.23) exp −β ··· ZF D (T, µ, V ) = n1 =0 n2 =0 n∞ =0 k 3.2.1 O gás de Maxwell-Boltzmann e o limite clássico Antes de analizar em detalhe os comportamentos de sistemas de bósons e férmions, vamos considerar novamente um sistema de partículas distinguíveis, só que agora do ponto de vista das estatísticas quânticas. Se as partículas são distinguíveis não teremos nenhuma restrição nos valores dos números de ocupação. No entanto, para um conjunto de números de ocupação fixos {nk } a troca de duas partículas em diferentes níveis ki e kj , com números de ocupação nki e nkj corresponde agora a um novo estado, diferente do anterior, mas que não modifica os números de ocupação, e por tanto, possui o mesmo fator exponencial. Desta forma, para um conjunto de valores {nk }, devemos multiplicar o fator exponencial por um fator de degenerescência, que corresponde ao número de combinações diferentes de partículas (distinguíveis) entre todos os estados (níveis). A função grande partição toma a forma: ( ) ∞ X ∞ ∞ X X X N! Zdist (T, µ, V ) = ··· exp −β nk (ǫk − µ) n !n ! · · · n ! 1 2 ∞ n1 =0 n2 =0 n∞ =0 k (3.24) Para altas temperaturas o número médio de bósons em qualquer estado k é muito pequeno, e então os estados que contribuem para a função de grande partição são, Daniel A. Stariolo - IF-UFRGS - 2014 48 essencialmente, aqueles com número de ocupação 0 ou 1. Por isto, o comportamento de bósons e férmions em altas temperaturas é essencialmente o mesmo. Este comportamento também vale para partículas distinguíveis. Então, no limite de altas temperaturas, a única diferença entre as estatísticas de Bose-Einstein, Fermi-Dirac e partículas distinguíveis é o fator N! na expressão desta última. Notamos então, que se quisermos considerar as partículas a altas temperaturas como indistinguíveis basta dividir em Zdist por N!, que é justamente o fator de contagem de Gibbs. Um sistema de partículas descrito pela função de grande partição: ( ) ∞ X ∞ ∞ X X X 1 ZM B (T, µ, V ) = ··· exp −β nk (ǫk − µ) n !n ! · · · n∞ ! n∞ =0 1 2 n1 =0 n2 =0 k (3.25) se conhece como gás de Maxwell-Boltzmann e descreve o comportamento a altas temperaturas de todos os gases ideais (com o correto fator de contagem). Vamos então re-derivar os resultados para o gás ideal clássico considerado como um gás de MB. É fácil somar a função de grande partição neste caso, pois os termos para diferentes números de ocupação se fatoram: ! ∞ Y X 1 exp {−βnk (ǫk − µ)} ZM B (T, µ, V ) = n ! k nk =0 k Y exp e−β(ǫk −µ) (3.26) = k onde usamos o resultado da série infinita ex = potencial resulta: P∞ n n=0 (1/n!)x . A função grande ΩM B (T, µ, V ) = −kB T ln ZM B (T, µ, V ) X = −kB T e−β(ǫk −µ) k = −kB T z X e−βǫk , (3.27) k onde z é a fugacidade. O número médio de partículas é dado por: X ∂ΩM B hNi = − = z e−βǫk . ∂µ T,V k (3.28) Daniel A. Stariolo - IF-UFRGS - 2014 Como também hNi = estado k: P k hnk i, 49 obtemos para o número de ocupação médio do hnk i = z e−βǫk . (3.29) Os resultados anteriores são válidos para qualquer espectro de energias ǫk . No caso de partículas livres, os níveis de energia são dados pela solução da equação de Shroëdinger: ĥφk (q) = ǫk φk (q) (3.30) onde h̄2 d2 p̂2 =− (3.31) 2m 2m dq 2 em uma dimensão espacial. A extensão para mais dimensões é imediata. Os autoestados são ondas planas ĥ = φk (q) = C eikq com ǫk = h̄2 k 2 2m (3.32) Suponhamos que as partículas estão em um recipiente de dimensão linear L e paredes impenetráveis, o que pode ser implementado considerando um potencial de barreira infinita em q = 0 e q = L e zero nos outros pontos. Como a probabilidade de encontrar a partícula fora da caixa é zero, então a função de onda deve ser nula nos extremos da mesma. Isto leva a que a forma da função de onda deve ser: φk (q) = A sin (kq) (3.33) A condição de contorno φk (kL) = 0 determina os possíveis valores do vetor de onda: nπ k= com n = 1, 2, 3, . . . (3.34) L No limite termodinâmico L → ∞ o espectro tenderá a ser continuo, de forma que Z X dk f (k) → f (k) (3.35) (π/L) k já que π/L é a distância entre valores consecutivos do vetor de onda k. Então, desconsiderando graus de liberdade internos das partículas, como o spin, e gene- Daniel A. Stariolo - IF-UFRGS - 2014 50 ralizando os resultados anteriores para d = 3, obtemos: ∞ X ∞ X ∞ X h̄2 k 2 −µ ln ZM B (T, µ, V ) = exp −β 2m kx =π/L ky =π/L kz =π/L 2 2 Z ∞ 3 h̄ k dk exp −β −µ → V 3 2m −∞ (2π) 3/2 V βµ 2πm = , e (2π)3 βh̄2 (3.36) onde em três dimensões k 2 = kx2 + ky2 + kz2 . A função grande potencial é dada por: ΩM B (T, µ, V ) = −kB T ln ZM B (T, µ, V ) 3/2 2πm βµ 5/2 = −V e (kB T ) h2 (3.37) que coincide com um cálculo puramente clássico, considerando um volume unitário no espaço de fase igual a h3 e com o correto fator de contagem de Gibbs. Finalmente, o número médio de partículas do sistema é dado pela (3.28), que é equivalente a 3/2 2πm ∂ . (3.38) hNi = z ln ZM B = z V ∂z βh2 Então, a fugacidade z resulta uma função da densidade média hNi/V e da temperatura: hNi h3 V (2πmkB T )3/2 3 λT = a z = (3.39) onde λT é o comprimento de onda térmico, e (V /hNi)1/3 = a representa uma distância interatômica típica. O limite clássico corresponde a altas temperaturas ou baixas densidades, então nesse limite a fugacidade é pequena z ≪ 1, o que corresponde a a ≫ λT , que é a expectativa usual da mecânica quântica. Daniel A. Stariolo - IF-UFRGS - 2014 51 3.2.2 Estatística de Bose-Einstein Usando o resultado ∞ X nk =0 P∞ n=0 xn = 1/(1 − x) para x < 1, de (3.22) obtemos: exp {−β(ǫk − µ)nk } = 1 1 − exp [−β(ǫk − µ)] (3.40) Como exp [−β(ǫk − µ)] < 1 ∀k e ǫk ≥ 0, entao ǫk − µ > 0 e o potencial quimico deve ser negativo sempre para um gás de bósons livres: µ < 0. O resultado anterior permite escrever: X ln {1 − exp [−β(ǫk − µ)]} (3.41) ln ZBE (T, µ, V ) = − k Da definição do número de ocupação médio, eq. (3.21), obtemos no caso do gás de bósons: 1 hnk i = β(ǫ −µ) (3.42) k e −1 Como e−β(ǫk −µ) < 1 ∀k, então hnk i ≥ 0 ∀k. Por outro lado, para baixas temperaturas β ≫ 1 resulta: hnk i ≈ 0 (3.43) para a maioria dos estados, exceto os de menor energia. 3.2.3 Estatística de Fermi-Dirac No caso de férmions nk = 0, 1 e então: 1 X nk =0 exp {−β(ǫk − µ)nk } = 1 + e−β(ǫk −µ) (3.44) com o que ln ZF D (T, µ, V ) = X k ln {1 + exp [−β(ǫk − µ)]} O número de ocupação médio resulta, neste caso: 1 1 se ǫk < µ hnk i = β(ǫ −µ) ≈ 0 se ǫk > µ e k +1 Sempre se verifica que 0 ≤ hnk i ≤ 1. (3.45) (3.46) Capítulo 4 Gás ideal de Bose-Einstein Vamos descrever neste capítulo o comportamento estatístico e termodinâmica de gases de bósons independentes. A análise nos levará ao estudo do fenômeno da condensação de Bose-Einstein, uma transição de fases em um sistema quântico de partículas livres. A condensação de Bose-Einstein é uma consequência do comportamento quântico de bósons indistiguíveis e foi descrita inicialmente na década de 1920. A primeira demonstração experimental da condensação de BE veio muito mais tarde, em 1995, em trabalhos com átomos frios de rubídio Rb87 por Eric Cornell e Carl Wieman no JILA e de forma independente com átomos de sódio Na23 pelo grupo de Wolfgang Ketterle no MIT. As temperaturas críticas são da ordem dos nanokelvins, perto do zero absoluto !, e o tamanho dos condensados foi de uns 2000 átomos de rubídio e 200000 átomos de sódio aproximadamente. Por esses trabalhos Cornell, Wieman e Ketterle ganharam o Prêmio Nobel de Física em 2001. Também vamos estudar o comportamento de um gás de fótons e o problema relacionado da radiação de corpo negro. 4.1 A condensação de Bose-Einstein A partir dos resultados do capítulo anterior podemos escrever a função grande potencial para um gás de Bose-Einstein como: X ΩBE = −kB T ln ZBE (T, µ, V ) = kB T ln {1 − exp [−β(ǫk − µ)]}, (4.1) k 52 Daniel A. Stariolo - IF-UFRGS - 2014 53 de onde podemos calcular o número médio de partículas na forma: X e−β(ǫk −µ) X 1 ∂ΩBE = (4.2) = hNi = − −β(ǫk −µ) β(ǫk −µ) − 1 ∂µ T,V 1 − e e k k Lembrando que hNi = X k hnk i (4.3) obtemos para o número médio de partículas no estado k: hnk i = 1 eβ(ǫk −µ) −1 = 1 z −1 eβǫk −1 (4.4) Para avançar na determinação das funções termodinâmicas devemos especificar o espectro de autovalores da energia ǫk , que define o sistema em estudo. Consideremos então um sistema de bósons livres, cujo espectro de energias é dado por ǫk = h̄2 k 2 /2m. Consideramos o sistema em uma caixa de volume V = L3 com condições de contorno periódicas. Então, os vetores de onda podem tomar os valores ki = (2π/L)ni , onde i = x, y, z e com ni = 0, ±1, . . .. Quando L → ∞ o espectro de valores da energia ǫk se torna continuo, e as somas tendem a integrais: Z X d3 k ··· → ··· (4.5) (2π/L)3 k Desta forma, como o espectro depende de ~k somente através do módulo k = |~k|, podemos reescrever o número médio de partículas na forma: 3/2 Z ∞ Z ∞ 4πV k2 z z 4V 2πmkB T 2 hNi = x dx. dk = √ (2π)3 0 eβh̄2 k2 /2m − z h2 π ex2 − z 0 (4.6) Então podemos escrever uma equação de estado que relaciona a fugacidade, a temperatura e a densidade na forma: λ3T ρ = g3/2 (z), √ (4.7) onde λT = h/ 2πmkB T é o comprimento de onda térmico, e definimos a função de Bose-Einstein : Z ∞ ∞ X 4 zk z 2 g3/2 (z) = √ dx = (4.8) x 3/2 π 0 ex2 − z k k=1 Daniel A. Stariolo - IF-UFRGS - 2014 54 4 3 g3/2(z) g5/2(z) 2.612 2 1.342 1 0 0.0 .5 1.0 z Figura 4.1: As funções g3/2 e g5/2 . é um caso particular da familia de funções ∞ X zk gn (z) = . kn k=1 (4.9) A função g3/2 (z) é limitada e bem comportada no intervalo 0 ≤ z ≤ 1, com valores nos extremos g3/2 (0) = 0 ∞ X 1 = ζ(3/2) = 2.612 . . . g3/2 (1) = 3/2 k k=1 (4.10) onde a função ζ(x) é a função zeta de Riemann. A derivada da g3/2 (z) diverge para z → 1 e da expansão em série para z ≪ 1 se obtém que g3/2 (z) ∼ z para valores pequenos de z, como se observa na figura 4.1. A equação de estado (4.7) é uma equação implícita para a fugacidade z em função de ρ e T . Mas é fácil observar que o lado esquerdo pode tomar valores arbitrariamente grandes para T suficientemente pequena ou ρ suficientemente grande. De fato, na figura 4.1 podemos notar que se λ3T ρ > 2.612 a equação não tem solução real, já que z ≤ 1. Concluimos que deve haver alguma inconsistência Daniel A. Stariolo - IF-UFRGS - 2014 55 no nosso cálculo anterior. Uma forma de ver onde pode residir o problema é ver o comportamento do número médio de partículas no estado fundamental, ou seja, quando ǫ = 0: z hn0 i = (4.11) 1−z Notamos que limz→1hn0 i = ∞. Por tanto, o número de partículas no estado fundamental diverge para z → 1 no limite termodinâmico. Vamos então analizar em mais detalhe a forma como foi feito o limite termodinâmico no cálculo da equação de estado. Para isso começamos por separar a contribuição do estado fundamental da soma nos estados no cálculo do hNi: Z ∞ z 4πV k2 z dk hNi = + 1 − z (2π)3 2π/L eβh̄2 k2 /2m − z Z ∞ z z 4V 2 x = dx (4.12) + √ 1 − z λ3T π λT √π/L ex2 − z É possível mostrar que o limite inferior na última integral pode ser extendido a zero sem afetar o resultado no limite termodinâmico, obtendo a equação de estado na forma: λ3 z + g3/2 (z) (4.13) λ3T ρ = T V 1−z Na figura 4.2 vemos o comportamento do primeiro termo da equação (4.13) para diferentes valores de V . Notamos que, sempre que V seja finito, a função do lado direito de (4.13) diverge e z nunca atinge o valor máximo z = 1 para qualquer valor de T e ρ, por causa da divergência, como se mostra na figura 4.3(a). Somente quando T → 0 ou ρ → ∞ então z → 1 e, consequentemente hn0 i → ∞, como é de se esperar pois nestas condições todas as partículas devem estar no estado fundamental. A solução de z em função de λ3T ρ para um volume V finito se mostra na figura 4.3(b). Consideremos agora que V ≫ 1. Agora as soluções da eq. (4.13) para λ3T ρ ≥ 2.612 serão próximas de z = 1. Assim, podemos aproximar: λ3T ρ ≈ λ3T z + g3/2 (1) V 1−z (4.14) de onde podemos agora isolar para z(V ): z(V ) ≈ ρ0 V 1 ∼1− 1 + ρ0 V ρ0 V (4.15) Daniel A. Stariolo - IF-UFRGS - 2014 56 1.0 V = 10 V = 100 V = 1000 1 z V 1− z .5 0.0 0.0 .5 1.0 z Figura 4.2: O comportamento do primeiro termo da eq. (4.13) para diferentes valores do volume. z 5 2 4 1 O V 1 O V 3 λ3T z + g3/ 2 (z) V 1− z 2 2.612 1 λ3T ρ 1 g3/ 2 (z) 0 0 0.0 .5 z z 0.0 1.0 λ z V 1− z 3 T .5 1.0 1.5 2.0 2.5 2.612 3.0 3.5 4.0 λ3T ρ Figura 4.3: (a)Solução gráfica da eq. (4.13). (b)Fugacidade de um gás ideal de Bose-Einstein em um volume finito V . Daniel A. Stariolo - IF-UFRGS - 2014 57 2 z 1 0 0 1 2 3 4 λ3T ρ 2.612 Figura 4.4: Fugacidade de um gás ideal de Bose-Einstein no limite termodinâmico. onde ρ0 é uma quantidade que não depende de V . Assim, vemos que as soluções para λ3T ρ ≥ 2.612 tendem para z = 1 quando V → ∞. A fugacidade de um gás de Bose-Einstein, no limite termodinâmico é, por tanto: 1 se λ3T ρ ≥ g3/2 (1) z= (4.16) a raiz de λ3T ρ = g3/2 (z) se λ3T ρ < g3/2 (1) como se mostra na figura 4.4. Vemos então que se λ3T ρ ≥ g3/2 (1) um número macroscópico de partículas passam a ocupar o estado fundamental. Este fenômeno se conhece como condensação de Bose-Einstein, e começa a acontecer quando z → 1. A condição z = 1 permite definir uma temperatura de transição como λ3Tc ρ = g3/2 (1), o que resulta em uma temperatura crítica: Tc = h2 2πmkB ρ g3/2 (1) 2/3 (4.17) Invertendo a mesma equação podemos obter o volume específico crítico em fun- Daniel A. Stariolo - IF-UFRGS - 2014 58 ção da temperatura: 1 = vc = ρc h2 2πmkB 3/2 g3/2 (1) T 3/2 (4.18) Escrevendo a equação de estado na região de condensação na forma: ρ = ρ0 + 1 g3/2 (1), λ3T (4.19) podemos calcular a fração de bósons no estado fundamental: hn0 i ρ0 1 = = 1 − 3 g3/2 (1) hNi ρ ρλT 3/2 3 λTc T = 1− 3 =1− λT Tc (4.20) (4.21) Então vemos que a fração de partículas no estado fundamental, no limite termodinâmico, se comporta como um parâmetro de ordem: ( 3/2 T hn0 i 1 − se T ≤ Tc Tc = (4.22) η≡ hNi 0 se T > Tc como se mostra na figura 4.5. Para determinar o comportamento da pressão no condensado de Bose-Einstein, reescrevemos a função grande potencial (4.1) no limite continuo e após ter separado a contribuição do estado fundamental, obtendo: Z 2 2 4πkB T V ∞ 2 k ln (1 − zeβh̄ k /2m )dk ΩBE = kB T ln (1 − z) + 3 (2π) 2π/L Z ∞ 4kB T V 2 x2 ln (1 − zex )dx (4.23) = kB T ln (1 − z) + 3 √ √ λT π λT π/L Então, a pressão é dada por: P =− ΩBE kB T kB T =− ln (1 − z) + 3 g5/2 (z) V V λT onde 4 g5/2 (z) = √ π Z ∞ 0 2 x2 ln (1 − ze−x )dx = ∞ X zk k 5/2 k=1 (4.24) (4.25) Daniel A. Stariolo - IF-UFRGS - 2014 59 Figura 4.5: Parâmetro de ordem η = hn0 i/hNi vs. temperatura reduzida para um sistema de bósons em um potencial harmônico confinante. Os pontos pretos são resultados experimentais e a linha cheia a predição teórica para um sistema de bósons não interagentes. O inset mostra o número total de átomos na gaiola após o resfriamento do sistema. Figura copiada de [1] A função g5/2 (z) também é monótona crescente valendo g5/2 (0) = 0 e g5/2 (1) = ζ(5/2) = 1.342 . . . e é mostrada na figura 4.1. Vejamos o comportamento do primeiro termo da (4.24). Se z < 1 então é evidente que limV →∞ (1/V ) ln (1 − z) = 0. Por outra parte, para z → 1: 1 lim ln (1 − z(V )) = 0 (4.26) V →∞ V Então, a pressão é dada por: ( P = kB T λ3T kB T λ3T g5/2 (1) se λ3T ρ ≥ g3/2 (1) g5/2 (z) se λ3T ρ < g3/2 (1) (4.27) Notamos que na região do condensado a pressão é independente da densidade. A partir deste resultado podemos analizar o comportamento das isotermas no espaço Daniel A. Stariolo - IF-UFRGS - 2014 60 (P, v), por exemplo. Para uma temperatura constante temos um ponto de transição P = Pc (vc ) que se obtém fazendo z = 1 na solução para a pressão. Usando agora a expressão correspondente ao ponto crítico, eq. (4.18), podemos escrever a temperatura em função de vc . Obtemos: h2 g5/2 (1) 1 Pc (vc ) = . 5/3 5/3 2πm(g3/2 (1)) vc (4.28) P T3 T2 T1 Yc(T2) Y Figura 4.6: Isotermas do gás ideal de Bose-Einstein para três temperaturas T1 < T2 < T3 . A linha tracejada corresponde à curva Pc (vc ). Para cada temperatura a relação anterior define uma linea crítica no plano (P, v). Na figura 4.6 se mostra o comportamento de algumas isotermas do gás de Bose-Einstein. Vemos que, para v < vc (T ) entramos na região do condensado e a pressão é independente do volume específico P = cte. A forma das isotermas lembra a forma das isotermas da transição líquido-gás em um líquido clássico na região de coexistência. Neste caso a coexistência corresponderia ao condensado de partículas no estado fundamental e ao resto que formam a fase normal, ou “gasosa”. No entanto não podemos puxar a analogia muito longe, dado que de fato a fração de partículas nos estados excitados tende para zero no limite termodinâmico, e a condensação de fato acontece no espaço de momentos, e não no espaço Daniel A. Stariolo - IF-UFRGS - 2014 61 real. Continuando com a analogia podemos nos perguntar quais são os volumes específicos das fases condensada e gasosa. Da figura 4.6 podemos concluir que o volume específico do gás corresponde ao ponto vc (T ). Mas o volume específico do condensado deveria ser zero nesta interpretação, ou seja, a densidade do condensado é infinita. Este resultado é claramente não físico, e provém do fato de estar considerando partículas livres (não interagentes) que podem se aproximar indefinidamente entre elas. Outra característica marcante do condensado de Bose-Einstein é a forma do calor específico em função da temperatura. Para isso calculemos inicialmente a entropia por unidade de volume. Esta é dada por: 1 ∂ΩBE ∂P s = lim − = lim (4.29) V →∞ V →∞ V ∂T ∂T V,µ V,µ Derivando em (4.27) e fazendo uso da propriedade 1 dgn (z) = gn−1 (z) dz z obtemos s= ( 5 kB g (1) 2 λ3T 5/2 5 kB g (z) 2 λ3T 5/2 se λ3T ρ ≥ g3/2 (1) − kB ρ ln z se λ3T ρ < g3/2 (1) (4.30) (4.31) Se pode verificar facilmente que s = 0 quando T = 0 em acordo com a terceira lei da Termodinâmica. Agora estamos em condições de calcular o calor específico a densidade constante, dado por: ∂s (4.32) cρ = T ∂T ρ Derivando em (4.31) mantendo ρ constante se obtém: ( 15 kB g (1) se λ3T ρ ≥ g3/2 (1) 4 λ3T 5/2 cρ = g (z) 15 kB g (z) − kB ρ 94 g3/2 se λ3T ρ < g3/2 (1) 4 λ3 5/2 1/2 (z) (4.33) T O calor específico em função de T é mostrado na figura 4.7. Notando que g1/2 (z) → ∞ quando z → 1 resulta que cρ é continuo no ponto crítico, apresentando uma derivada descontinua. Para altas temperaturas cρ tende ao valor constante correspondente ao gás ideal clássico. Para temperaturas baixas, cρ ∼ T 3/2 , da mesma forma que a entropia, e tende a zero para temperatura zero. Daniel A. Stariolo - IF-UFRGS - 2014 62 3.0 2.5 Cρ / (kBρ) 2.0 1.5 1.0 .5 0.0 0 Tc 1 2 3 T Figura 4.7: Calor específico a densidade constante do gás ideal de Bose-Einstein em função da temperatura. Como vimos, o gás de Bose-Einstein apresenta uma série de comportamentos que não são compatíveis com a realidade, como isotermas planas, um calor específico continuo na transição de fase, etc. A origem básica destes defeitos do sistema é o fato de desprezar completamente as interações entre os bósons. Neste sentido é interessante notar que o fenômeno da condensação aparece quando ρλ3T = g3/2 (1) (4.34) ou seja, quando 1/3 λT = g (1) ≈ 1, 377 (4.35) 3/2 v 1/3 Nestas condições o comprimento de onda de de Broglie é da ordem da distância típica entre as partículas, e nesta situação é claro que as interações entre as partículas não podem ser desprezadas. Modelos mais realistas levam em conta interações repulsivas de curto alcance entre os bósons, importantes a temperaturas muito baixas. Incluindo efeitos das interações repulsivas os comportamentos não físicos vistos antes desaparecem, sem no entanto desaparecer o fenômeno da condensação. Para uma descrição qualitativa dos recentes resultados experimentais Daniel A. Stariolo - IF-UFRGS - 2014 63 em condensados de Bose-Einstein em átomos frios se pode consultar, por exemplo, o livro de Pathria [1], terceira edição. Tal vez a predição mais importante do gás de Bose-Einstein seja que é possível ter uma transição de fases exclusivamente como consequência da estatística, independente das interações entre as partículas. Finalmente, se consideramos o limite de altas temperaturas ou baixas densidades, ou seja, quando 1/3 λT ≪ g (1) (4.36) 3/2 v 1/3 temos que z → 0 e então g5/2 (z) ≈ g3/2 (z) ≈ g1/2 (z) ∼ z. Assim, neste regime z λ3T (4.37) hNikB T kB T z = ρkB T = 3 λT V (4.38) ρ≈ enquanto que para a pressão obtemos: P ≈ e a equação para o calor específico se reduz a cρ ≈ 3 15 kB z 9 k ρ = ρkB − B 4 λ3T 4 2 (4.39) Vemos então que a altas temperaturas ou baixas densidades o gás de Bose-Einstein se comporta como um gás ideal clássico, ou seja, os efeitos da estatística quântica se tornam desprezíveis. 4.2 Radiação de corpo negro No final do século XIX um problema relevante era a determinação das propriedades do espectro de radiação de materiais, em particular de corpos astronômicos como as estrelas. Se observou que o espectro não dependia de propriedades do material específico, como composição química, forma, e sim das suas variáveis termodinâmicas, como temperatura. A partir das leis de Maxwell do campo eletromagnético se tentou determinar a densidade de energia emitida por uma cavidade de volume V em um material qualquer, em equilíbrio na temperatura T . Nestas condições, as paredes da cavidade emitem e abosorvem continuamente radiação eletromagnética, cuja distribuição de frequências, e por conseguinte sua energia, devem ser consequência do estado termodinâmico dos átomos que as formam. Daniel A. Stariolo - IF-UFRGS - 2014 64 Através de uma análise clássica a partir das soluções de ondas das equações de Maxwell e considerações estatísticas no Hamiltoniano do campo eletromagnético se conclui que a densidade de energia da radiação em um corpo negro é dada por: Z ∞ U = u(ν)dν. (4.40) V 0 onde 8π kB T ν 2 (4.41) 3 c é a densidade na frequência ν ou densidade espectral. O resultado (4.41) ficou conhecido como a lei de Rayleigh-Jeans. Logo se reconheceu que este resultado não podia estar correto, pois implica que Z ∞ U 8π = 3 kB T ν 2 dν → ∞, (4.42) V c 0 u(ν) = o que foi chamado de “catástrofe do ultravioleta” por ser o comportamento em altas frequências o responsável pela divergência da densidade de energia. A solução deste problema deu origem ao desenvolvimento da Mecânica Quântica, quando Max Planck em 1900 propós que os osciladores que formavam o campo eletromagnético somente poderiam ter um conjunto “discreto” de energias, múltiplos inteiros de uma quantidade fundamental dada por h̄ω. Posteriormente, os trabalhos de Bose e Einstein em torno de 1925 levaram em conta o caráter indistinguível das partículas quânticas, o que permite uma derivação alternativa e completamente equivalente dos resultados de Planck. Neste último tratamento, em lugar de considerar um gás de osciladores quânticos (distinguíveis), a formulação do problema leva naturalmente a considerar um gás de bósons não interagentes, os quanta do campo eletromagnético, chamados fótons. Vamos ver na sequência alguns resultados relevantes de ambas abordagens. 4.2.1 A lei de Planck A solução de Planck é equivalente a considerar um gás de osciladores quânticos com Hamiltoniano dado por: X H= h̄ω(~k)n~k,j (4.43) ~k,j onde ω(~k) = ck é a relação de dispersão do campo electromagnético (c é a velocidade da luz no vácuo), j = 1, 2 corresponde as duas polarizações transversais Daniel A. Stariolo - IF-UFRGS - 2014 65 do campo eletromagnético e n~k,j = 0, 1, . . .. A função de partição canônica pode ser escrita na forma: Y Z= Z~k,j (4.44) ~k,j Notar que, neste problema, os osciladores são distinguíveis, cada um tendo uma frequência característica própria. Além do mais, o número de osciladores é indefinido, podendo ser infinito mesmo em um volume finito. Obtemos: Z~k,j = ∞ X n=0 Desta forma: ln Z = X ~k,j 1 ~ e−βh̄ω(k)n = ln Z~k,j = −2 X ~k,j 1 − e−βh̄ω(~k) i h ~ ln 1 − e−βh̄ω(k) (4.45) (4.46) e a energia interna resulta U =− X k ∂ ln Z = 2h̄c . βh̄ck ∂β e −1 (4.47) ~k No limite termodinâmico, substituindo X ~k V → (2π)3 Z d3 k, obtemos: V h̄c U(T, V ) = 2 π Z ∞ k3 dk. eβh̄ω(~k) − 1 Da Ec.(4.48) e considerando que ω = 2πν = ck resulta que Z 8πh ∞ ν3 U = 3 dν, V c eβhν − 1 0 (4.48) 0 (4.49) de onde sai a lei de radiação de Planck: u(ν, T ) = 8πh ν 3 . c3 eβhν − 1 (4.50) Daniel A. Stariolo - IF-UFRGS - 2014 66 No limite de baixas frequências ν → 0 a Ec.(4.50) reproduz a lei de RayleighJeans: 8π kB T ν 2 . (4.51) c3 No entanto, a integral (4.49) é finita. De fato, fazendo o câmbio de variáveis x = βhν obtemos a ley de Stefan-Boltzmann: Z ∞ 8π x3 U 4 = (k T ) dx = σT 4 (4.52) B x−1 V (hc)3 e 0 u(ν) ∼ que da a densidade total de energia dentro da cavidade. 4.2.2 O gás de fótons Uma interpretação física dos osciladores de Planck pode ser dada a partir da quantização do campo eletromagnético, proposto por Paul A. M. Dirac em 1928. Na quantização do campo eletromagnético surgem operadores cujas autofunções correspondem P a estados simétricos de N partículas independentes com energias h̄ω(~k) e N = ~k,j n~k,j com n~k,j = 0, 1, 2, . . .. Por tanto, os números quânticos n~k,j podem ser interpretados como números de ocupação de estados de partículas com energias h̄ω(~k). Assim, o campo eletromagnético pode ser considerado como composto por partículas, chamadas fótons, que obedecem a estatística de Bose-Einstein. Os fótons possuem momento linear p~ = h̄~k e se movem na velocidade da luz c. Por tanto devem possuir massa em prepouso nula para sua energia ser consistente com a expressão relativística ε = c2 p2 + m2 c4 = cp. Uma característica importante do gás de fótons é que o número deles na cavidade não se conserva, pois fótons são constantemente emitidos e aborvidos pelo corpo negro. Isto equivale ao sistema ter um potencial quimico nulo µ = 0. Desta forma, o potencial de um gás de fótons no ensemble grande canônico é dado por: X ~ Ω(T, V ) = 2kB T (4.53) ln 1 − e−βh̄ω(k) . ~k onde o fator 2 é consequência da degenerescência nas direções de polarizão da radiação. O número médio de fótons com momento h̄~k, independentemente da direção de polarização é dado por: n~k = 2 eβh̄ω(~k) − 1 . (4.54) Daniel A. Stariolo - IF-UFRGS - 2014 67 A partir deste resultado, a energia interna pode ser calculada facilmente: X U(T, V ) = h̄ω(~k) n~k . (4.55) ~k Substituindo (4.54) na (4.55) obtemos a equação (4.47). Como estamos trabalhando no formalismo grande canônico, a pressão da radiação na cavidade pode ser obtida facilmente na forma: Z kB T ∞ 2 Ω k ln 1 − e−βh̄ck dk. (4.56) P =− =− 2 V π 0 Integrando por partes e comparando com (4.48) obtemos a equação de estado para um gás de fótons: U P = . (4.57) 3V Para completar esta descrição, notamos que nas funções termodinâmicas do gás de fótons não aparece nenhuma singularidade, ou seja, os fótons não apresentam o fenômeno da condensação de Bose-Einstein. O motivo disto é que o número de fótons não se conserva, e por tanto, eles aparecem e desaparecem em lugar de condensar. Capítulo 5 Gás ideal de Fermi-Dirac Os férmions são partículas de spin semi-inteiro. Já vimos que o Princípio de Exclusão de Pauli limita o número de férmions en cada estado quântico a ser zero ou um. A estatística que resulta deste vínculo leva o nome de estatística de FermiDirac. Assim, podemos escrever a função grande partição na forma (3.23): ZF D (T, µ, V ) = 1 YX l e−βnl (ǫl −µ) (5.1) nl =0 onde o índice l indica um conjunto de números quânticos l = (~k, σ), onde σ = ±(2s + 1)/2 é o número quântico de spin, correspondente aos autovalores do operador de spin Sz = ±(2s+1)h̄/2, com s = 0, 1, 2 . . .. Por exemplo, os elétrons têm spin σ = ±1/2, ou seja s = 0. Se o espectro de energias é independente do spin (em ausência de campos eletromagnéticos), podemos escrever: 1 1 Y X X −βn (ǫ −µ) −βn (ǫ −µ) ZF D (T, µ, V ) = e ~k,σ=1/2 ~k e ~k,σ=−1/2 ~k n~k,σ=1/2 =0 n~k,σ=−1/2 =0 ~k Y 2 = 1 + e−β(ǫ~k −µ) (5.2) ~k Em geral, para férmions de spin |σ| arbitrário teremos g = 2|σ| + 1 autovalores, e consequentemente a potência 2 na expressão (5.2) corresponde ao valor de g. O potencial grande canônico é dado por: X ln {1 + exp [−β(ǫk − µ)]} (5.3) ΩF D = −kB T ln ZF D (T, µ, V ) = −gkB T k 68 Daniel A. Stariolo - IF-UFRGS - 2014 69 O número médio de partículas é então dado por: X X 1 ∂Ω =g = hnk i hNi = − β(ǫk −µ) + 1 ∂µ T,V e k k (5.4) Então, o número médio de ocupação do nível de energia ~k tem a forma: hnk i = g eβ(ǫk −µ) + 1 . (5.5) Na figura 5.1 se mostra o comportamento do número médio de ocupação. Figura 5.1: O valor médio do número de ocupação de um gás de Fermi-Dirac, para um dado valor do momento ~k. A energia interna de um sistema de férmions é dada por: X X gǫk U= ǫk hnk i = eβ(ǫk −µ) + 1 k (5.6) k e a pressão resulta: P =− gkB T X ΩF D ln 1 + e−β(ǫk −µ) = V V k (5.7) Daniel A. Stariolo - IF-UFRGS - 2014 70 Os resultados anteriores são válidos para qualquer sistema fermiônico, dependem do espectro de energias ǫk . No caso de um gás ideal de férmions, o espectro de energias é de partícula livre: ǫk = h̄2 k 2 2m (5.8) Neste caso, fazendo o limite para o continuo, cambiando variáveis e expressando as quantidades anteriores em termos da energia ǫ, podemos escrever: Z ∞ hNi = gV D(ǫ) f (ǫ) dǫ (5.9) Z0 ∞ U = gV ǫ D(ǫ) f (ǫ) dǫ (5.10) 0 (5.11) onde 1 D(ǫ) = 2 4π e 2m h̄2 3/2 ǫ1/2 (5.12) 1 f (ǫ) = (5.13) eβ(ǫ−µ) + 1 é a função distribuição de Fermi-Dirac. Seguindo o mesmo procedimento e integrando por partes na expressão para a pressão (5.7) obtemos a equação de estado do gás ideal de Fermi: Z ∞ 2U 2 P = = g ǫ D(ǫ) f (ǫ) dǫ (5.14) 3V 3 0 5.1 Gás de Fermi completamente degenerado (T = 0) A T = 0 a função distribuição tem a forma de um degrau em ǫ = µ, como se mostra na figura 5.1. O férmions então vão preenchendo os níveis de energia acessíveis, obedecendo o Princípio de Exclusão, até o chamado “nível de Fermi” ou “energia de Fermi” que é função da densidade do sistema. Para obter o valor da energia de Fermi ǫF notamos que, para T = 0 Z ǫF hNi = gV D(ǫ) dǫ (5.15) 0 Daniel A. Stariolo - IF-UFRGS - 2014 71 onde podemos interpretar D(ǫ) como sendo a densidade de estados de energia ǫ. Integrando obtemos: h̄ ǫF = 2m 6π 2 g 2/3 N V 2/3 (5.16) A pressão a T = 0 é dada por: 2 g P = 3 Z ǫF ǫ D(ǫ) dǫ 0 h̄2 2 ǫF ρ = = 5 5m 6π 2 g 2/3 ρ5/3 (5.17) Notamos que, mesmo a T = 0, o gás de Fermi possui um pressão finita. Isto é consequência do Princípio de Exclusão, que impede uma ocupação arbitrária dos estados. Se pode definir uma “temperatura de Fermi” na forma TF = ǫF kB (5.18) Esta temperatura determina uma escala abaixo da qual as propriedades do sistema são essencialmente quânticas. Por exemplo, em metais alcalinos como o Na e o Li, a temperatura de Fermi é da ordem TF ∼ O(104 K). Nestes metais os elétrons de condução podem ser considerados como um gás de férmions livres em primeira aproximação (modelo de Drude e Lorentz). Nas estrelas anãs brancas a TF ∼ O(109 K). Para comparação, a temperatura física do Sol é ∼ 105 K. No interior do núcelo atômico, a matéria nuclear fermiônica possui uma temperatura de Fermi TF ∼ O(1011 K). 5.2 Gás de Fermi degenerado (T ≪ TF ) A temperaturas finitas porém muito menores que TF alguns férmions são excitados e passam a ocupar estados de energia acima do nível de Fermi. As grandezas termodinâmicas agora dependem da temperatura. Uma análise rápida, qualitativa, permite estimar o número de férmions excitados e o excesso na energia interna do sistema. Por causa do termo exponencial na distribuição de Fermi, para poder excitar partículas acima do nível de Fermi é necessário que ǫ − µ ∼ kB T , ou seja, a energia de excitação é da ordem kB T (ver figura 5.1). Assim, a área debaixo Daniel A. Stariolo - IF-UFRGS - 2014 72 da curva no integrando em (5.9) acima do nível de Fermi é da ordem D(ǫF )kB T (ver figura 5.2), e então ∆N ≈ gV D(ǫF )kB T. (5.19) Pelo mesmo raciocínio, a partir de (5.10) o excesso de energia devido aos férmi- Figura 5.2: A função D(ǫ)f (ǫ) para temperaturas baixas T ≪ TF . ons excitados é da ordem ∆U ≈ gV D(ǫF )(kB T )2 (5.20) Uma consequência importante deste comportamento é que a contribuição dos graus de liberdade fermiônicos para o calor específico em baixas temperaturas é linear com T , cV ∼ cte T . Em geral, na temperatura ambiente, esta contribuição resulta desprezível frente a contribuição das vibrações da rede cristalina, a contribuição dos fônons (que são bósons), que é da ordem T 3 : cV ∼ a T + b T 3 (5.21) Vamos então determinar as funções termodinâmica do gás de Fermi a temperaturas finitas T ≪ TF . Temos que resolver as integrais em (5.9) e (5.10) para o número médio de partículas e a energia interna do gás, respectivamente. Notamos que todas as integrais são da forma: Z ∞ I= φ(ǫ)f (ǫ) dǫ (5.22) 0 Daniel A. Stariolo - IF-UFRGS - 2014 73 onde φ(ǫ) = Aǫn , com n ≥ 1/2. Integrando por partes em I, chamando u = f (ǫ) e dv = φ(ǫ)dǫ, obtemos: Z ∞ ∞ I = f (ǫ)v(ǫ)|0 − f ′ (ǫ)v(ǫ)dǫ 0 Z ∞ = − f ′ (ǫ)v(ǫ)dǫ (5.23) 0 Rǫ onde v(ǫ) = 0 φ(u)du. Como f ′ (ǫ) é nula em quase todo o intervalo de integração exceto em uma região estreita no entorno de ǫ = µ, podemos expandir v(ǫ) em série de Taylor no entorno de ǫ = µ: ∂v v(ǫ) = v(µ) + (ǫ − µ) + . . . ∂ǫ ǫ=µ ∞ X 1 ∂ k v (ǫ − µ)k . (5.24) = k k! ∂ǫ ǫ=µ k=0 Então, as integrais se reduzem a integrais do tipo: Z ∞ Ik = − f ′ (ǫ)(ǫ − µ)k dǫ (5.25) 0 Cambiando variáveis para x = β(ǫ − µ), podemos reescrever: Z ∞ xk ex 1 dx Ik = k β −βµ (ex + 1)2 Para T ≪ TF : (5.26) ∞ xk ex dx + O(e−βµ ) (5.27) x + 1)2 (e −∞ Desprezando a correção exponencial e notando que as integrais para k ímpares se anulam, obtemos para as duas primeiras contribuições: 1 Ik = k β I0 = 1 Z π2 I2 = 2 3β (5.28) Por tanto: 1 ∂ 2 v I2 + . . . I = v(µ) I0 + 2 ∂ǫ2 ǫ=µ Z µ π 2 ∂ 2 v (kB T )2 + O(T 4 ) = φ(s) ds + 2 6 ∂ǫ ǫ=µ 0 (5.29) Daniel A. Stariolo - IF-UFRGS - 2014 74 Com estes resultados é possível obtermos expressões para o número de partículas, a energia interna e a equação de estado do gás de Fermi a temperaturas baixas: Z ∞ Z ∞ hNi = = gV D(ǫ) f (ǫ) dǫ = gV C f (ǫ) ǫ1/2 dǫ 0 0 2 2 3/2 π 2 −1/2 + ... (5.30) = gV C µ + (kB T ) µ 3 12 onde C = escrever: 1 4π 2 2m 3/2 . h̄2 Reorganizando os termos da expressão anterior podemos " # 2 2 π k T B 3/2 ǫF = µ3/2 1 + + ... . (5.31) 8 µ Invertendo essa equação obtemos uma expansão para o potencial quimico a baixas temperaturas: # " 2 π2 T + ... (5.32) µ = ǫF 1 − 12 TF que mostra que µ < ǫF para T pequenas. A energia interna é dada por: Z ∞ Z ∞ U = gV ǫ D(ǫ) f (ǫ) dǫ = gV C f (ǫ) ǫ3/2 dǫ 0 0 2 5/2 π 2 2 1/2 = gV C µ + (kB T ) µ + . . . 5 4 Inserindo o resultado (5.32) na expressão anterior obtemos: " # 2 3 5π 2 T U = NǫF 1 + + ... 5 12 TF O calor específico a volume constante do gás de Fermi vem dado por: π2 T 1 ∂U = kB cV = N ∂T V,N 2 TF (5.33) (5.34) (5.35) que mostra o comportamento linear da contribuição fermiônica ao calor específico do sistema. Daniel A. Stariolo - IF-UFRGS - 2014 75 5.3 Magnetismo em um gás ideal de férmions As propriedades magnéticas dos materiais são determinadas quase exclusivamente pelos momentos magnéticos dos elétrons dos átomos do material. Os momentos magnéticos dos núcleos atômicos são da ordem de mil vezes mais fracos que os momentos dos elétrons, e por tanto podem ser desprezados para descrever as respostas magnéticas mais importantes. Desta forma, os diferentes comportamentos magnéticos observados nos materiais estão estreitamente relacionados com a estatística de Fermi-Dirac e o Princípio de Exclusão de Pauli. Em muitos materiais os momentos magnéticos apresentam uma forte interação mútua, o que origina uma rica diversidade de comportamentos e fases magnéticas, sendo os mais comuns o ferromagnetismo e o antiferromagnetismo. Por outra parte, mesmo nos casos em que os momentos magnéticos interagem de forma fraca entre si, na presença de campos magnéticos externos os elétrons apresentam dois tipos característicos de comportamentos: (a) movimento em órbitas quantizadas perpendiculares ao campo magnético aplicado, que origina um acoplamento entre os momentos angulares orbitais e o campo, e (b) os spins dos elétrons tendem a se alinharem na direção do campo magnético externo. O primeiro efeito produz o fenômeno do diamagnetismo enquanto que o segundo produz o paramagnetismo. O paramagnetismo foi estudado em uma abordagem clássica por Paul Langevin no início do século XX. Mais tarde, Wolfgang Pauli descreveu o comportamento de um gás ideal de elétrons em presença de um campo externo, o que ficou conhecido como “paramagnetismo de Pauli”. 5.3.1 Paramagnetismo de Pauli A interação entre um campo magnético e os graus de liberdade de spin dos elétrons livres leva a um desdobramento dos orbitais ou níveis de energia do sistema conhecido como “efeito Zeeman”. O Hamiltoniano do sistema é dado por: N X 1 2 ~ H= p − µ0 B.~σi 2m i i=1 (5.36) ~ é um campo magnético uniforme, µ0 é o “magneton de Bohr” e ~σ são onde B os operadores de spin. Notamos que, como a interação com o campo é local, o Hamiltoniano ainda corresponde a soma de contribuições de partícula única. O Hamiltoniano para um elétron em presença de um campo orientado na direção z Daniel A. Stariolo - IF-UFRGS - 2014 76 é: 1 2 p − µ0 Bσz 2m e por tanto o espectro de energia de um elétron resulta: H1 = 1 2 p − µ0 Bs, 2m ǫ(~p, s) = (5.37) (5.38) onde s = ±1. O potencial grande canônico é dado por: XX Ω = −kB T ln 1 + ze−βǫ(~p,s) p ~ = −kB T s=±1 β 2 ln 1 + z exp − p + βµ0 Bs . 2m s=±1 XX p ~ (5.39) No limite continuo obtemos: Z 4πkB T V ∞ 2 X β 2 2 Ω = − k ln 1 + z exp − h̄ k + βµ0Bs dk (2π)3 2m 0 s=±1 3/2 Z ∞ X kB T V 2m 1/2 −βǫ+βµ0 Bs = − ǫ ln 1 + ze dǫ (5.40) 4π 2 h̄2 0 s=±1 onde na última linha foi feito o câmbio de variáveis ǫ = h̄2 k 2 /2m. Como s = ±1, podemos escrever: Ω = Ω+ + Ω− (5.41) onde kB T V Ω± = − 4π 2 2m h̄2 3/2 Z 0 ∞ ǫ1/2 ln 1 + ze−βǫ±βµ0 B dǫ. O número médio de elétrons é dado por: ∂Ω = hN+ i + hN− i , hNi = − ∂µ T,V,B (5.42) (5.43) onde V hN± i = 2 4π 2m h̄2 3/2 Z ∞ 0 −1 ǫ1/2 1 + z −1 eβǫ∓βµ0 B dǫ. (5.44) Daniel A. Stariolo - IF-UFRGS - 2014 77 A função grande potencial termodinâmico é função do campo magnético: Ω(T, µ, V, B) = U − T S − µN − BM M é o momento magnético médio do sistema, ou magnetização: ∂Ω = µ0 (hN+ i − hN− i) . M =− ∂B T,V,µ (5.45) (5.46) Magnetização no estado fundamental Quando β → ∞ e µ0 B ≪ ǫF então µ → ǫF e z → eβǫF . O integrando de hN+ i se comporta na forma: 1+ z −1 1 1 ∼ exp (βǫ − βµ0B) 1 + exp [β (ǫ − µ0 B − ǫF )] 1 ǫ − µ0 B − ǫF < 0 ∼ 0 ǫ − µ0 B − ǫF > 0 (5.47) e 3/2 Z ǫF +µ0 B 2m ǫ1/2 dǫ h̄2 0 3/2 2 V 2m = (ǫF + µ0 B)3/2 2 2 3 4π h̄ V hN+ i = 4π 2 (5.48) Da mesma forma obtemos: 2 V hN− i = 3 4π 2 2m h̄2 3/2 (ǫF − µ0 B)3/2 (5.49) Então 1V hNi = 6 π2 1V M= 6 π2 2m h̄2 2m h̄2 3/2 h i (ǫF + µ0 B)3/2 + (ǫF − µ0 B)3/2 3/2 h i µ0 (ǫF + µ0 B)3/2 − (ǫF − µ0 B)3/2 . (5.50) (5.51) Daniel A. Stariolo - IF-UFRGS - 2014 78 Escrevendo 1V hNi = 6 π2 1V M= 6 π2 2m h̄2 2m h̄2 3/2 3/2 3/2 ǫF 3/2 µ0 ǫF h i (1 + µ0 B/ǫF )3/2 + (1 − µ0 B/ ǫF )3/2 (5.52) h i 3/2 3/2 (1 + µ0 B/ǫF ) − (1 − µ0 B/ǫF ) , (5.53) podemos fazer expansões para campos fracos µ0 B ≪ ǫF : " 3/2 2 # µ0 B 1 V 2m 3/2 ǫF + O hNi = 3 π 2 h̄2 ǫF " 3 # 3/2 µ0 B V 2m µ0 B 3/2 +O . M= 2 µ0 ǫF 2π ǫF ǫF h̄2 (5.54) (5.55) Então, para campos fracos: 3 M ∼ hNi µ0 2 µ0 B ǫF ; (5.56) isto é, a magnetização é diretamente proporcional ao campo magnético B e por tanto a susceptibilidade a campo nulo é constante e positiva: 3ρµ20 1 ∂M = (5.57) χ0 = V ∂B V,N 2ǫF T =0,B=0 Este é um dos resultados característicos do paramagnetismo de Pauli. Magnetização no limite degenerado T ≪ TF A temperatura finita a magnetização é dada por: M = µ0 (hN+ i − hN− i) 3/2 Z ∞ V 2m = µ0 ǫ1/2 {f (ǫ − µ0 B) − f (ǫ + µ0 B)} dǫ. (5.58) 4π 2 h̄2 0 Daniel A. Stariolo - IF-UFRGS - 2014 79 Para campos fracos µ0 B ≪ ǫF podemos expandir as expressões para a distribuição de Fermi, obtendo: 3/2 Z ∞ V 2m 2 µ0 B ǫ1/2 f ′ (ǫ)dǫ M ∼ − 2 2π h̄2 0 3/2 Z ∞ V 2m = µ20 B ǫ−1/2 f (ǫ)dǫ, (5.59) 2 2 4π h̄ 0 onde na segunda linha foi feita uma integração por partes. Da mesma forma se obtém para o número médio de férmions: V hNi = 4π 2 ∼ V 2π 2 2m h̄2 2m h̄2 3/2 Z ∞ 0 3/2 Z ∞ ǫ1/2 {f (ǫ − µ0 B) + f (ǫ + µ0 B)} dǫ ǫ1/2 f (ǫ)dǫ. (5.60) 0 As integrais são da forma geral analizada anteriormente e por tanto podemos usar os resultados anteriores para obter expansões em potências da temperatura para a magnetização e o número de partículas. Fazendo as substituições obtemos para a magnetização o resultado: " # 2 2 2 π kB T 3µ B hNi 1− +··· . (5.61) M= 0 2ǫF 12 ǫF A partir deste resultado podemos obter a primeira correção de temperatura finita para a susceptibilidade a campo nulo: " # 2 2 2 1 ∂M 3µ ρ π kB T χ0 = = 0 1− +··· , (5.62) V ∂B T,V 2ǫF 12 ǫF Este resultado obtido originalmente por Pauli lhe permitiu explicar a fraca dependência com a temperatura na susceptibilidade dos metais alcalinos, nos quais a temperatura de Fermi é muito alta, da ordem O(104K). Limite clássico Para altas temperaturas z ≪ 1 e então: f (x) ∼ ze−βx (5.63) Daniel A. Stariolo - IF-UFRGS - 2014 80 isto é, a distribuição de Fermi tende para a distribuição de Maxwell-Boltzmann. Substituindo nas eqs.(5.59) e (5.60) obtemos 3/2 Z ∞ 2m senh(βµ0 B) ǫ1/2 e−βǫ dǫ 2 h̄ 0 3/2 Z ∞ V z 2m cosh(βµ0 B) ǫ1/2 e−βǫ dǫ. hNi = 2 2π h̄2 0 Vz M = µ0 2 2π Dividindo as equações anteriores se obtém finalmente: µ0 B M = µ0 hNi tanh , kB T (5.64) (5.65) (5.66) que é o resultado da teoria clássica de Langevin. A susceptibilidade a campo nulo resulta χ0 hNi sech2 (µ0 βB) V T,V 2 = µ0 βρ 1 − (µ0 βB)2 + . . . ρµ20 . ≈ kB T 1 = V ∂M ∂B = µ20 β (5.67) Esta expressão se conhece como lei de Curie, sendo representativa do comportamento da maioria dos materiais paramagnéticos. É possível obter esta mesma expressão considerando um sistema clássico de N momentos dipolares distinguíveis, o que deixa evidente o caráter do limite clássico de um gás de férmions. Capítulo 6 Interações, simetrias e ordem em matéria condensada 6.1 Líquidos e gases Os fluidos, líquidos e gases, são os sistemas que apresentam o maior número de simetrias possíveis, no sentido que suas propriedades físicas não mudam frente a uma série de transformações, especialmente de coordenadas. Quando dizemos que um fluido é homogêneo e isotrópico, queremos dizer que suas propriedades são invariantes frente a translações espaciais, rotações arbitrárias e reflexões ou inversões respeito da origem de coordenadas. O conjunto de transformações que deixam um sistema invariante formam um grupo, o grupo de simetria. O grupo de simetria que inclui translações, rotações e reflexões se chama Grupo Euclideano. Tipicamente os fluidos são invariantes frente a operações do grupo euclideano. Fisicamente, isto quer dizer que o entorno ou a vizinhança de uma pequena região no interior de um fluido é a mesma independentemente que a região seja trasladada, rotada ou de que se faça uma reflexão em torno de uma origem de coordenadas. Vamos ver que, de forma geral, o mesmo não acontece com a matéria no estado sólido, os fluidos são os sistemas com a maior simetria possível. A homogeneidade de um fluido implica invariância translacional. Por exemplo, para a densidade espacial vale a relação: N 1 X ~ hn(~x)i ≡ h δ(~x − ~xi )i = hn(~x + R)i, N i 81 (6.1) Daniel A. Stariolo - IF-UFRGS - 2014 82 ~ é um deslocamento arbitrário. Em particular, se R ~ = −~x obtemos que onde R hn(~x)i = hn(0)i, ou seja, a densidade em qualquer ponto é igual à densidade na origem. Logo a densidade não depende de ~x. Outra grandeza muito importante para caracterizar o estado de um sistema é a função de correlação de dois pontos, definida como: Cnn (~x1 , ~x2 ) = hn(~x1 )n(~x2 )i N X = h δ(~x1 − ~xi )δ(~x2 − ~xj )i (6.2) i,j=1 Se o sistema possui invariância translacional então Cnn (~x1 , ~x2 ) ≡ Cnn (~x1 − ~x2 ). A transformada de Fourier da função de correlação da densidade de dois pontos é o fator de estrutura: Z S(~q) = dd~x e−i~q·~x Cnn (~x) = hn(~q)n(−~q)i onde ~x = ~x1 − ~x2 e n(~q) = Z dd x e−i~q·~x n(~x) = h é a transformada de Fourier da densidade. (6.3) X i e−i~q·~xi i (6.4) 6.2 Redes cristalinas A baixas temperaturas ou altas pressões os materias normalmente cristalizam e os átomos se organizam espacialmente em estruturas periódicas, chamadas redes cristalinas. O tipo de estrutura cristalina na qual um elemente específico irá cristalizar depende, essencialmente, do potencial interatômico. Um conceito importante para o estudo das redes cristalinas é a definição de uma rede de Bravais (segundo o Ascroft-Mermin [8]): 1. Uma rede de Bravais é uma arranjo infinito de pontos discretos, com uma estrutura e orientação que aparece a mesma vista desde qualquer um dos pontos da rede. Daniel A. Stariolo - IF-UFRGS - 2014 Figura 6.1: As 14 redes de Bravais em três dimensões 83 Daniel A. Stariolo - IF-UFRGS - 2014 84 2. Uma rede de Bravais (tridimensional) consiste de todos os pontos cujos vetores posição podem ser definidos como ~ = n1 ~a1 + n2 ~a2 + n3 ~a3 R (6.5) onde ~a1 , ~a2 e ~a3 são três vetores quaisquer não coplanares e n1 , n2 e n3 são inteiros. Os vetores ~a1 , ~a2 e ~a3 são chamados vetores primitivos e permitem “desenvolver” a rede completamente. As magnitudes dos vetores primitivos são conhecidas como constantes de rede. Uma célula da rede determinada por um conjunto qualquer de vetores primitivos se chama célula primitiva . Uma célula primitiva também permite obter toda a rede por translações ao longo dos vetores primitivos. A rede cristalina no espaço real se chama as vezes rede direta. É possível definir uma rede recíproca no espaço de momentos, da seguinte forma: ~ formando uma rede (Ashcroft-Mermin) Considere um conjunto de pontos R ~ de Bravais, e uma onda plana, eik·~r . Esta onda plana tem uma periodicidade dada pelo comprimento de onda λ = k/2π. Para um ~k arbitrário esta onda não terá, em geral, a periodicidade da rede de Bravais, mas para alguns conjuntos de vetores ~k a terá. O conjunto de todos os vetores de onda ~k que produzem ondas planas com a periodicidade de uma rede de Bravais dada é conhecido como rede recíproca. A periodicidade da rede de Bravais implica: ~ ~ ~ eik·(~r+R) = eik·~r (6.6) ~ da rede de Bravais. Pela identidade anterior, para qualquer ~r e para qualquer R podemos caracterizar a rede recíproca como o conjunto de vetores de onda ~k que satisfacem ~ ~ eik·R = 1, (6.7) ~ da rede de Bravais. para todos os R Daniel A. Stariolo - IF-UFRGS - 2014 85 É possível mostrar que a rede recíproca é ela mesma uma rede de Bravais. Podemos também definir a rede recíproca da rede recíproca, que não é mais do que a rede de Bravais original. A rede recíproca nem sempre possui a mesma simetria da rede direta. Por exemplo, a rede recíproca de um rede fcc é uma rede bcc. 6.3 Sistemas magnéticos Os spins em sistemas magnéticos podem apresentar uma grande variedade de estruturas ordenadas, tão diversas quanto as encontradas na ordem atômica cristalina. Os spins associados aos elétrons atômicos interagem entre si através de diversas forças de interação. Uma das mais importantes, que se origina nas interações eletrostáticas dos elétrons, é a interação de troca que é uma interação de curto alcance entre momentos de spin. Uma forma simplificada da mesma para um par ~ se pode escrever na forma: de spins S ~1 · S ~2 . −J S (6.8) ~ representa o operador de spin em sistemas quânticos ou o vetor de momento S dipolar magnético em sistemas clássicos. Detalhes importantes desta interação é que não depende da orientação relativa dos spins com respeito à rede cristalina. Depende apenas da orientação relativa dos vetores de spin. A interação de troca é a responsável principal pelo surgimento do ferromagnetismo em algumas substâncias como os metais de transição Fe, Ni e Co. Em um sistema com N spins em interação, o modelo mais bem sucedido para descrever uma série de propriedades dos materiais ferromagnéticos, como a transição entre fases paramagnética e ferromagnética, correlações entre spins, susceptibilidades magnéticas, calor específico, etc. é o modelo de Heisenberg: X ~i · S ~j H = −J S (6.9) i,j onde os pares {i, j} correspondem a todos os pares de vizinhos próximos, devido ao caráter de curto alcance da interação de troca. O modelo de Heisenberg pode ~i são operadores de spin, ser analizado na versão quântica, na qual as variáveis S ~i são vetores. A constante de troca J pode ou na versão clássica, na qual os S ser positiva ou negativa. Quando é positiva, a interação tende a alinhar spins Daniel A. Stariolo - IF-UFRGS - 2014 86 vizinhos, o que leva ao estado ferromagnético. Quando J < 0 a energia de troca é minimizada quando um spin fica antiparalelo aos seus vizinhos próximos, isto leva ao estado antiferromagnético, como mostrado esquematicamente na figura 6.2. Figura 6.2: Algumas estruturas magnéticas . Uma outra interação importante entre momentos magnéticos é a interação dipolar, de origem clássica, que tem a forma: g XS ~i · S ~j − 3(S ~i · êij )(êij · S ~j ) , rij3 i<j (6.10) onde êij = ~rij /rij são vetores unitários na direção que une os sítios i e j. Notamos que esta interação é de longo alcance, decaindo com a inversa do cubo da distância entre pares de spins. Ela também é anisotrópica, dependendo da orientação relativa dos spins com os vetores da rede ~rij . A interação dipolar é tipicamente Daniel A. Stariolo - IF-UFRGS - 2014 87 4 ordens de grandeza menor que a interação de troca, e por tanto não é o fator principal que leva ao alinhamento dos spins na fase ferromagnética. No entanto, seu caráter de longo alcance produz campos magnéticos locais fortes, sendo responsável pela origem dos domínios magnéticos. Uma substância ferromagnética em ausência de campo externo não apresenta, pelo geral, um alinhamento global dos spins, mas um mosaico de domínios onde os spins apontam em diferentes direções, como mostra a figura 6.3. Estas configurações são escolhidas pelo sistema para minimizar a energia magnética global. Figura 6.3: Domínios magnéticos Em alguns cristais o efeito do potencial cristalino é forte o suficiente para ser sentido pelos elétrons, produzindo a interação spin-órbita. Uma manifestação deste tipo de interação é a presença de uma campo de anisotropia sobre os spins, chamada anistropia magnetocristalina. No caso de anisotropia uniaxial de eixo fácil z, a forma mais elementar de representar sua contribuição energética é: X 2 (6.11) −D Siz i Notamos que esta anisotropia depende quadraticamente da componente z do spin, e por tanto não distingue sentidos, apenas uma direção no espaço. Esta contribuição energética contribui para o alinhamento dos spins na direção z. Quando estas três formas de interação magnética estão presentes simultaneamente em um sistema, podem dar lugar a uma variedade enorme de estruturas magnéticas no estado fundamental, dependendo das intensidades relativas de J, g e D. A temperatura finita transições de fases entre diferentes tipos de ordem magnética podem surgir. Em filmes magnéticos ultrafinos com anisotropia perpendicular, a competição entre estas interações produz transições de fase a temperaturas finitas entre estruturas semelhantes as fases dos cristais líquidos, somente Daniel A. Stariolo - IF-UFRGS - 2014 88 que neste caso as estruturas correspondem a ordem de spin e não a ordem posicional das moléculas, como se ve na figura 6.4. Figura 6.4: Domínios em filmes ultrafinos de Fe/Cu(001) com magnetização perpendicular. Existem diversas técnicas experimentais para medir ordem magnética. Uma técnica clássica é difração de nêutrons, já que o nêutron possui spin que interage com o spin eletrônico. Outras técnicas amplamente utilizadas na atualidade são microscopia de força atômica (AFM), microscopia de força magnética (MFM), e uma variedade de espectrometrias de espalhamento de elétrons, como a microscopia de varredura de elétrons, que permitem obter diretamente imagens da estrutura magnética dos átomos, como por exemplo SEMPA (Scanning electron microscopy with polarization analysis), utilizada para obter as imagnes da figura 6.4. Daniel A. Stariolo - IF-UFRGS - 2014 89 6.4 Entre os líquidos e os cristais: os cristais líquidos Os líquidos e os sólidos são dois casos extremos de ordem e simetria. Os líquidos apresentam a máxima simetria possível do grupo espacial: translações e rotações arbitrárias em R3 . Os líquidos são estruturalmente desordenados, apresentam apenas ordem de curto alcance. Já os sólidos cristalinos apresentam um grupo de operações de simetria muito reduzido respeito dos líquidos: são invariantes frente um conjunto discreto de translações compatíveis com a periodicidade da rede, e possivelmente frente a um conjunto discreto de rotações. Apresentam ordem de longo alcance, originado na estrutura cristalina periódica. Daqui em diante vamos definir a ordem determinada pela invariância frente a translações espaciais como sendo uma ordem posicional, e a ordem por invariância frente a rotações como ordem orientacional. Entre estes dois extremos existem materiais que apresentam todo um espectro de simetrias e ordens intermediários. O exemplo paradigmático são os cristais líquidos, substâncias formadas por moléculas anisométricas (sem simetria esférica). Moléculas típicas que formam cristais líquidos são de dois tipos básicos: alongadas (moléculas calamíticas) ou com forma de disco (moléculas discóticas). Em geral, a parte interna destas moléculas é rígida e a parte externa, fluida. Este caráter duplo da estrutura das moléculas dá origem a interações chamadas estéricas, que levam a diversos tipos de ordem orientacional, juntamente com o caráter fluido das fases líquidas. • A altas temperaturas, as moléculas em um cristal líquido (que podemos representar esquematicamente como elipsoides alongados, como na figura 6.6), estão desordenadas. A desordem diz respeito tanto aos seus centros de massa (desordem posicional) quanto as orientações dos eixos de simetria das moléculas (desordem orientacional). Neste regime, o cristal líquido apresenta uma estrutura idêntica à de um fluido isotrópico. O fator de estrutura (em função de ~k1 , ~k2 , ~k3 ) apresentará tipicamente duas cascas esféricas com raios correspondentes aos dois comprimentos característicos das moléculas: o comprimento l e o diâmetro a. Em uma projeção bidimensional, como na figura 6.7, as esferas serão círculos. • Quando o líquido é resfriado abaixo de uma temperatura característica, aparece uma primeira fase ordenada conhecida como fase nemática (N, ver figura 6.6(b)). Em esta fase as moléculas apontam preferencialmente ao Daniel A. Stariolo - IF-UFRGS - 2014 90 Figura 6.5: Algumas moléculas que produzem fases de cristais líquidos e as transições de fases em função da temperatura. longo de uma direção, especificada por um vetor unitário ~n chamado diretor. Seus centros de massa permanecem desordenados. Por tanto, a fase nemática quebra a simetria orientacional mas não a translacional. È um exemplo típico de ordem orientacional. O sistema ainda apresenta invariância rotacional em um plano perpendicular ao diretor. Mas em qualquer Daniel A. Stariolo - IF-UFRGS - 2014 91 Figura 6.6: Ilustração esquemáticas das fases em cristais líquidos plano que contenha o diretor a simetria é reduzida a rotações discretas de ângulo 180o . Na realidade o diretor não é propriamente um vetor, mas um Daniel A. Stariolo - IF-UFRGS - 2014 92 pseudo-vetor, já que os dois extremos são identificados ou equivalentes. Vamos ver que a ordem nemática, diferentemente da ordem magnética por exemplo, não é vetorial, mas tensorial. Na fase nemática o fator de estrutura (ou sua projeção em 2d) reflete a quebra de simetria orientacional: ele preserva a simetria frente a rotações arbitrárias em um plano perpendicular ao diretor (círculo de raio maior na figura 6.7). mas na direção de ~n apresenta invariância de rotação apenas por ângulos de π . • Uma possibilidade mais complexa de fase nemática é produzida por moléculas quirais, como o colesterol , que não apresentam simetria frente a reflexões. Estas moléculas produzem uma fase nemática quiral ou colestérica, (N ∗ ). Nesta fase, as moléculas na direção de alinhamento giram formando uma hélice, com um passo que é tipicamente de alguns milhares de angstroms. Por tanto as moléculas colestéricas espalham luz visível. • Diminuindo mais a temperatura se pode passar de uma fase nemática para uma nova fase chamamda fase esmética-A (Sm − A, ver figura 6.6(c)). Nesta fase as moléculas se organizam em camadas bem diferenciadas. Os planos das camadas são perpendiculares aos eixos maiores das moléculas, e a espessura destas camadas corresponde tipicamente ao comprimento l das moléculas. Em cada camada as moléculas se encontram desordenadas posicionalmente e podem fluir nos planos. As camadas correspondem à presença de uma onda de densidade na direção perpendicular as mesmas. Por tanto existe ordem translacional ou posicional na direção perpendicular as camadas, ao longo dos eixos moleculares, ou paralelo ao diretor ~n. A onda de densidade pode ser definida como: hn(~x)i = n0 + 2nq0 cos (q0 z), (6.12) onde q0 = 2π/l, e o eixo z é perpendicular aos planos. Esta onda de densidade produz um fator de estrutura caracterizado por dois picos de Bragg simétricos em ±q0 : S(~q) = |hnq0 i|2 (2π)3 [δ(~q − q0 êz ) + δ(~q + q0 êz )] . (6.13) • Em alguns cristais líquidos a fase esmética apresenta um projeção finita do diretor sobre o plano das camadas, o diretor está inclinado respeito da normal as camadas. Ainda mais, a projeção apresenta uma direção definida, como mostra a figura 6.6(d). Esta fase é chamada fase esmética C (Sm − Daniel A. Stariolo - IF-UFRGS - 2014 93 Figura 6.7: O fator de estrutura nos cristais líquidos C). A fase esmética C possui uma simetria inferior a da fase esmética A. A direção da projeção de ~n no plano das camadas define um eixo c ou diretor- Daniel A. Stariolo - IF-UFRGS - 2014 94 c. Pode haver uma transição entre as fases esmética A e esmética C. O fator de estrutura nestas fases tem a forma genérica descrita na figura 6.7(c) e (d). • Quando um cristal líquido na fase esmética A é resfriado, ele pode condensar em uma fase cristalina, com ordem posicional de longo alcance, ou então pode condensar na chamada fase esmética B. Na fase esmética B o cristal líquido apresenta ordem orientacional de quase-longo alcance no plano das camadas, com simetria rotacional de ordem 6. Uma fase com esta simetria frente a rotações se chama fase hexática. No fator de estrutura, esta simetria se manisfesta pela presença de arcos difusos no entorno dos valores de q = 2π/a, separados por ângulos de 2π/6, como mostra a figura 6.8. Notar a difereça entre os picos de Bragg de uma fase cristalina com simetria hexagonal, na qual as moléculas se encontram sobre os vértices de uma rede triangular no plano, e os picos difusos, ou quase-picos de Bragg de uma fase com ordem orientacional hexática, onde as moléculas não ocupam os sítios de uma rede cristalina perfeita. O fator de estrutura de uma fase hexática no plano pode ser expandido em série de Fourier: X S(θ) = S6n cos (6nθ) (6.14) n onde θ corresponde a um ângulo no plano a partir do máximo mais intenso do fator de estrutura, por exemplo. De forma semelhante, se pode definir o grau de ordem em uma fase hexática através do parâmetro de ordem complexo: Ψ6 = e6iθ (6.15) onde θ representa o ângulo entre a linha que une dois átomos e o eixo x, por exemplo. Daniel A. Stariolo - IF-UFRGS - 2014 95 Figura 6.8: a) Estrutura cristalina hexagonal e fator de estrutura, b) Ordem orientacional na fase hexática e fator de estrutura 6.5 Simetrias e parâmetros de ordem Como se pode concluir do visto até aqui, considerações de simetria têm um papel central na matéria condensada. Os fenômenos mais dramáticos da matéria condensada, as transições de fase, muitas vezes podem ser analizadas e entendidas a partir de transformações das condições de simetria do sistema frente a variação de parâmetros externos, como temperatura, pressão ou campos elétricos e magnéticos. Um sistema físico é descrito analíticamente pelo Hamiltoniano do mesmo. O Daniel A. Stariolo - IF-UFRGS - 2014 96 Hamiltoniano apresenta invariância frente a algumas operações de simetria, que permitem tirar conclusões sobre o comportamento e a estrutura do sistema sob diferentes condições. Em um gás ideal por exemplo, o Hamiltoniano é invariante frente ao grupo espacial composto por translações, rotações e reflexões arbitrárias do espaço, além de translações e reversão temporal. O Hamiltoniano de Heisenberg (6.9) é invariante frente a translações e reversão temporal além de rotações globais dos spins respeito de um eixo arbitrário. Tipicamente, a altas temperaturas ou em sistemas diluidos, o sistema se encontra em uma fase desordenada, a qual é invariante frente a operações do mesmo grupo G de invariância do Hamiltoniano. Em uma transição de fase alguma invariância é quebrada. Operadores que não permanecem invariantes através de uma transição de fases são chamados parâmetros de ordem. No modelo de Heisenberg, a magnetização: X ~ = 1 ~i M S N i (6.16) é o parâmetro de ordem. A invariância frente ao grupo de rotação simultânea de todos os spins em R3 existente no Hamiltoniano do modelo de Heisenberg é quebrada para T < Tc , onde Tc é a temperatura crítica do modelo. Acima de Tc , ~ = 0, e abaixo de Tc , hMi ~ = hMi 6 0. O grupo de simetria original é reduzido ~ . O sistema não é mais ao subgrupo de rotações respeito a eixos paralelos a M ~. A invariante frente a rotações dos spins respeito de eixos perpendiculares a M fase ordenada do modelo de Heisenberg é uma fase com simetria quebrada. Para especificar completamente o comportamento de uma fase ordenada, temos que saber como o parâmetro de ordem se transforma frente a uma operação do grupo de simetria. No caso do modelo de Heisenberg, o grupo de simetria é o grupo das rotações. A quebra de simetria em uma transição de fases se reflete na estrutura termodinâmica do sistema: o número de mínimos na energia livre é igual ao número de elementos do grupo de simetria associado ao parâmetro de ordem. Para explorar esta interpretação é importante distinguir grupos de simetria discretos e continuos. Se o grupo de simetria for discreto então existirão um número discreto de fases termodinâmicas equivalentes, enquanto que no caso do grupo ser continuo haverá uma variedade continua onde cada ponto representa uma possível fase termodinâmica. O modelo de Ising é um exemplo do primeiro caso e o modelo de Heisenberg pertence ao último grupo. Outra distinção importante é entre simetrias locais ou globais. Um sistema possui uma simetria local se é invariante frente a operações do grupo de simetria Daniel A. Stariolo - IF-UFRGS - 2014 97 aplicadas localmente, a uma parte do sistema. Este caso é o menos comum. O Hamiltoniano do modelo de Heisenberg possui uma simetria global, que corresponde à rotação simultânea dos spins por um ângulo fixo respeito de qualquer eixo. O grupo de simetria correspondente é o O3 , o grupo de rotações em três dimensões. • O modelo de Ising representa um material ferromagnético com um eixo de anisotropia que força os spins a apontar em um única direção. O Hamiltoniano é: X H = −J σi σj (6.17) hiji onde σi = ±1. O grupo de simetria do parâmetro de ordem, a magnetização, é o grupo discreto Z2 . • Uma generalização do modelo de Heisenberg onde o parâmetro de ordem tem n componentes é o modelo O(n), cujo grupo de simetria continua é o On . Este modelo é interessante porque se reduz ao modelo de Ising no caso n = 1, ao modelo chamado XY para n = 2, ao modelo de Heisenberg para n = 3, e é exatamente solúvel no limite n → ∞. • O modelo XY corresponde a um ferromagneto com um “plano fácil”. O vetor de magentização é forçado a estar sobre o plano. Possui um grupo de simetria continua, que é o O2 . Outra realização desta simetria é na transição líquido normal- superfluido. Neste caso, o parâmetro de ordem é a função de onda do líquido quântico: Ψ = |Ψ| eiθ (6.18) que é um número complexo e por tanto pode ser representado como um vetor em duas dimensões, com módulo |Ψ| e fase θ. Na representação complexa o grupo de simetria é o U(1). Capítulo 7 Transições de fase e fenômenos críticos 7.1 O modelo de Ising em d = 1: solução exata O modelo de Ising foi originalmente concebido como um modelo para um material ferromagnético com forte anisotropia uniaxial, no qual os momentos magnéticos apontam preferencialmente em uma direção. Neste sentido é um sistema mais simples, com menos graus de liberdade, do que o modelo de Heisenberg no qual os dipolos podem apontar em qualquer direção no espaço. O próprio Ising obteve a solução completa da termodinâmica do modelo em uma dimensão espacial. O Hamiltoniano do modelo de Ising em um campo magnético externo B é dado por: H = −J X hiji σi σj − B N X σi (7.1) i=1 onde σi = ±1 e h. . .i indica uma soma a todos os pares de primeiros vizinhos. Para resolver o modelo em uma dimensão é útil rescrever o Hamiltoniano em uma forma simétrica: H = −J N X i=1 N 1 X (σi + σi+1 ) σi σi+1 − B 2 i=1 (7.2) e vamos considerar condições de contorno periódicas identificando σN +1 = σ1 . Deste forma a cadeia fica fechada formando um anel e os efeitos das bordas do 98 Daniel A. Stariolo - IF-UFRGS - 2014 99 sistema aberto são suprimidos. No limite termodinâmico estas condições de contorno não afetam os resultados, que coincidem com os da cadeia original aberta nos extremos. A função de partição canônica pode ser escrita na forma: X X PN 1 (7.3) Z(T, B) = ··· eβ i=1 {Jσi σi+1 + 2 B(σi +σi+1 )} σ1 =±1 = X σ1 =±1 σN =±1 ··· X hσ1 |P |σ2 ihσ2 |P |σ3 i · · · hσN −1 |P |σN ihσN |P |σ1i. σN =±1 Na expressão anterior P denota o operador com elementos de matriz dados por: 1 hσi |P |σi+1 i = exp β Jσi σi+1 + B(σi + σi+1 ) (7.4) 2 P é chamada de matriz de transferência. Pela definição anterior: β(J+B) h+1|P | + 1i h+1|P | − 1i e e−βJ P = = h−1|P | + 1i h−1|P | − 1i e−βJ eβ(J−B) (7.5) Como todos os termos têm a mesma estrutura, a função de partição se reduz a: X N hσ1 |P N |σ1 i = T r P N = λN (7.6) Z(T, B) = 1 + λ2 σ1 =±1 onde λ1 e λ2 são os autovalores da matriz de transferência P . Os autovalores são determinados pelo determinante secular β(J+B) −βJ e − λ e =0 (7.7) −βJ β(J−B) e e −λ cuja solução é: 1/2 λ± = eβJ cosh (βB) ± e−2βJ + e2βJ sinh2 (βB) (7.8) Se pode verificar que λ− < λ+ de forma que (λ− /λ+ )N → 0 quando N → ∞. Assim, só o maior autovalor determina o comportamento do sistema no limite termodinâmico. A energia livre de Helmholtz é dada por: F (T, B) = −kB T ln Z(T, B) ≈ −NkB T ln λ+ (7.9) o n −4βJ 1/2 = −NJ − NkB T ln cosh (βB) + e + sinh2 (βB) Daniel A. Stariolo - IF-UFRGS - 2014 A magnetização por sítio m = M/N é dada por: 1 ∂F sinh (βB) m(T, B) = − = 1/2 N ∂B T e−4βJ + sinh2 (βB) 100 (7.10) Notamos que se o campo externo for nulo a magnetização também será zero para qualquer temperatura finita. Isto elimina a possiblidade de ter uma transição de fase para uma fase com magnetização espontânea a temperatura finita. Por este motivo o própio Ising considerou que o modelo não apresentava maior interesse. No entanto, também é possível ver que para T = 0 a magnetização satura no valor m = 1 independentemente do valor de B, o que indica a presença de uma transição de fase a T = 0. Também, a partir do resultado anterior, podemos obter a magnetização do paramagneto fazendo J = 0 → m = tanh (βB). Para campos externos fracos B ≪ 1 podemos aproximar os senos hiperbólicos pelo primeiro termo da série de Taylor, linear em βB, e derivando em relação ao campo obtemos a susceptibilidade da cadeia de Ising no regime de resposta linear: ∂m e2J/kB T χ0 (T ) = = (7.11) ∂B T kB T Notamos que a susceptibilidade diverge exponencialmente para T → 0, diferentemente do que acontece em um ponto crítico usual onde a divergência é como lei de potência χ ∼ (T − Tc )−γ . A densidade de energia interna u = U/N a campo nulo é dada por: u0 (T ) = − 1 ∂ ln Z(T, B = 0) = −J tanh (βJ) N ∂β (7.12) e o calor específico: c0 (T ) = ∂u0 = kB (βJ)2 sech2 (βJ) ∂T (7.13) O calor específico apresenta apenas um máximo arredondado, como se pode ver na figura 7.1, semelhante ao que acontece em qualquer sistema de dois estados, o que é conhecido como efeito Schottky. Como a cadeia de Ising é um sistema de spins em interação, é natural supor que os spins devem apresentar correlações. Vejamos como calcular funções de correlação spin-spin neste sistema. Fixamos B = 0 e vamos permitir que a constante de interação J = Ji seja agora função da posição, por motivos apenas Daniel A. Stariolo - IF-UFRGS - 2014 101 Figura 7.1: O calor específico da cadeia de Ising. técnicos que serão esclarecidos a seguir. Além disso, vamos considerar agora uma cadeia aberta, de forma que possui somente N − 1 pares de vizinhos próximos. Desta forma, a função de partição do sistema pode ser escrita como: Z(T, J1 , . . . , JN −1 ) = X σ1 =±1 ··· −1 X NY eβJi σi σi+1 (7.14) σN =±1 i=1 A correlação entre um par de spins vizinhos é definida como: 1 ∂ 1 1 ∂ Z= ln Z hσk σk+1 i = Z β ∂Jk β ∂Jk (7.15) Notamos que os fatores em 7.14 com σ1 e σN aparecem apenas uma vez. Somando o correspondente com σN obtemos: X eβJN−1 σN−1 σN = 2 cosh (βJN −1σN −1 ) = 2 cosh (βJN −1 ) (7.16) σN =±1 onde a última identidade se deve a que o cosh é função par e σi = ±1. Procedendo com as somas podemos escrever uma relação de recorrência para a função de partição: Z(T, J1 , . . . , JN −1 ) = 2 cosh (βJN −1 )Z(T, J1 , . . . , JN −2 ) (7.17) Daniel A. Stariolo - IF-UFRGS - 2014 102 Substituindo os valores do lado direito obtemos uma solução para a iteração: Z(T ) = −1 X NY [2 cosh (βJi )] = 2 N σ1 =±1 i=1 N −1 Y cosh (βJi ) (7.18) i=1 e por tanto ln Z(T ) = N ln 2 + N −1 X ln cosh (βJi ) (7.19) i=1 Aplicando a definição (7.15) obtemos: hσk σk+1 i = tanh (βJk ) (7.20) Para obter a correlação entre um par de spins separados por uma distância arbitrária r, notamos que como σi = ±1: hσk σk+r i = h(σk σk+1 )(σk+1 σk+2 ) . . . (σk+r−1 σk+r )i 1 1 ∂ 1 ∂ 1 ∂ = ··· Z Z β ∂Jk β ∂Jk+1 β ∂Jk+r−1 k+r−1 Y = tanh (βJi ) (7.21) i=k Como estamos interessados em um valor constante para a interação Ji = J ∀i, obtemos: hσk σk+r i = tanhr (βJ) (7.22) Notamos que a T = 0 a correlação entre qualquer par de spins hσk σk+r i = 1, o que corresponde a qualquer dos estados fundamentais com todos os spins positivos ou todos negativos. Para T > 0 podemos escrever hσk σk+r i = e−r/ξ (7.23) onde definimos o comprimento de correlação ξ(T ): ξ(T ) = [ln coth (βJ)]−1 (7.24) Para temperaturas baixas βJ ≫ 1: 1 ξ ≈ e2βJ 2 (7.25) Daniel A. Stariolo - IF-UFRGS - 2014 103 que diverge exponencialmente para T → 0. Então vemos que, para temperaturas finitas, os spins do sistema apresentam uma correlação que decai exponencialmente com a distância entre o par de spins considerados. Por sua vez, a correlação decai com uma distância típica ξ, o comprimento de correlação, que depende da temperatura, sendo muito grande a temperaturas baixas e divergindo quando T → 0, como acontece em geral no ponto crítico de transições de fase continuas, embora a divergência neste caso seja exponencial en lugar de algébrica como nos pontos críticos usuais. Neste sentido, o modelo de Ising em d = 1 é anômalo pois não apresenta magnetização espontânea a temperatura finita e apenas apresenta uma transição de fase a temperatura nula. 7.2 Teoria de campo médio do modelo de Ising Quando vamos de uma dimensão para dimensões superiores as dificuldades técnicas para resolver a mecânica estatística aumentam consideravelmente, e pouquissimos sistemas podem ser resolvidos de forma exata. Então é importante desenvolver ferramentas para aproximar o cálculo. Existe um grande número de técnicas para obter soluções aproximadas de modelos estatísticos, como expansões em séries de alta e baixa temperatura, simulações computacionais, aproximações baseadas em teorias de campos. A mais simples aproximação de aplicação geral a muitos sistemas é a teoria de campo médio. A teoria de campo médio começou com a aproximação da equação de estado para um líquido clássico por van der Waals (1873). Em 1906, Pierre Weiss desenvolveu uma aproximação equivalente para estudar a transição de fase em materiais ferromagnéticos. Em 1934, W. L. Bragg e E. J. Williams desenvolveram uma aproximação de campo médio para a transição ferromagnética equivalente a de Weiss mas que pode ser generalizada facilmente a diferentes sistemas e situações. 7.2.1 Aproximação de Bragg-Williams Na aproximação de Bragg-Williams começamos calculando a entropia correspondente a configurações dos spins com magnetização fixa m. A magnetização do modelo de Ising (7.1), m = hσi i, é igual a m = (N+ − N− )/N, onde N+ é o número de spins para cima, N− é o número de spins para baixo e N é o número total de spins no sistema. Para um dado valor de m existe um número grande de configurações possíveis de spins para cima (+) ou para baixo (-). O logaritmo desse número é o número Daniel A. Stariolo - IF-UFRGS - 2014 104 de estados de microestados de magnetização m, ou entropia microcanônica do sistema: S N N = ln = ln N+ N(1 + m)/2 kB N! (7.26) = ln (N(1 + m)/2)!(N(1 − m)/2)! Usando a aproximação de Stirling para N grande: ln N! = N ln N − N + O(ln N) (7.27) obtemos S s(m) 1 1 ≡ = ln 2 − (1 + m) ln (1 + m) − (1 − m) ln (1 − m) kB N kB 2 2 (7.28) Para obter o potencial termodinâmico de interesse, f (T, m) = U(m) − T S(m), temos que calcular a energia interna, U = hHi: −1 U = Zm T rm H e−βH . (7.29) Notar que T rm é um traço restrito a configurações com magnetização m, Zm = T rm e−βH , β = 1/kB T e kB é a constante de Boltzmann. O cálculo de Zm é complexo e equivale a obter a solução exata para o modelo. Em seu lugar realizamos um cálculo aproximado. Na aproximação de Bragg-Williams se substitui o valor local do spin σi por seu valor médio m independente da posição : U = −J X ≈ −J X hiji hi,ji hσi σj i − B 2 m −B N X i=1 N X i=1 hσi i 1 m = − JNzm2 − NBm, 2 (7.30) onde z é o número de vizinhos próximos dos sítios da rede. Na rede quadrada em d dimensões z = 2d. A densidade de energia livre de Bragg-Williams é dada por: f (T, m) = (U − T S)/N kB T 1 [(1 + m) ln (1 + m) + (1 − m) ln (1 − m)] = − Jzm2 − Bm + 2 2 −kB T ln 2 (7.31) Daniel A. Stariolo - IF-UFRGS - 2014 105 Figura 7.2: A energia livre na aproximação de Bragg-Williams. O comportamento da função f (T, m) para B = 0 está representado graficamente para diversas temperaturas na figura 7.2. Na figura da esquerda, para campo externo nulo, vemos que a altas temperaturas a função apresenta um único mínimo, para m = 0. Esta é a fase paramagnética. A uma temperatura bem definida Tc a função passa a ter dois mínimos simétricos ±m. O valor absoluto destes mínimos cresce a medida que a temperatura baixa com |m| → 1 quando T → 0. No entorno de Tc o valor de m é muito pequeno, en então podemos expandir as funções termodinâmicas em potências de m: 1 1 s(m) = ln 2 − m2 − m4 + . . . 2 12 (7.32) Daniel A. Stariolo - IF-UFRGS - 2014 106 e 1 1 f (T, m) = (kB T − zJ)m2 + kB T m4 − kB T ln 2 + . . . (7.33) 2 12 Para T fixa, a função f apresenta um mínimo único em m = 0 se T ≥ zJ/kB . Exatamente em Tc = zJ/kB a função desenvolve dois mínimos simétricos com m 6= 0. Esta temperatura indica a presença de uma quebra espontânea da simetria de inversão do modelo de Ising, assinatura de uma transição de fase de segunda ordem, na temperatura crítica: zJ (7.34) Tc = kB Em presença de um campo magnético externo B, a energia livre f − mB é assimétrica, como mostra a figura da direita em 7.2. Para temperaturas altas T > Tc a energia livre apresenta um único mínimo m > 0. Em T = Tc aparece um segundo mínimo local. O mínimo com m > 0 continua sendo o mínimo absoluto para T < Tc , e por tanto o comportamento do parâmetro de ordem não muda neste caso em T = Tc . A equação de estado em presença de um campo externo é dada por: ∂f kB T = −zJm − B + ln [(1 + m)/(1 − m)] ∂m 2 = −zJm − B + kB T tanh−1 m = 0 (7.35) Então m = tanh [β(B + zJm)]. (7.36) A quantidade B + zJm é o campo local médio, o mesmo para todos os sítios do sistema. Ele tem uma contribuição do campo externo B e uma contribuição proveniente do campo molecular produzido pelos vizinhos próximos de um sítio, zJm = kB Tc m. O comportamento da equação de estado pode ser visualizado na figura 7.3. Expandindo a equação de estado para temperaturas baixas e campo nulo obtemos: m = tanh (βzJm) ≈ 1 − 2 e−2βzJ (7.37) e por tanto m → 1 exponencialmente rápido com T . Perto da temperatura de transição m ≪ 1 e podemos expandir para m pequeno (tanh x ∼ x − x3 /3 + . . .): 1 1 m ≈ (Tc /T )m − (Tc /T )3 m3 ≈ (Tc /T ) m − m3 , 3 3 (7.38) Daniel A. Stariolo - IF-UFRGS - 2014 107 Figura 7.3: A equação de estado na aproximação de Bragg-Williams. onde no último passo aproximamos (Tc /T )3 ∼ 1 já que o termo cúbico tende para um mais rápido que o termo linear quando T → Tc . Notamos que m = 0 é sempre solução. Existem outras duas soluções com m 6= 0: m = ±[3(Tc − T )/T ]1/2 (7.39) Vemos que m va a zero de forma continua a medida que T → Tc . A transição de fase ferromagnética-paramagnética é uma transição de segunda ordem na aproximação de campo médio. O expoente 1/2 é um exemplo de expoente crítico. Este comportamento da magnetização que decai continuamente para zero com uma lei de potências e o correspondente expoente crítico, é uma manifestação genérica Daniel A. Stariolo - IF-UFRGS - 2014 108 de transições de fase de segunda ordem, ou continuas. Todos os sistemas cujo parâmetro de ordem apresenta o mesmo comportamento crítico, no sentido do parâmetro de ordem ir a zero com uma lei de potências caracterizada por um mesmo expoente, pertencem a mesma classe de universalidade [6]. Na aproximação de Bragg-Williams, como desenvolvida acima, assumimos que o parâmetro de ordem é espacialmente uniforme hσi i = m. Esta condição pode ser relaxada para permitir um parâmetro espacialmente variável hσi i = mi . Neste caso a energia livre é escrita na forma: F =− X 1X Jij mi mj − T s(mi ) 2 i (7.40) hi,ji Esta forma é preferível para tratar casos nos quais o parâmetro de ordem não é uniforme, como é o caso de fases moduladas em cristais líquidos, ou diferentes tipos de ordem antiferromagnética. Para fechar esta seção sobre a aproximação de campo médio do modelo de Ising, notamos que o ponto de partida foi desenvolver uma aproximação para a energia livre do modelo como função do parâmetro de ordem, a magnetização m, em lugar da variável natural da energia livre de Helmholtz, que é o campo magnético B. Esta alternativa é fundamental no formalismo da teoria de Landau que vamos ver a continuação. 7.3 A teoria de Landau de transições de fase Até aqui vimos que o programa da mecânica estatística tem sido o cálculo da função de partição de um sistema, a partir da qual é possível fazer uma conexão rigorosa com a termodinâmica do mesmo. No entanto o cálculo da função de partição é uma tarefa pelo geral complexa , e então é desejável poder ter acesso aos potenciais termodinâmicos por caminhos alternativos, a partir de premisas gerais sobre o comportamento do sistema, mesmo sem contar com uma descrição detalhada a partir do Hamiltoniano do mesmo. Landau propós uma abordagem deste problema de caráter muito geral, fenomenológica, baseada nas propriedades de simetria do potencial termodinâmico F (T, N, V, hφ(~x)i), onde hφ(~x)i é o parâmetro de ordem do sistema considerado (magnetização, densidade). Daniel A. Stariolo - IF-UFRGS - 2014 109 7.3.1 Transições de fase continuas A teoria de Landau parte da premisa que a forma do potencial F pode ser deduzida essencialmente através das seguintes observações: • F (T, N, V, hφ(~x)i) deve ser uma função invariante respeito de operações do grupo de simetria G da fase desordenada. O segundo ponto fundamental na teoria de Landau é a seguinte observação: • Perto da transição de fase, o parâmetro de ordem é pequeno (em uma transição de segunda ordem), e então se pode fazer uma expansão do potencial F em série de Taylor do parâmetro de ordem: ∞ X F = an ([K], T ) φn f (T, φ) ≡ V n=0 (7.41) onde φ = hφ(~x)i. Vamos assumir por enquanto que o parâmetro de ordem é espacialmente homogêneo. Também vamos assumir daqui em diante que o número de partículas N e o volume V do sistema considerado são constantes, e por tanto não vamos incluí-los explicitamente em f . A suposição que f possa ser desenvolvida em uma série de Taylor implica que ela é uma função analítica de φ perto da transição. Na prática, a expansão (7.41) poderá ser truncada para um número pequeno de termos. Quantos termos serão necessários para descrever corretamente a transição de fase dependerá essencialmente da dimensão espacial d e da dimensão do espaço do parâmetro de ordem. No caso do modelo de Ising, o truncamento até ordem φ4 é suficiente. No entanto, é importante notar que na expansão devem estar presentes todas as combinações analíticas do parâmetro de ordem que deixam invariante f frente ao grupo de simetria G. A equação de estado para φ é: ∂f = h = a1 + 2a2 φ + 3a3 φ2 + 4a4 φ3 ∂φ (7.42) Para T > Tc o parâmetro de ordem φ deve ser nulo se o campo externo for nulo, então a1 = 0. No caso particular do modelo de Ising, o grupo de simetria G é o grupo das reflexões, e por tanto f (φ) = f (−φ). Então f somente poderá ter potências pares de φ: f = a0 + a2 φ2 + a4 φ4 . (7.43) Daniel A. Stariolo - IF-UFRGS - 2014 110 Como queremos que o estado termodinâmico seja estável para T < Tc , a4 > 0. Caso contrário poderiamos ter a solução φ → ∞ como mínimo absoluto de f . O coeficiente a0 é o valor de f para T > Tc , quando φ = 0. Se pode pensar nele como contendo as contribuições a f não provenientes do parâmetro de ordem de interesse. Nesse sentido, como o que queremos é descrever a transição de fase associada a φ, vamos considerar a0 = 0, ou então redefinir f − a0 → f . Como os coeficientes podem depender em geral da temperatura, perto da transição podemos expandi-los na forma: T − Tc 1 a2 + O((T − Tc )2 ) (7.44) Tc T − Tc 1 a4 = a04 + a4 + O((T − Tc )2 ) (7.45) Tc Se pode escolher a4 como uma constante positiva. Sua dependência em T não será dominante para determinar o comportamento termodinâmico na transição. Da equação de estado aplicada a (7.43) obtemos para φ: ( se T > Tc q0 φ= (7.46) ) ± −a2a2 (T se T < Tc 4 a2 = a02 + Então, para que φ possa ter uma solução real e finita para T < Tc se deve exigir que a02 = 0. Se acrescentamos um termo proveniente de um campo externo h conjugado de φ, a energia livre de Landau para o modelo de Ising adota a forma final: 1 (7.47) f = r φ2 + u φ4 − h φ 2 onde r = a (T − Tc ) e as constantes foram redefinidas na notação mais comum na literatura. O comportamento do potencial f está descrito na figura 7.4. É importante notar que a teoria de Landau é fenomenológica, ou seja, ela não está baseada em um modelo microscópico, tendo sido obtida apenas por argumentos de simetria. Ela fornece o comportamento qualitativo correto na proximidade de uma transição de fase continua. Por exemplo, diferentemente da aproximação de campo médio de Bragg-Williams para o modelo de Ising, a teoria de campo médio de Landau não prediz um valor para a temperatura crítica em função de parâmetros microscópicos. No entanto faz predições para grandezas universais, como expoentes críticos. De (7.46) extraimos o comporamento do parâmetro de ordem próximo da transição: φ ∼ (Tc − T )β (7.48) Daniel A. Stariolo - IF-UFRGS - 2014 111 Figura 7.4: O funcional de Landau para um modelo com simetria de Ising. Daniel A. Stariolo - IF-UFRGS - 2014 112 Vemos que φ → 0 com o expoente crítico β = 1/2. Este expoente é o mesmo que se obtém na aproximação de Bragg-Williams. Na realidade todas as aproximações de campo médio para um problema com dada simetria dão como resultado os mesmos expoentes, chamados de expoentes clássicos. Tanto a aproximação de Bragg-Williams como a teoria de Landau consideram um parâmetro de ordem homogêneo, desconsideram flutuações. Quando o papel das flutuações é incluido o expoente crítico toma valores menores, neste caso próximo de 1/3 em d = 3 e 1/8 em d = 2. Neste último caso o valor é exato. Podemos obter a equação de estado derivando (7.47) respeito de φ: r φ + 4u φ3 = h. (7.49) A susceptibilidade pode ser obtida derivando a equação de estado respeito de h: ∂φ = 1. ∂h (7.50) 1/r se T > Tc , 1/2|r| se T < Tc . (7.51) [r + 12u φ2] Obtemos: ∂φ = χ= ∂h Substituindo a dependência de r na temperatura obtemos: χ ∼ |T − Tc |−γ . (7.52) γ é o expoente crítico da susceptibilidade, que é igual a 1 na teoria de Landau, e corresponde ao valor universal de campo médio para sistemas com parâmetros de ordem tipo Ising. Em sistemas tridimensionais γ ∼ 4/3 quando são consideradas flutuações na vizinhança do ponto crítico. O parâmetro de ordem em função do campo externo na temperatura crítica também apresenta comportamento universal com o expoente δ. Novamente, a partir da equação de estado (7.49) obtemos em T = Tc : φ∼ h 4u 1/δ , (7.53) onde δ = 3. A energia livre f é zero para T > Tc e negativa para T < Tc : 0 se T > Tc f= (7.54) 2 −r /(16u) se T < Tc . Daniel A. Stariolo - IF-UFRGS - 2014 Deste resultado podemos obter o valor do calor específico: ∂2f 0 se T > Tc ; cV = −T = 2 2 T a /(8u) se T < Tc . ∂T 113 (7.55) O calor específico apresenta uma descontinuidade finita na temperatura crítica. Este calor específico da a contribuição na vizinhança da transição de fase. A função completa apresenta outra contribuição analítica associada a outros graus de liberdade. O comportamento com a temperatura de diversas grandezas termodinâmicas na aproximação de campo médio pode ser vista na figura 7.5. Notar que cV corresponde à contribuição da energia livre de Landau mais uma parte analítica proveniente de outros graus de liberdade. 7.3.2 Transições de primeira ordem na teoria de Landau Na expansão em série de Taylor do potencial termodinâmico um termo linear em φ é proibido porque φ = 0 acima da temperatura crítica. Um termo cúbico em φ foi descartado com um argumento de simetria, no caso de um sistema com simetria de Ising por causa da simetria f (φ) = f (−φ) a energia livre não pode conter termos ímpares no parâmetro de ordem. No entanto, um termo cúbico pode existir em sistemas onde a simetria da fase desordenada o permita. Consideremos a expansão do potencial nesse caso: 1 f = a t φ2 + w φ3 + u φ4 − h φ 2 (7.56) onde t ≡ T − Tc . Para h = 0 a equação de estado leva as soluções seguintes: p (7.57) φ=0 φ = −c ± c2 − a t/4u, onde c ≡ 3w/8u. Para ter uma solução real φ 6= 0 , t < t∗ ≡ 4uc2/a. Como t∗ > 0, esta condição acontece para uma temperatura maior que a temperatura crítica, que agora corresponde apenas à temperatura na qual o termo de segunda ordem em φ na energia livre se anula. A figura 7.6 mostra o andamento do potencial com a temperatura no caso w < 0. Para t < t∗ um segundo mínimo aparece, embora o mínimo absoluto ainda corresponda a φ = 0. A uma certa temperatura t1 o valor de f é igual para os dois mínimos, e abaixo desta temperatura o segundo mínimo passa a ser o mínimo global. Em t1 o parâmetro de ordem apresenta uma discontinuidade finita. Acontece uma transição de primeira ordem. Daniel A. Stariolo - IF-UFRGS - 2014 114 Figura 7.5: Comportamento de algumas grandezas termodinâmicas na teoria de Landau para um sistema com simetria Ising. No entanto, é importante levar em conta que para t → t− 1 o parâmetro de ordem não é arbitrariamente pequeno, e então, a expansão de Landau não é válida de forma geral. Quando a expansão é justificada, a preseça de um termo cúbico leva o sistema a apresentar uma transição de primeira ordem. 7.4 Flutuações do parâmetro de ordem Embora o parâmetro de ordem em um sistema homogêneo seja uma constante φ, variações espaciais φ(~x) podem ser naturais em casos com presença de campos Daniel A. Stariolo - IF-UFRGS - 2014 115 Figura 7.6: Uma transição de primeira orden na teoria de Landau. externos inomogêneos h(~x) ou em sistemas com modulações espaciais no campo φ como por exemplo, quando existem interações competitivas. De um ponto de vista microscópico, o parâmetro de ordem φ é uma média estatística φ ≡ hφi, que envolve uma soma sobre um conjunto de graus de liberdade microscópicos em uma certa região do espaço. Por tanto é válido se perguntar sobre qual o significado físico da função da posição φ(~x) em um contexto termodinâmico. Se pode dar um significado a φ(~x) considerando uma “partição” do sistema em blocos de tamanho a ≪ Λ−1 ≤ ξ(T ), onde a é a constante de rede (a distância de equilíbrio entre um par de partículas) e ζ(T ) é um comprimento que mede o alcance das correlações no sistema. Então, em uma escala Λ−1 podemos considerar que o parâmetro de ordem é efetivamente constante. Assim, definimos o parâmetro de ordem local φΛ (~x) como o valor do parâmetro dentro de um bloco com origem em ~x. Este processo se denomina granulado grosso (coarse graining). Desta forma a energia livre de Landau fica bem definida na escala dos blocos Λ. O problema agora é que ela depende da escala Λ. Temos que somar Daniel A. Stariolo - IF-UFRGS - 2014 116 as contribuições de todos os grãos que compoem o sistema. Mas a energia livre não pode P ser, como poderiamos concluir sem refletir, a soma de termos do tipo F = ~x f (φΛ (~x)), pois esta quantidade equivale a considerar que φΛ (~x) pode variar de forma independente em cada bloco. No entanto é fácil se convencer que não será bom, de um ponto de vista energético, ter grandes diferenças nos valores de equilíbrio de φΛ (~x) nos diferentes blocos. Uma forma de contornar este problema é incluir um termo que penalize grandes variações do parâmetro de ordem local (também chamado parâmetro de ordem de granulado grosso). A forma analítica mais simples que este termo pode tomar é: !2 X X c φΛ (~x) − φΛ (~x + ~δ) (7.58) −1 2 Λ δ ~ x onde ~δ é um vetor de magnitude Λ−1 apontando na direção do bloco vizinho próximo do ponto ~x, e o valor do custo em energia é independente do sinal da diferença dos parâmetros de ordem em blocos vizinhos. A constante c pode depender da temperatura. Então, considerando que φΛ (~x) varia pouco na escala a, e tomando o limite continuo, podemos escrever a energia livre de Landau na forma: Z Z 1 d (7.59) F [φΛ (~x)] = d x f (T, φΛ (~x)) + dd x c [∇φΛ (~x)]2 , 2 onde φΛ (~x) ≡ hφΛ (~x)iΛ e f (T, φ(~x)) tem a forma da densidade de energia livre de Landau homogênea (7.47). Agora a energia livre de Landau F [φΛ (~x)] é um funcional de φΛ (~x), no sentido que depende da função φΛ (~x) em todos os pontos ~x. Um corte, ou “cutoff” para distâncias menores que Λ−1 está implícito em todas as integrais. É importante notar que o funcional de Landau F , ou energia livre de Landau, NÃO É a energia livre de equilíbrio F (T, φ) do sistema. O funcional de Landau é, na verdade, uma energia livre de granulado grosso ou Hamiltoniano efetivo, no sentido que a função de partição do sistema pode ser obtida na forma: Z Z = DφΛ e−βF [φΛ (~x)] , (7.60) R onde a notação DφΛ indica uma integral funcional. Fisicamente, a integral funcional equivale a somar as contribuições de todas as configurações dos campos φ(~x) pesados com o peso estatístico correspondente. A dependência na escala Λ Daniel A. Stariolo - IF-UFRGS - 2014 117 implica que este formalismo está bem definido para distâncias grandes. Variações dos campos na escala do espaçamento de rede ou das distâncias interpartícula estão fora do alcance do formalismo. No entanto, como veremos a seguir, na análise da física na vizinhança de um ponto crítico apenas o comportamento a longas distâncias é importante. Então, realizando a integração funcional sobre os graus de liberdade ainda não integrados, podemos obter o potencial termodinâmico A(T, h) correspondente: Z(T, h) = T r e−βH = e−βA , (7.61) onde H ≡ F [φΛ (~x)] deixa explícito o caráter de Hamiltoniano “efetivo” do funcional F , e h é um campo externo conjugado do parâmetro de ordem φ. A energia livre de Helmholtz pode ser obtida via uma transformação de Legendre na forma: F (T, φ) = A(T, h) + N φh. (7.62) 7.5 Funções de correlação Considerando a possibilidade do parâmetro de ordem variar espacialmente, podemos escrever o potencial termodinâmico A na forma: A[T, ~h(~x)] = −T ln Z[T, ~h(~x)], (7.63) onde consideramos uma possível variação espacial do campo externo. Adotamos a convenção kB = 1, ou seja, daqui para frente todas as temperaturas estão em unidades da constante de Boltzmann. Notamos que tanto o potencial A quanto a função de partição Z são na verdade funcionais no sentido discutido na seção anterior. Para cada função h(~x) obtemos um valor para Z e um para A. Em presença de um campo externo local h(~x), a função de partição pode ser escrita na forma: Z R d ~ ~ ~ (7.64) Z = Dφ(~x) e−β {F [φ(~x)]− d x h(~x)·φ(~x)} , onde F [φ(~x)] é dada por (7.59) e o subíndice Λ será eliminado da notação exceto quando o significado das expressões não seja claro. O parâmetro de ordem na escala Λ, que para um sistema magnético é a magnetização local, é dado por: hφi (~x)i = 1 δZ δA =− , Z δ βhi (~x) δhi (~x) (7.65) Daniel A. Stariolo - IF-UFRGS - 2014 118 ~ e onde hφi i e hi representam a i-ésima componentes cartesianas dos vetores hφi ~h, e o símbolo δ representa uma derivada funcional. O potencial termodinâmico obedece a seguinte identidade diferencial: Z ~ x)i · δ~h(~x). dA = −S dT − dd x hφ(~ (7.66) A susceptibilidade local generalizada é dada pelo tensor: χij (~x, ~x′ ) = δhφi (~x)i , δhj (~x′ ) (7.67) ~ x). onde i, j são as componentes i e j de um parâmetro de ordem vetorial φ(~ A função de correlação conectada representa as correlações das flutuações do parâmetro de ordem em relação ao valor médio, e é dada por: Gij (~x, ~x′ ) = h[φi (~x) − hφi (~x)i][φj (~x′ ) − hφj (~x′ )i]i δ 2 ln Z 1 = β 2 δhj (~x′ )δhi (~x) 1 δhφi (~x)i = = T χij (~x, ~x′ ) ′ β δ hj (~x ) (7.68) Notamos que a função de correlação de dois pontos conectada é proporcional à susceptibilidade generalizada. A susceptibilidade ou resposta global é definida como: Z χij = dd xdd x′ χij (~x, ~x′ ) (7.69) e, em sistemas com invariância translacional, é proporcional ao limite q = 0 da transformada de Fourier da função de correlação conectada χij = lim~q→0 βGij (q) . Uma transformada de Legendre nos permite obter um potencial termodinâmico que é função do parâmetro de ordem (equivalente à energia livre de Helmholtz), em lugar de ser função do campo: Z ~ x)i] = A[T, ~h(~x)] + dd x ~h(~x) · hφ(~ ~ x)i. F [T, hφ(~ (7.70) O funcional F satisfaz a relação diferencial: Z ~ x)i. dF = −S dT + dd x ~h(~x) · δhφ(~ (7.71) Daniel A. Stariolo - IF-UFRGS - 2014 119 A equação de estado é dada por: δF = hi (~x). δhφi (~x)i (7.72) Em ausência de campo externo o estado de equilíbrio é dado pelo valor de hφi (~x)i que minimiza F . Notar que, nesta forma funcional, o parâmetro de ordem pode não ser homogêneo, o mínimo de F é determinado por uma função da posição. A Derivada funcional Consideremos um funcional Φ[h(~x)]. A derivada funcional de Φ é definida como: δΦ Φ[h(~x) + ǫδ(~x − ~y )] − Φ[h(~x)] = lim . (7.73) δh(~y ) ǫ→0 ǫ δΦ/δh(~y ) representa o câmbio induzido em Φ em resposta a um câmbio em h(~x) no ponto ~x = ~y . Utilizando esta definição é possível mostrar algumas derivadas funcionais comuns: δh(~x) = δ(~x − ~y ), (7.74) δh(~y ) onde Φ[h(x)] = h(x) é o funcional identidade. Se f é uma função de h(~x): δh(~x) δf (h(~x)) = f′ = f ′ δ(~x − ~y ), δh(~y ) δh(~y ) δh(~x) δf (g(h(~x))) = f ′ g′ = f ′ g ′ δ(~x − ~y ), δh(~y ) δh(~y ) (7.75) (7.76) onde f ′ (z) = df /dz. Por exemplo, para f (φ(~x)) = φ4 (~x): δf δφ(~x) = f′ = 4φ3 (~x)δ(~x − ~y ) δφ(~y ) δφ(~y ) (7.77) Uma situação comum na física é a de um funcional F [φ(~x)] pode ser expresso na forma Z F [φ(~x)] = dd x f (φ(~x), ∂i φ(~x)), (7.78) Daniel A. Stariolo - IF-UFRGS - 2014 120 onde ∂i φ(~x) são derivadas espaciais de φ(~x) (componentes do gradiente), então Z δf δF = dd x δφ(~y ) δφ(~y) Z ∂f δφ(~x) ∂f δ∂i φ(~x) d = d x + ∂φ(~x) δφ(~y ) ∂(∂i φ(~x)) δφ(~y ) Z ∂f ∂f d = d x δ(~x − ~y ) + ∂i δ(~x − ~y ) , (7.79) ∂φ(~x) ∂(∂i φ(~x)) onde na última linha usamos o fato que a derivada comum e a derivada funcional comutam e índices repetidos se somam. Usando: ∂f ∂f ∂f δ(~x − ~y ) = δ(~x − ~y )∂i + ∂i δ(~x − ~y ), ∂i ∂(∂i φ(~x)) ∂(∂i φ(~x)) ∂(∂i φ(~x)) integrando por partes no último termo, desprezando termos de superfície e fazendo a integral em ~x obtemos: ∂f ∂f δF = − ∂i , δφ(~y) ∂φ(~y ) ∂∂i φ(~y ) (7.80) cuja solução estacionária é semelhante a equação de movimento da mecânica Lagrangeana. Após a transformada de Legendre que leva de A para F podemos obter a inversa da função de correlação derivando F respeito de hφi (~x)i. Fazemos isto em dois passos: primeiro derivamos hφi (~x)i respeito de hφk (~x′′ )i: δhφi (~x)i = δik δ(~x − ~x′′ ) δhφk (~x′′ )i Z δhφi (~x)i δhj (~x′ ) . = dd x′ δhj (~x′ ) δhφk (~x′′ )i (7.81) onde se fez uso da regra da cadeia na derivada funcional e índices repetidos estão somados. A inversa de χij (~x, ~x′ ) é definida na forma: Z dd x′ χij (~x, ~x′ )χ−1 x′ , ~x′′ ) = δik δ(~x − ~x′′ ). (7.82) jk (~ Comparando as duas últimas identidades e usando a definição da susceptibilidade obtemos: δ2F δhi (~x) ′ χ−1 (~ x , ~ x ) = = . (7.83) ij δhφj (~x′ )i δhφj (~x′ )iδhφi (~x)i Daniel A. Stariolo - IF-UFRGS - 2014 121 7.5.1 Correlações na teoria de Landau Vamos calcular agora as funções de correlação e susceptibilidade partindo da energia livre de Landau para um campo escalar: Z Z 1 d (7.84) F = d x f (T, hφ(~x)i) + dd x c [∇hφ(~x)i]2 . 2 Substituindo para a densidade de energia livre a forma (7.47) com h = 0, obtemos: δ2F δhφ(~x)iδhφ(~x′ )i = (r + 12u hφ(~x)i2 − c∇2 )δ(~x − ~x′ ). χ−1 (~x, ~x′ ) = (7.85) O último termo corresponde ao operador Laplaciano, e se obtém após integrar por partes a variação do termo do gradiente quadrado, e desprezar um termo de superfície: Z Z δ δ d d d x ∂ φ(~ x )∂ φ(~ x ) = d x [∂i φ(~x)∂i φ(~x)] i i δφ(~x′ ) δφ(~x′ ) Z Z δ δφ(~x) d = d x 2∂i φ(~x) ∂i φ(~x) = 2 dd x ∂i φ(~x)∂i ′ δφ(~x ) δφ(~x′ ) Z = 2 dd x ∂i φ(~x)∂i δ(~x − ~x′ ). (7.86) Usando ∂i [∂i φ(~x)δ(~x − ~x′ )] = ∂i2 φ(~x)δ(~x − ~x′ ) + ∂i φ(~x)∂i δ(~x − ~x′ ), (7.87) e desprezando o termo de superfície, obtemos: Z Z δ d d x ∂i φ(~x)∂i φ(~x) = −2 dd x ∂i2 φ(~x)δ(~x −~x′ ) = −2∂i2 φ(~x′ ). (7.88) ′ δφ(~x ) Finalmente, δ −2∂i2 φ(~x′ ) = −2∂i2 δ(~x − ~x′ ), δφ(~x) (7.89) que leva ao resultado em (7.85). O mesmo resultado pode ser obtido diretamente aplicando a expressão geral obtida em (7.80). Daniel A. Stariolo - IF-UFRGS - 2014 122 Usando agora a relação (7.82), que define a inversa de χ, obtemos: (r + 12u hφ(~x)i2 − c∇2 ) χ(~x, ~x′ ) = δ(~x − ~x′ ), (7.90) ou, usando (7.69): (r + 12u hφ(~x)i2 − c∇2 ) G(~x, ~x′ ) = T δ(~x − ~x′ ). (7.91) A solução geral destas equações é complicada pela dependência em hφ(~x)i2 . Assumindo que o sistema apresenta invariância translacional é possível resolver para χ(~x, ~x′ ) por transformanda de Fourier: Z χ(~q) = dd x χ(~x) e−i~q·~x (7.92) Se o parâmetro de ordem é homogêneo e dado pela solução de campo médio de Landau obtemos: 1 r + 12u hφi2 + cq 2 1 , = 1 + (qζ)2 χ(~q) = onde ζ(T ) = c r + 12u hφi2 1/2 (7.93) (7.94) tem unidades de comprimento. Fazendo a transformada inversa de Fourier da susceptibilidade, ou da função de correlação que é equivalente, é possível mostrar que ζ(T ) é um comprimento de correlação. Usando a solução de campo médio para hφi se obtém: (c/r)1/2 se T > Tc (7.95) ζ(T ) = 1/2 (c/(−2r)) se T < Tc Então, vemos que próximo do ponto crítico ζ ∼ |T − Tc |−ν , onde ν = 1/2 é o expoente crítico do comprimento de correlação. Em sistemas tridimensionais o valor real de ν está em torno de 2/3. A existência de um comprimento de correlação é um dos conceitos centrais na física da matéria condensada. A própria idéia de condensado implica a existência de uma região onde as partículas estão fortemente correlacionadas. A extensão Daniel A. Stariolo - IF-UFRGS - 2014 123 desta região depende de parâmetros externos, como a temperatura, ou pressão. Uma das características do fenômeno de invariância de escala no ponto crítico é a divergência do comprimento de correlação, ou seja, todo o sistema está fortemente correlacionado em Tc . A forma da susceptibilidade (7.93) foi obtida pela primeira vez por Ornstein e Zernicke na análise do ponto crítico gás-líquido. A transformada inversa de Fourier permite obter a função de correlação espacial de dois pontos: Z ei~q·~x dd q χ(~x) = (2π)d 1 + (qζ)2 (d−2)/2 Z Ωd q d−1 dq 1 = J(d−2)/2 (qr) (7.96) d 2 (2π) 1 + (qζ) qr onde Ωd é o ângulo sólido d-dimensional e Jn (x) é uma função de Bessel. A integral no vetor de onda resulta em: χ(r) ∝ 1 ζr (d−2)/2 r , K(d−2)/2 ζ (7.97) onde Kµ (x) é uma função de Bessel modificada. Para x ≫ 1, Kµ (x) ≈ x−1/2 e−x . Então, para distâncias grandes comparadas com o comprimento de correlção, a função de correlação de dois pontos se comporta como: G(r) = T χ(r) ∝ e−r/ζ r (d−1)/2 (7.98) Notamos que no ponto crítico T = Tc as correlações espaciais decaem algebricamente com r −(d−1)/2 . Para T 6= Tc as correlações decaem de forma exponencial em uma escala dada pelo comprimento de correlação ζ(T ). 7.6 Sistemas com simetria O(n) Sistemas com simetria O(n) possuem um parâmetro de ordem vetorial com n componentes. Na fase desordenada, o Hamiltoniano tem que ser invariante frente a rotações no espaço n-dimensional do parâmetro de ordem. Casos particulares são o modelo de Ising, com n = 1, que já analizamos. O modelo XY, que é um modelo de rotores no plano, com n = 2. O modelo de Heisenberg para a transição ferromagnética, com n = 3. Daniel A. Stariolo - IF-UFRGS - 2014 124 A energia livre de Landau do modelo O(n) é análoga a do modelo com simetria Ising (7.47). A única diferença é que, devido a simetria rotacional da fase paramagnética, a energia livre deve depender de: ~ 2 ≡ hφi2 = |hφi| n X i=1 hφi i2 , (7.99) que é invariante por rotações. Em presença de um campo externo hi na direção i a equação de estado resulta: ∂f = (r + 4uhφi2)hφi i = hi . ∂φi (7.100) Acima da temperatura crítica, ou seja, se r > 0, a única solução com hi = 0 é que todas as componentes do parâmetro de ordem sejam nulas. Então: 0 se T > Tc ; (7.101) hφi = (−r/4u)1/2 ei se T < Tc . onde ~e é um vetor unitário arbitrário no espaço do parâmetro de ordem. O comportamento é o mesmo do modelo de Ising, e então o modelo O(n) sofre uma transição de fase de segunda ordem, com expoentes críticos β, γ, δ e ν iguais aos do modelo de Ising. No entanto, diferentemente ao modelo de Ising que quebra uma simetria discreta, a arbitrariedade do vetor unitário ~e que define a direção de ordenamento do sistema, indica que uma simetria continua foi quebrada, como mostrado na figura 7.7 para o caso XY (n = 2). A quebra de uma simetria continua traz profundas consequências no comportamento das funções de correlação e susceptibilidades para T < Tc . Como já visto, a função de correlação conectada entre as componentes i e j do parâmetro de ordem é dada por: Gij (~x, ~x′ ) = hφi (~x)φj (~x′ )i − hφi (~x)ihφj (~x′ )i. (7.102) Esta correlação pode ser decomposta em duas partes, correspondentes a correlações entre as componentes paralela e perpendiculares à direção de ordenamento do sistema: Gij (~x, ~x′ ) = Gk (~x, ~x′ ) ei ej + G⊥ (~x, ~x′ )(δij − ei ej ). (7.103) Se a direção de ordenamento é o eixo definido por e1 , então ~e = (1, 0, 0, . . .) e obtemos: G11 (~x, ~x′ ) = Gk (~x, ~x′ ) = hφ1(~x)φ1 (~x′ )i − hφ1 (~x)ihφ1 (~x′ )i, Gii (~x, ~x′ ) = G⊥ (~x, ~x′ ) = hφi (~x)φi (~x′ )i − hφi (~x)ihφi (~x′ )i, (7.104) (i 6= 1). Daniel A. Stariolo - IF-UFRGS - 2014 125 Figura 7.7: A parte homogênea da energia livre de Landau para o modelo O(2). Derivando a energia livre de Landau respeito de φi (~x) e φj (~x′ ) e transformando Fourier obtemos o tensor de susceptibilidade: χ−1 q ) = T G−1 q ) = (r + 4uhφi2 + cq 2 )δij + 8uhφi ihφj i, ij (~ ij (~ (7.105) ou, em termos das componentes paralelas e perpendiculares: 2 2 χ−1 k = r + 12uhφi + c q e χ−1 q) ⊥ (~ 2 2 = r + 4uhφi + c q = r + c q 2 se T > Tc ; c q2 se T < Tc . (7.106) (7.107) Notamos que a componente paralela tem o mesmo comportamento que no modelo de Ising. No entanto, na fase ordenada para T < Tc , na direção perpendicular a susceptibilidade ou as correlações G⊥ (~q) = T χ⊥ (~q) têm um comportamento com lei de potência: T (7.108) G⊥ (~q) = 2 . cq No espaço real as correlações também decaem algebricamente: G⊥ (~x, 0) ∼ |x|−(d−2) . (7.109) Daniel A. Stariolo - IF-UFRGS - 2014 126 Como a suscpetibilidade global é dada por χij = lim~q→0 βGij (~q), o resultado anterior implica que o sistema possui susceptibilidade transversal infinita na fase de baixa temperatura com simetria quebrada. Ou seja, é necessário um campo externo arbitrariamente pequeno para mudar o valor (ou melhor, a direção) do parâmetro de ordem. Isto pode ser interpretado fisicamente pela estrutura da energia livre de Landau da figura 7.7. Da figura fica evidente que f possui um número infinito de mínimos para T < Tc , e se pode passar continuamente de um mínimo para outro. Ou seja, não custa energia ir de um mínimo qualquer a um outro qualquer. No entanto, na direção paralela a situação é diferente: existe uma penalidade energética para mudar o módulo do parâmetro de ordem. O comportamento da componente transversal da susceptibilidade (7.107) indica que, em termos de modos no espaço de Fourier, a susceptibilidade aumenta de forma ilimitada para modos de comprimento de onda grande e é infinita para λ → ∞. Em outras palavras, a flutuação na energia de Landau f pode ser feita arbitrariamente pequena para flutuações de comprimento de onda suficientemente grandes. No caso do modelo O(2) da figura vemos que existe exatamente um modo perpendicular à direção de ordenamento com excesso de energia livre arbitrariamente pequena. Em geral, em um modelo com simetria O(n) haverá um modo deste tipo por cada direção transversal, ou seja um total de n − 1 modos transversais de baixa energia, chamados modos de Goldstone. Os modos de Goldstone se manifestam matematicamente como polos em ~q = 0 na componente transversal da susceptibilidade, como se ve em (7.107) na fase de simetria rotacional quebrada. Exemplos de modos de Goldstone são as ondas de spin, ou mágnons em sistemas ferromagnéticos e também os fônons, ou oscilações da rede cristalina associados a quebra da simetria por translações no espaço. Ambas fenômenos correspondem a excitações de baixa energia dos respectivos sistemas e são consequência da quebra de simetrias continuas. 7.7 Validade da teoria de campo médio: o critério de Ginzburg Como temos visto, a aproximação de campo médio consiste essencialmente em substituir um parâmetro de ordem que flutua localmente por um parâmetro médio espacialmente constante. Por tanto, a aproximação de campo médio será boa sempre que as flutuações do parâmetro de ordem respeito do seu valor médio sejam pequenas. Uma medida da importância das flutuações do parâmetro de Daniel A. Stariolo - IF-UFRGS - 2014 127 ordem pode ser obtida calculando o valor médio de δφ(~x) = φ(~x) − hφ(~x)i em um volume da ordem Vζ ≈ ζ d (V. L. Ginzburg, 1960), onde ζ é da ordem do comprimento de correlação. O desvio do parâmetro de ordem respeito do seu valor médio no volume Vζ é dado por: Z δφζ ≡ Vζ−1 dd x δφ(~x). (7.110) Vζ As flutuações serão desprezíveis se h(δφζ )2 i for muito menor que hφi2 na fase ordenada, ou seja, se Z Z d d ′ ′ −1 −2 dd x G(~x) < hφi2 , (7.111) d x d x hδφ(~x)δφ(~x )i = Vζ Vζ Vζ Vζ onde G(~x) é a função de correlação (conectada) do parâmetro de ordem e foi assumida invariância translacional. Como a aproximação de campo médio fornece uma predição para a função de correlação e para o parâmetro de ordem, a própria aproximação possui um teste de consistência interna. Vamos analizar o critério de Ginzburg para uma teoria com campo escalar 4 φ , usando os resultados conhecidos para hφi e para G(~x, ~x′ ) = T χ(~x, ~x′ ). A susceptibilidade generalizada é dada por (7.93): Z dd q ei~q·~x χ(~x) = χ (2π)d 1 + (qζ)2 = c−1 |~x|−(d−2) Y (|~x|/ζ), (7.112) onde Z ∞ T Vζ−1 c−1 Z dd x |~x|−(d−2) Y (|~x|/ζ) T Vζ−1 c−1 Z z 0 2 h(δφζ ) i = dΩd eiz cos θ (2π)d [z 2 + η 2 ] dz Y (η) = Obtemos: Z d−1 Vζ Z (7.113) ζ dΩd (dr r d−1 ) r −(d−2) Y (r/ζ) 0 Z Z 1 −1 −1 2 dΩd = T Vζ c ζ dz z Y (z) = 0 = −(d−2) Ad T ζ c < hφi2 = |r| , 4u (7.114) Daniel A. Stariolo - IF-UFRGS - 2014 128 onde ζ = (c/|r|)1/2 é o comprimento de correlação e Ad é uma constante que depende da dimensão d. Definindo um comprimento de correlação microscópico ζ(T = 0) = ζ0 = (c/aTc )1/2 e o valor do salto no calor específico na transição ∆cV = Tc a2 /8u (ver equação (7.55)), podemos reescrever o resultado anterior de forma adimensional: (4−d)/2 d−4 T − Tc Ad ζ = > . (7.115) ζ0 Tc 2∆cV ζ0d A relação anterior nos diz que para d > 4, como ζ d−4 → ∞ quando T → Tc , a desigualdade anterior sempre é satisfeita próximo da transição. No entanto, para d < 4, como ζ d−4 → 0 quando T → Tc , a desigualdade nunca é satisfeita perto de Tc . Então podemos concluir que a aproximação de campo médio será satisfatória para dimensão d > 4, mas não será consistente para d < 4, em teorias φ4 . A dimensão ds = 4 que representa um limite para a validade da aproximação de campo médio, se conhece como dimensão crítica superior. A dimensão crítica superior depende, assim como os expoentes críticos, da simetria do parâmetro de ordem e do alcance das interações. Para um sistema qualquer, com expoentes críticos de campo médio β, γ, ν, devemos levar em conta que T χ ∼ |T − Tc |−γ e hφi ∼ |T − Tc |β . Então, desconsiderando fatores constantes de ordem um, o critério de Ginzburg é satisfeito se: t−γ ≪ t2β−νd , (7.116) onde t = |T − Tc |/Tc é a temperatura reduzida. Então, para um sistema geral, a dimensão crítica superior é determinada pela condição: 2β + γ ≡ ds . (7.117) ν Para dimensões d < ds , a aproximação de campo médio poderá ser válida para temperaturas suficientemente longe de Tc , sempre que a desigualdade (7.115), ou em geral (7.116), seja satisfeita. A medida que T se aproxima de Tc as flutações se tornam cada vez mais importantes. A temperatura que define a identidade na equação (7.115) é conhecida como temperatura de Ginzburg: 2/(4−d) |TG − Tc | Ad tG = = . (7.118) Tc 2∆cV ζ0d d> De forma equivalente, é possível definir o comprimento de Ginzburg ζG , na forma: ζG4−d ∼ ∆cV ζ04 = c2 /(8uTc ), (7.119) Daniel A. Stariolo - IF-UFRGS - 2014 129 ou ζG ∼ ζ0 (∆cV ζ0d )1/(4−d) . (7.120) A teoria de campo médio é válida quando t > tG ou ζ < ζG . Notar que |TG − Tc | → 0 se ζ0 → ∞ para d < 4. Isto quer dizer que o campo médio será válido até temperaturas muito próximas de Tc se o comprimento de correlação microscópico for grande, mesmo para d < ds . Este é o caso em sistemas com interações de longo alcance ou em supercondutores, por exemplo. Quando ζ0 , ou |TG − Tc | não é pequena, se espera que aconteça um “crossover”, ou mudança de regime, de um comportamento de campo médio para um comportamento crítico quando a temperatura reduzida t = (T − Tc )/Tc for da ordem da temperatura reduzida de Ginzburg tG . A figura (7.8) mostra de forma esquemática o crossover no comportamento da inversa da susceptibilidade. Figura 7.8: Representação esquemática do crossover de campo médio para comportamento crítico na inversa da susceptibilidade . O critério de Ginzburg permite entender por qué em alguns sistemas a apro- Daniel A. Stariolo - IF-UFRGS - 2014 130 ximação de campo médio pode ser muito boa e em outros não. Uma transição que é descrita de forma satisfatória pela teoria de campo médio é a transição metal normal-supercondutor. Na figura (7.9) vemos medidas do parâmetro de ordem e de calores específicos para esta transição, junto com predições da teoria BCS (Bardeen-Cooper-Schrieffer, 1957), que é uma teoria de campo médio para a transição supercondutora. Figura 7.9: O parâmetro de ordem e calores específicos na transição metal normalsupercondutor, para diversos materiais, junto com predições de campo médio. O calor específico apresenta uma discontinuidade finita em Tc , de acordo com a predição de campo médio. A temperaturas baixas, cs vá a zero exponencialmente, fato este de natureza quântica e não explicado pelo campo médio considerado. O parâmetro de ordem va a zero como (T − Tc )1/2 , em completo acordo com campo médio, e satura para temperaturas baixas. O salto no calor específico em alumínio é da ordem de 2 × 104 erg mole−1 K. O parâmetro de rede em Al é 4Å, e o comprimento de correlação microscópico é ζ0 ≈ 1.6 × 104 Å. Então, ∆cV ≈ 2 × 105 /42 erg cm−3 K −1 , resultando uma temperatura de Ginzburg Daniel A. Stariolo - IF-UFRGS - 2014 131 tG ≈ 10−16 ! A temperatura crítica em Al é 1.19 K e por tanto é praticamente impossível aceder à região crítica. Neste caso, o motivo para uma TG tão pequena é o enorme valor do comprimento de correlação microscópico em relação à constante da rede. Este comportamento é observado na maioria dos supercondutores, o que resultou no éxito da teoria BCS. Na década dos oitenta foram descobertos novos compostos supercondutores, chamados supercondutores de alta temperatura crítica, pois a supercondutividade é observada até temperaturas da ordem de 100 K. A teoria BCS se mostrou insatisfatória para descrever esta classe de supercondutores. Os mecanismos microscópicos por trás da supercondutividade de alta temperatura crítica ainda são desconhecidos. Referências Bibliográficas [1] R. K. Pathria and P. D. Beale, Statistical Mechanics, 3rd edition, Elsevier. [2] K. Huang, Statistical Mechanics, John Wiley & Sons. [3] L. E. Reichl, A Modern Course in Statistical Physics, John Wiley & Sons. [4] S. R. A. Salinas, Introdução à Física Estatística, Edusp. [5] P. M. Chaikin and T. C. Lubensky, Principles of Condensed Matter Physics, Cambridge University Press. [6] N. Goldenfeld, Lectures on Phase Transitions and the Renormalization Group, Addison-Wesley. [7] L. D. Landau and E. M. Lifshitz, Statistical Physics - Pergamon Press. [8] N. W. Ashcroft and N. D. Mermin, Solid State Physics, Sounders College. 132