Problema 4: Dos niveles

Sea un sistema de partículas distinguibles y no interactuantes, cada una de las cuales puede tener dos valores de energía, \epsilon y -\epsilon.

  1. Suponiendo que dicho sistema está aislado y consiste de N_0 partículas con una energía total E_0, calcule su entropía suponiendo N_0 \pm E_0/\epsilon \gg 1

Calcular la entropía para un sistema es simplemente contar la cantidad de estados compatibles \Omega(N_0, E_0):

S(\Omega) = k_B\,\log\Omega

Tenemos entonces que hallar la cantidad de estados compatibles con una energía E_0. Para eso calculamos la energía y el total de partículas para un sistema con n partículas en el estado \epsilon y m partículas en el estado -\epsilon:

E(n, m) &= n\,\epsilon - m\,\epsilon\\
N(n, m) &= n + m

Ahora usamos los dos vínculos que tiene el ensamble microcanónico: E = E_0, N = N_0:

(1)n\,\epsilon - (N_0-n)\,\epsilon &= E_0\\
2\,n\,\epsilon - N_0\,\epsilon &= E_0

De este modo queda claro que elegir E_0 es elegir, de las N_0 partículas, la cantidad de partículas n tal que

(2)n = E_0/2\epsilon + N_0/2

Esto es claramente un número combinatorio:

\Omega(n) &= {N_0 \choose n}

(3)\Omega(n)= \frac{N_0!}{n!(N_0-n)!}

y, en consecuencia:

(4)S(n) = k_B\,\log{\frac{N_0!}{n!(N_0-n)!}}

Particularmente, en el caso en que N_0 \pm E_0/\epsilon \gg 1, a partir de (2), vemos que tanto n como N_0 - n son números muy grandes:

n &= \frac{1}{2} (N_0 + E_0/\epsilon)\\
N_0 - n &= \frac{1}{2} (N_0 - E_0/\epsilon)

Así, podemos usar la aproximación de Stirling en (3)

S(n) \approx S_S(n) = k_B\,[N_0 \log N_0 - N_0 - n \log n + n - (N_0 - n) \log (N_0 - n) + (N_0 - n)]

y, simplificando, con x=n/N_0 (ver Apéndice).

(5)S_S(x) = N_0\,k_B\,[- x \log x - (1 - x) \log (1 - x)]

Los gráficos de la entropía, de acuerdo a (5) y (4) (para N_0 = 1000) son:

import numpy as np
import pylab as pl

from scipy.misc import comb
N0 = 1000
n = np.linspace(0, N0, N0+1)
x = n/N0
S = np.log(comb(N0, n))/N0
Ss = - x * np.log(x) - (1 - x) * np.log(1 - x)
pl.figure()
pl.plot(x, S, 'g-', label='Exacta')
pl.plot(x, Ss, 'r-', label='Stirling')
pl.xlabel(r'$x = n/N_0$')
pl.ylabel(r'$S/k_BN_0$')
pl.title(r'Entropia para un sistema de dos niveles con $N_0 = {0}$'.format(N0))
pl.tight_layout()
pl.legend()

(Source code, png, hires.png, pdf)

../../_images/entropia.png

A partir de la entropía podemos hallar la temperatura, sabiendo que

\frac{1}{T} &= \frac{dS}{dE}\\
            &= \frac{dS}{dn} \frac{dn}{dE}

Hallar la derivada de S respecto de n puede parecer extraño, pero es aún más sencillo:

\frac{dS}{dn} = \lim_{\delta n\rightarrow0} \frac{S(n + \delta n) - S(n)}{\delta n}

En este caso, el límite es una diferencia finita, con \delta n = 1. Reemplazando, obtenemos

\frac{1}{T} &= \left[S(n+1) - S(n)\right] \,\frac{d}{dE}(E/2\epsilon + N_0/2)\\
            &= k_B [\log\Omega(n+1) - \log\Omega(n)] \,\frac{1}{2\epsilon}

Y llegamos a un resultado mucho más lindo:

\frac{1}{k_BT} = \frac{1}{2\epsilon}\log\frac{\Omega(n+1)}{\Omega(n)}

Con la expresión de \Omega(n) hallamos

\Omega(n+1) &= \frac{N_0!}{(n+1!)(N_0-n-1)!}\\
            &= \frac{N_0!}{n!(N_0-n)!} \frac{N_0-n}{n+1}\\
            &= \Omega(n) \frac{N_0-n}{n+1}\\

La temperatura entonces es:

(6)\frac{1}{k_BT}&= \frac{1}{2\epsilon}\log\frac{N_0-n}{n+1}\\
              &= \frac{1}{2\epsilon}\log\frac{1-x}{x+1/N_0}

Mediante la aproximación de Stirling, derivando (5), obtenemos ((x\,\log{x})' = \log{x}+1)

\frac{1}{k_BT}&= \frac{1}{2\epsilon}[-\log{x} + \log{1-x}]\\
              &= \frac{1}{2\epsilon}\log\frac{1-x}{x}\\

import numpy as np
import pylab as pl

from scipy.misc import comb
N0 = 1000
x = np.linspace(0, 1, N0+1)
T = 1/np.log((1-x)/(x+1/N0))
pl.figure()
pl.plot(x, T, 'g-')
pl.plot([0.5, 0.5], [-50, 50], 'k--')
pl.xlabel(r'$x = n/N_0$')
pl.ylabel(r'$k_BT/2\epsilon$')
pl.ylim((-50, 50))
pl.title(r'Temperatura para un sistema de dos niveles con $N_0 = {0}$'.format(N0))
pl.tight_layout()

(Source code, png, hires.png, pdf)

../../_images/temperatura.png

En este gráfico podemos notar que la temperatura toma valores negativos para x > 0.5 + 1/2N_0 \rightarrow 0.5. Si no se sorprendieron es porque, o bien no tienen alma, o porque ya sabían el resultado. Este resultado es, de hecho, bastante común en sistemas con espectros de energía acotado. El motivo surge de lo siguiente: a diferencia de lo que sucede en el gas ideal, en este caso la entropía no siempre es una función creciente de la energía. Esto es porque, a medida que tenemos más energía, nos quedan pocas formas de elegir los microestados que corresponden al estado macroscópico (llegando al extremo de E_0 = N_0\,\epsilon, donde hay un solo microestado compatible: todas las partículas en \epsilon). Incluso más, cuando n pasa el valor 0.5, la temperatura salta abruptamente desde \infty a -\infty [1]. La única forma sensata de entender esto es a las temperaturas negativas como “más caliente” que las positivas. Es decir, el calor fluye de las temperaturas negativas hacia las positivas.

(b) Suponga ahora que el sistema de N_0 partículas es cerrado y su energía media vale E_0

  1. Calcule su temperatura y el rango de E_0 en la que es positiva
  2. Calcule la entropía y compare con la calculada en (a).

En este caso tendremos que usar el ensamble canónico. Para eso tenemos que calcular la función de partición:

Z(N_0, T) &= \sum_{n=0}^{N_0} \Omega(n)\,\text{e}^{-\beta E}

Utilizando la expresión E(n) de (1) y \Omega(n) de (3), queda

Z(N_0, T) &= \sum_{n=0}^{N_0} {N_0 \choose n}\,\text{e}^{-n\,\beta\epsilon -
(N_0-n)\,\beta\epsilon} \\

&= \sum_{n=0}^{N_0} {N_0 \choose n}\,\text{e}^{-n\,\beta\epsilon +
(N_0-n)(-\,\beta\epsilon)} \\

&= \sum_{n=0}^{N_0} {N_0 \choose n}\,\text{e}^{-n\,\beta\epsilon}\, \text{e}^{
(N_0-n)(-\,\beta\epsilon)}

Esta expresión es el binomio de Newton, y

Z(N_0, T) &= \left(\text{e}^{\beta\epsilon} + \text{e}^{-\beta\epsilon}\right)^{N_0} \\
&= Z(1, T)^{N_0}

que no es más que el resultado que ya conocemos, que la función de partición es separable para las partículas cuando éstas son independientes [2].

Ahora podemos calcular la energía libre de Helmholtz

F(N_0, T) &= k_B\,T\log{Z(N_0, T)} \\
&= k_B\,N_0\,T\log{\left(\text{e}^{\beta\epsilon} + \text{e}^{-\beta\epsilon}\right)}

y la energía media:

E_0(N_0, T) &= - \frac{\partial\log{Z(N_0, T)}}{\partial\beta}\\
&= - N_0 \frac{\partial Z(1, T)/\partial\beta}{Z(1, T)} \\
&= - N_0\epsilon \frac{\text{e}^{\beta\epsilon} +
\text{e}^{-\beta\epsilon}}{\text{e}^{\beta\epsilon} -
\text{e}^{-\beta\epsilon}}

Tenemos que despejar la temperatura de esta expresión, pero es más fácil de lo que parece. Si definimos y = \exp{\beta\epsilon},

E_0(N_0, T) &= - N_0\epsilon \frac{y + y^{-1}}{y - y^{-1}}\\
&= - N_0\epsilon \frac{y^2 + 1}{y^2 - 1}\\

Reemplazando E_0 con su espresión para n de acuerdo a (1):

2\,x - 1 &= - \frac{y^2 + 1}{y^2 - 1}\\
y^2 (1 - 2\,x) + 2\,x - 1 &= y^2 + 1 \\
2\,y^2 x &= 2\,(1 - x) \\
2\,\log{y} &= \log{\frac{1 - x}{x}}

y ahora reemplazando y, llegamos a

\frac{1}{k_BT} = \frac{1}{2\epsilon}\log{\frac{1-x}{x}}

que, en el límite termodinámico, es exactamente la misma expresión que obtuvimos anteriormente en (6). Es decir, se mantiene la equivalencia entre ensambles. Que aparezcan temperaturas negativas no tiene que ver con el ensamble utilizado. Vamos a verlo nuevamente, ahora en el gran canónico:

(c) Finalmente suponga que el sistema es abierto con un número medio de partículas N_0 y una energía media E_0.

  1. Calcule U como función de la temperatura y del número medio de partículas. Compare con los resultados anteriores.

  2. Generalice el resultado anterior demostrando que para un sistema formado por elementos independientes y distinguibles, existe la siguiente relación entre los ensambles canónico y gran canónico:

    \frac{\langle U\rangle_{GC}}{\langle N\rangle_{GC}}=\langle
U_1\rangle_{C}

    donde U_1 es la energía por elemento.

En esta situacíon tendremos que usar el ensamble gran canónico, con la ¿gran función de partición?, ¿función de gran partición?, ¿función de partición grande?:

\mathcal{Z}(\mu, T) = \sum_{N=0}^{\infty}Z(N, T)\,z^N

con z = \text{e}^{\beta\mu} la fugacidad. En el caso en el que las partículas son independientes, como Z(N, T) = Z(1, T)^N, la función de partición GC es

\mathcal{Z}(z, T) = \sum_{N=0}^{\infty}(Z_1\,z)^N

Y esto es una serie geométrica,

\sum_{i=0}^{i=N} x^i = \frac{1-x^N}{1-x}

Usando el límite N\rightarrow\infty (¡si x<1!), la función de partición GC resulta

\mathcal{Z}(z, T) = \frac{1}{1-Z_1z}

Para calcular el número medio de partículas,

(7)\langle N\rangle &= z\left(\frac{\partial
\log{\mathcal{Z}}}{\partial z}\right)_T \\
&= z\left(\frac{\partial
\log{\frac{1}{1-Z_1z}}}{\partial z}\right)_T \\
&= - z\left(\frac{\partial
\log{1-Z_1z}}{\partial z}\right)_T \\
&= - z\frac{1}{1-Z_1z}\, (-Z_1) \\
&=  \frac{Z_1z}{1-Z_1z}\\

Y para la energía interna

(8)\langle U\rangle &= -\left(\frac{\partial
\log{\mathcal{Z}}}{\partial \beta}\right)_z \\
&= -\left(\frac{\partial\log{\frac{1}{1-Z_1z}}}{\partial
\beta}\right)_z\\
&= \left(\frac{\partial\log{1-Z_1z}}{\partial\beta}\right)_z\\
&= \frac{1}{1-Z_1z}\,(-zZ_1')\\
&= \frac{-zZ_1'}{1-Z_1z}\\

Y si dividimos la ecuación (8) por (7), se simplifica todo

\frac{\langle U\rangle_{GC}}{\langle N\rangle_{GC}}&=-\frac{Z_1'}{Z_1}\\
      &=-\frac{\partial \log{Z_1}}{\partial\beta}\\
      &=\langle U_1\rangle_{GC}

que demuestra el punto ii y, en consecuencia, el punto i.

[1]En realidad, \beta pasa suavemente por el 0, cambiando de signo. Al fin y al cabo, ¿qué tiene de interesante la temperatura? ¿No podemos hablar siempre de \beta?
[2]En el caso en el que son indistinguibles, aparece el “factor de buen conteo” 1/N!

Tema anterior

Guía 4: Ensambles

Próximo tema

Problema 7: Defectos de Frenkel

Esta página