Sea un sistema de partículas distinguibles y no interactuantes, cada una de las cuales puede tener dos valores de energía, y .
Calcular la entropía para un sistema es simplemente contar la cantidad de estados compatibles :
Tenemos entonces que hallar la cantidad de estados compatibles con una energía . Para eso calculamos la energía y el total de partículas para un sistema con partículas en el estado y partículas en el estado :
Ahora usamos los dos vínculos que tiene el ensamble microcanónico: , :
(1)
De este modo queda claro que elegir es elegir, de las partículas, la cantidad de partículas tal que
(2)
Esto es claramente un número combinatorio:
(3)
y, en consecuencia:
(4)
Particularmente, en el caso en que , a partir de (2), vemos que tanto como son números muy grandes:
Así, podemos usar la aproximación de Stirling en (3)
y, simplificando, con (ver Apéndice).
(5)
Los gráficos de la entropía, de acuerdo a (5) y (4) (para ) son:
import numpy as np
import pylab as pl
from scipy.misc import comb
N0 = 1000
n = np.linspace(0, N0, N0+1)
x = n/N0
S = np.log(comb(N0, n))/N0
Ss = - x * np.log(x) - (1 - x) * np.log(1 - x)
pl.figure()
pl.plot(x, S, 'g-', label='Exacta')
pl.plot(x, Ss, 'r-', label='Stirling')
pl.xlabel(r'$x = n/N_0$')
pl.ylabel(r'$S/k_BN_0$')
pl.title(r'Entropia para un sistema de dos niveles con $N_0 = {0}$'.format(N0))
pl.tight_layout()
pl.legend()
(Source code, png, hires.png, pdf)
A partir de la entropía podemos hallar la temperatura, sabiendo que
Hallar la derivada de respecto de puede parecer extraño, pero es aún más sencillo:
En este caso, el límite es una diferencia finita, con . Reemplazando, obtenemos
Y llegamos a un resultado mucho más lindo:
Con la expresión de hallamos
La temperatura entonces es:
(6)
Mediante la aproximación de Stirling, derivando (5), obtenemos ()
import numpy as np
import pylab as pl
from scipy.misc import comb
N0 = 1000
x = np.linspace(0, 1, N0+1)
T = 1/np.log((1-x)/(x+1/N0))
pl.figure()
pl.plot(x, T, 'g-')
pl.plot([0.5, 0.5], [-50, 50], 'k--')
pl.xlabel(r'$x = n/N_0$')
pl.ylabel(r'$k_BT/2\epsilon$')
pl.ylim((-50, 50))
pl.title(r'Temperatura para un sistema de dos niveles con $N_0 = {0}$'.format(N0))
pl.tight_layout()
(Source code, png, hires.png, pdf)
En este gráfico podemos notar que la temperatura toma valores negativos para . Si no se sorprendieron es porque, o bien no tienen alma, o porque ya sabían el resultado. Este resultado es, de hecho, bastante común en sistemas con espectros de energía acotado. El motivo surge de lo siguiente: a diferencia de lo que sucede en el gas ideal, en este caso la entropía no siempre es una función creciente de la energía. Esto es porque, a medida que tenemos más energía, nos quedan pocas formas de elegir los microestados que corresponden al estado macroscópico (llegando al extremo de , donde hay un solo microestado compatible: todas las partículas en ). Incluso más, cuando pasa el valor 0.5, la temperatura salta abruptamente desde a [1]. La única forma sensata de entender esto es a las temperaturas negativas como “más caliente” que las positivas. Es decir, el calor fluye de las temperaturas negativas hacia las positivas.
(b) Suponga ahora que el sistema de partículas es cerrado y su energía media vale
- Calcule su temperatura y el rango de en la que es positiva
- Calcule la entropía y compare con la calculada en (a).
En este caso tendremos que usar el ensamble canónico. Para eso tenemos que calcular la función de partición:
Utilizando la expresión de (1) y de (3), queda
Esta expresión es el binomio de Newton, y
que no es más que el resultado que ya conocemos, que la función de partición es separable para las partículas cuando éstas son independientes [2].
Ahora podemos calcular la energía libre de Helmholtz
y la energía media:
Tenemos que despejar la temperatura de esta expresión, pero es más fácil de lo que parece. Si definimos ,
Reemplazando con su espresión para de acuerdo a (1):
y ahora reemplazando , llegamos a
que, en el límite termodinámico, es exactamente la misma expresión que obtuvimos anteriormente en (6). Es decir, se mantiene la equivalencia entre ensambles. Que aparezcan temperaturas negativas no tiene que ver con el ensamble utilizado. Vamos a verlo nuevamente, ahora en el gran canónico:
(c) Finalmente suponga que el sistema es abierto con un número medio de partículas y una energía media .
Calcule como función de la temperatura y del número medio de partículas. Compare con los resultados anteriores.
Generalice el resultado anterior demostrando que para un sistema formado por elementos independientes y distinguibles, existe la siguiente relación entre los ensambles canónico y gran canónico:
donde es la energía por elemento.
En esta situacíon tendremos que usar el ensamble gran canónico, con la ¿gran función de partición?, ¿función de gran partición?, ¿función de partición grande?:
con la fugacidad. En el caso en el que las partículas son independientes, como , la función de partición GC es
Y esto es una serie geométrica,
Usando el límite (¡si !), la función de partición GC resulta
Para calcular el número medio de partículas,
(7)
Y para la energía interna
(8)
Y si dividimos la ecuación (8) por (7), se simplifica todo
que demuestra el punto ii y, en consecuencia, el punto i.
[1] | En realidad, pasa suavemente por el 0, cambiando de signo. Al fin y al cabo, ¿qué tiene de interesante la temperatura? ¿No podemos hablar siempre de ? |
[2] | En el caso en el que son indistinguibles, aparece el “factor de buen conteo” |