Una red cristalina perfecta está formada por átomos de la
misma especie. Si se extraen
átomos de sus lugares en la
red (con
) y se los coloca en posiciones
intersticiales, se obtienen
defectos de tipo Frenkel. El
número
0 de posiciones intersticiales en la red es del
orden de magnitud de
. Sea
la energía necesaria
para producir un defecto. Halle el valor de
y de allí muestre que
Grafique cualitativamente en
función de
. Resuelva este problema tanto en el ensamble
microcanónico como en el canónico.
En el ensamble microcanónico tenemos que calcular , y a partir de esta superficie obtenemos la entropía:
Queremos hallar los estados compatibles con una energía . Si quitamos
átomos de sus posiciones de la red,
tenemos
formas de quitar los átomos y
formas de escoger qué posiciones intersticiales
ocupamos. Así, la superficie es:
y calculamos la entropía:
Con la aproximación en la que , todos los términos
son muy grandes, y podemos aplicar la aproximación de Stirling.
con las simplificaciones típicas de números combinatorios (ver
Apéndice), definiendo ,
, resulta
(1)
Si queremos encontrar la temperatura, tenemos que calcular la derivada de la entropía respecto de la energía. Como hicimos en Problema 4: Dos niveles,
(2)
En nuestro caso, y
(3)
Queda la temperatura, entonces
De aquí despejamos , definiendo
.
(4)
Y obtenemos
En el límite termodinámico, , y la expresión para
queda
Finalmente, veamos cómo se comporta el régimen que nos piden
en el enunciado,
. Parece intuitivo notar que esta
aproximación es para temperaturas bajas. En este caso, podemos hacer
la aproximación en (4)
(5)
y despejando, llegamos al resultado
Podemos ver en qué régimen estas dos expresiones (4) y
(5) son parecidas, con , y
:
import numpy as np
import pylab as pl
N = 10000
alpha = 0.8
xc = alpha/(alpha + 1)
pmax = min(alpha, 1)
x = np.linspace(0, pmax, pmax * N)
Tex = -1/np.log((x+1/N)**2/((1-x)*(alpha-x)))
Tap = -1/np.log(x**2/alpha)
pl.figure()
pl.plot([xc, xc], [-20, 20], 'k--')
pl.plot(x, Tex, 'g-', label='Exacta')
pl.plot(x, Tap, 'r-', label='Aproximada')
pl.xlabel(r'$x = n/N$')
pl.ylabel(r'$k_BT/W$')
pl.ylim((-20, 20))
pl.xlim((0, pmax))
pl.title(r'Temperatura para Frenkel con $\alpha = {0}$'.format(alpha))
pl.tight_layout()
pl.legend(loc="upper left")
pl.figure()
pl.plot(x, Tex, 'g-', label='Exacta')
pl.plot(x, Tap, 'r-', label='Aproximada')
pl.xlabel(r'$x = n/N$')
pl.ylabel(r'$k_BT/W$')
pl.ylim((0, 0.25))
pl.xlim((0, 0.1))
pl.title(r'Zoom en la zona de coincidencia'.format(N))
pl.tight_layout()
pl.legend(loc='upper left')
Aparece nuevamente un régimen de temperaturas negativas. Podemos ver
además que la aproximación no es muy buena para
[1]. ¿Cuándo comienzan las temperaturas negativas? Cuando se
anula el argumento del logaritmo, es decir
Resolvamos ahora este problema en el ensamble canónico, suponiendo que
.
(6)
Esta suma no parece nada fácil de calcular, así que vamos a ver cómo
la podemos aproximar. Vamos a gráficar para
import numpy as np
import pylab as pl
from scipy.misc import comb, factorial
N = 500
n = np.linspace(0,N, N+1)
x = n/N
z = comb(N, n)**2 * np.exp(-n)
pl.figure()
pl.plot(x, z)
pl.title(r'Secuencias de la funcion de particion para N={0}'.format(N))
pl.xlabel(r'$x = n/N$')
pl.ylabel(r'$\zeta(n)$')
pl.tight_layout()
(Source code, png, hires.png, pdf)
Vemos que hay claramente un máximo, y tiene una forma de campana. Por
lo pronto, entonces, vamos a tratar de aproximarla por una
gaussiana. Para eso, analicemos los términos que la componen,
El máximo de se da para
Utilizando (2) y (3), podemos hallar la derivada de la entropía. De esta manera, el máximo se da en
A partir de aquí vamos a analizar (para que las cuentas sean más
sencillas) el caso [2]. Así, resulta
Y la derivada segunda en el máximo es
Tenemos entonces, a orden 2 en Taylor, la expresión de los términos de la suma:
Volviendo a la expresión original, (6),
(7)
con
Bueno, entonces, ¿para qué dimos tantas vueltas? En la ecuación (7) aproximamos la función de partición cerca del máximo como una distribución gaussiana. Podemos calcular la sumatoria como el área bajo esta gaussiana:
Recordemos que al fin y al cabo, lo único que nos importa en la termodinámica es el logaritmo de la función de partición:
Como y
son variables extensivas, crecen mucho
más rápido que cualquier término
, por lo que
Con buen tino pueden pensar que hicimos demasiadas aproximaciones como
para que esto sea verdad. Vamos a ver el caso general. Queremos
estudiar específicamente cuál es el error relativo que obtenemos en la
termodinámica al aproximar por
. Como ya dijimos, en la
termodinámica nos interesan los logaritmos, por lo que queremos
calcular entonces
(8)
Partimos entonces de la expresión de la función de partición
Como regla general, vale
Tomemos logaritmo de la expresión anterior, y obtenemos
Y ahora restamos , para acercarnos a
la expresión (8):
Finalmente, nosotros sabemos que estamos tratando sistemas
termodinámicos. De ese modo, sabemos que . Como
es un potencial termodinámico, es homogéneo de
primer orden y vale
. Así, dividiendo por
la expresión anterior tenemos
Usando (8),
y, entonces, en el límite ,
[1] | De todos modos, para valores típicos de ![]() ![]() ![]() ![]() |
[2] | El razonamiento vale igual para los otros casos, pero las cuentas se vuelven engorrosas. Pero pronto vamos a ver que no importa exactamente la forma de la función de partición. |