Una forma menos binaria de decir si una medición es consistente con un valor consiste en medir a cuántas desviaciones estándar o $\sigma$ (sigmas) está del valor esperado.
¿Cómo lo calculamos?
Si el valor esperado es $x_0$, y nuestra medición es $\bar{x} \pm \Delta x$, podemos calcular la distancia en unidades de $s$ como:
$$ \frac{|\bar{x} - x_0|}{\Delta x} $$Supongamos que ahora tenemos 2 mediciones,
y queremos evaluar si son consistentes entre sí, si son "iguales".
Podemos calcular si la diferencia $d$ es igual a 0:
$$ d = x - y $$y, propagando, podemos obtener el error de la diferencia $\sigma_d$:
$$ \sigma_d^2 = \sigma_x^2 + \sigma_y^2 $$Entonces, podemos medir la distancia entre las mediciones en unidades de $\sigma$:
$$ \frac{|d - 0|}{\sigma_d} = \frac{|x - y|}{\sqrt{\sigma_x^2 + \sigma_y^2}} $$Error de la desviación estandar:
(12.5 - 10) / (1**2 + 1**2)**0.5
1.7677669529663687