Mediciones del periodo

¿Midieron con la función de vuelta o lap?

Medición Tiempo Lap
1 1.00 -
2 2.10 1.10
3 3.15 1.05
4 4.05 0.90

Correlaciones

Propagación de errores

Asume que las mediciones son independientes.

$$ g(T, L) = (2\pi)^2 \, \frac{L}{T^2} $$$$ \Delta g = \sqrt{\left(\frac{\partial g}{\partial T} \Delta T\right)^2 + \left(\frac{\partial g}{\partial L} \Delta L\right)^2} $$$$ \sigma_g^2 = \left(\frac{\partial g}{\partial T} \sigma_T\right)^2 + \left(\frac{\partial g}{\partial L} \sigma_L\right)^2 $$

Cuando no son independientes, hay que usar la formula completa:

$$ \sigma_g^2 = \left(\frac{\partial g}{\partial T} \, \sigma_T\right)^2 + \left(\frac{\partial g}{\partial L} \, \sigma_L\right)^2 + \left(2 \, \frac{\partial g}{\partial L} \frac{\partial g}{\partial T} \, \text{cov}(L, T)\right) $$

donde $\text{cov}(L, T)$ es la covarianza entre $L$ y $T$.

Ejemplo independiente

Vamos a generar dos variables aleatorias $x$ e $y$, y calcular su suma $z = x + y$:

¿Dónde tiene que estar centrada $x$, y con que ancho? ¿e $y$? ¿y $z$?

Promedio

El promedio de la suma es la suma de los promedios:

$$ \begin{align} z &= x + y \\ \bar{z} &= \bar{x} + \bar{y} \end{align} $$

Chequeemoslo:

Desviación estándar

La desviación estandar de la suma, ¿es la suma de las desviaciones estándar?

Es decir, ¿vale esto:

$$ \begin{align} z &= x + y \\ \sigma_{z} &= \sigma_{x} + \sigma_{y} \end{align} $$

?

Chequeemoslo:

¡No, no vale!

image.png

¡No, no vale! Hay que usar la formula de propagación:

$$ \begin{align} z &= x + y \\ \text{entonces} \\ \sigma_z^2 &= \left( \frac{\partial z}{\partial x} \sigma_x \right)^2 + \left( \frac{\partial z}{\partial y} \sigma_y \right)^2 \\ \\ &= \sigma_x^2 + \sigma_y^2 \end{align} $$

O, pasando la raiz, porque siempre nos interesa saber la desviación estándar:

$$ \sigma_z = \sqrt{\sigma_x^2 + \sigma_y^2} $$

Ejemplo no independiente

Ahora vamos a generar un ejemplo no independiente. Para eso, vamos a generar 3 tiempos independientes ($t_0$, $t_1$, $t_2$) y calcular sus diferencias:

$$ \begin{align} T_1 &= t_1 - t_0 \\ T_2 &= t_2 - t_1 \end{align} $$

Como $T_1$ y $T_2$ comparten un valor $t_1$, es decir, se calculan a partir de la misma medición, van a estar correlacionados.

Miremos algunos valores:

Hagamos un histograma de $T_1$ y $T_2$:

Como son iguales, podríamos "juntarlos" calculando un promedio:

¿Está bien ese valor de desviación estándar para el promedio?

Es decir, ¿era el que esperabamos?

Hagamos la cuenta:

$$ \begin{align} \bar{T} &= \frac{T_1 + T_2}{2} \\ \\ \sigma_\bar{T}^2 &= \left( \frac{1}{2} \right)^2 \left( \sigma_{T_1}^2 + \sigma_{T_2}^2 \right) \\ &= \left( \frac{1}{2} \right)^2 \left( \sqrt{2}^2 + \sqrt{2}^2 \right) \\ &= \left( \frac{1}{4} \right) \left( 2 + 2 \right) \\ &= 1 \\ \end{align} $$

Nota: como $\sigma_{T_1} = \sigma_{T_2}$, podiamos haber usado directamnete la fórmula del promedio para $N$ mediciones del otro día:

$$ \sigma_\bar{T} = \frac{\sigma_{T_1}}{\sqrt{N}} = \frac{\sqrt{2}}{\sqrt{2}} = 1 $$

Opción 1: escribirlo en términos de variables independientes

$$ \begin{align} \bar{T} &= \frac{1}{2} \Big( T_1 + T_2 \Big) \\ \\ &= \frac{1}{2} \Big( (t_1 - t_0) + (t_2 - t_1) \Big) \\ \\ &= \frac{1}{2} \Big( t_2 - t_0 \Big) \\ \\ \text{entonces} \\ \sigma_\bar{T}^2 &= \left( \frac{1}{2} \right)^2 \left( \sigma_{t_2}^2 + \sigma_{t_0}^2 \right) \\ &= \left( \frac{1}{2} \right)^2 \left( 1^2 + 1^2 \right) \\ &= \frac{1}{2} \\ \\ \sigma_\bar{T} &= \frac{1}{\sqrt{2}} = 0.70\ldots \end{align} $$

Opción 2: usar la formula con la covarianza

$$ \begin{align} \bar{T} &= \frac{1}{2} \Big( T_1 + T_2 \Big) \\ \text{entonces} \\ \sigma_\bar{T}^2 &= \left(\frac{\partial T}{\partial T_1} \, \sigma_{T_1}\right)^2 + \left(\frac{\partial T}{\partial T_2} \, \sigma_{T_2}\right)^2 + \left(2 \, \frac{\partial T}{\partial T_1} \frac{\partial T}{\partial T_2} \, \text{cov}(T_1, T_2)\right) \\ \\ &= \left(\frac{1}{2} \, \sigma_{T_1}\right)^2 + \left(\frac{1}{2} \, \sigma_{T_2}\right)^2 + \left(2 \, \frac{1}{2} \cdot \frac{1}{2} \, \text{cov}(T_1, T_2)\right) \\ \\ &= \frac{1}{4} \, \Big( \sigma_{T_1}^2 + \sigma_{T_2}^2 + 2 \, \text{cov}(T_1, T_2) \Big) \end{align} $$

¿Pero cómo calculamos covarianza?

La desviación estándar la calculabamos:

$$ \sigma_x = \sqrt{\frac{1}{N} \sum_i (x_i - \bar{x})^2} $$

La varianza era el cuadrado:

$$ \begin{align} \sigma_x^2 &= \frac{1}{N} \sum_i (x_i - \bar{x})^2 \\ \text{separando el cuadrado} \\ &= \frac{1}{N} \sum_i (x_i - \bar{x}) \, (x_i - \bar{x}) \end{align} $$

La covarianza es:

$$ \text{Cov}(X, Y) = \sigma_{xy} = \frac{1}{N} \sum_i (x_i - \bar{x}) \, (y_i - \bar{y}) $$

Volviendo a la formula:

$$ \sigma_\bar{T}^2 = \frac{1}{4} \, \Big( \sigma_{T_1}^2 + \sigma_{T_2}^2 + 2 \, \text{cov}(T_1, T_2) \Big) $$

Que es igual a la desviación estandar $\sigma_\bar{T}$ de $\bar{T}$:

Gráficamente

Al ver los histogramas por separado, nos estamos perdiendo esta dependencia conjunta entre $T_1$ y $T_2$.

Mientras que la desviación estándar mide el ancho de los histogramas de los bordes,

la covarianza mide "el ángulo" de la elipse.

Para variables independientes, la elipse está "acostada".

Conclusión

Si las variables no son independientes, hay que tener en cuenta la formula de propagación completa.

Capaz en esta sección estan pensando: "Mauro nos quiere hacer corregir moneditas, tampoco daba tan mal.pensando"

Al final de la clase les cuento el resultado de una tesis que fue "no se puede distinguir entre tal y tal comportamiento", mientras que sí se podia si se tenía en cuenta la correlación.

Simulación en Colab

Vamos a probar diferentes formas de analizar

https://colab.research.google.com/drive/1Sx0ebuxB-KhCTeTo1AUfnlClHBTh1JcP#scrollTo=ozA2WXGO-3g0

Mis resultados