Motivación: interpretación estadística

Cuando las mediciones no se repiten dentro del mismo intervalo dado por la resolución instrumental,

es que hay otras fuentes de error que no estamos considerando.

Para obtener una medida de la incerteza, primero tenemos que repetir multiples veces la medición.

Luego, si armamos un histograma y las mediciones tienen forma de campana,

es razonable resumir estas mediciones con dos números o medidas:

Gráficamente, podríamos pensar que estamos reemplazando nuestro histograma por el siguiente intervalo:

que no captura todas las mediciones, sino una fracción de ellas.

Si una medición cae afuera de este intervalo, ¿"está mal"?

En realidad, la interpretación es que estamos aproximando nuestro histograma por una distribución normal o gaussiana.

La gaussiana depende de dos parámetros: $\mu$ y $\sigma$, que podemos estimar como el promedio $\bar{x}$ y la desviación estandar $s$, respectivamente:

que, como vemos, ajusta muy bien al histograma...

...pero, ¡porque los datos del histograma los sacamos de una distribución normal!

Preguntas a responder

en esta primer parte:

  1. ¿De dénde sale la normal o gaussiana? ¿Por qué es razonable pensar que nuestras mediciones tendrán esta forma?
  2. ¿Qué interpretación le damos a las mediciones que caen más alla del intervalo $\bar{x} \pm s$?
  3. ¿Por qué el promedio y la desviación estándar tienen error?
  4. ¿Qué reportamos para una medición?
    • ¿Promedio y desviación estándar?
    • ¿Promedio y error del promedio?
    • ¿Desviación estándar y error de la desviación estandar?

Introducción a probabilidades y estadística

Variables aleatorias

El ejemplo más simple de una variable aleatoria es el resultado arrojar una moneda, que puede dar dos valores: cara o ceca, con un $50 \%$ de probabilidad para cada uno (si es una moneda buena).

En general, una variable aleatoria o estocástica es una cantidad cuyos valores varían cada vez que se la mide. Esta queda completamente descripta por su distribución de probabilidad, es decir, cual es la probabilidad que salga cada uno de los valores posibles que puede tomar.

Distribución de Bernoulli

Es la generalización de la moneda, con probabilidad $p$ de que salga $1$ (cara), y $1-p$ de que salga $0$ (ceca).

Su distribución de probabilidad $P$ sería:

$$ P(k \,|\, p) = \begin{cases} 1-p, &\quad\text{si }k=0\\ p, &\quad\text{si }k=1\\ \end{cases} $$

O, en el caso de una moneda común, $p=0.5$:

$$ P(k \,|\, p=0.5) = \begin{cases} 0.5, &\quad\text{si }k=0\\ 0.5, &\quad\text{si }k=1\\ \end{cases} $$

Podemos generar una variable aleatoria en Python:

Ver su distribución de probabilidad. con la probability mass function (pmf):

Tomar muestras o realizar experimentos:

Pregunta 1:

¿Cómo podemos estimar su distribución de probabilidad?

Pregunta 2:

¿Cómo podemos estimar la probabilidad $p$ de que salga "cara" o $1$ (a partir de $N$ experimentos)?

Distribución uniforme discreta

Otra variable aleatoria simple con la que estamos familiarizados es un dado (de 6 caras).

El nombre técnico es variable uniforme discreta:

Esta la variante distribución uniforme continua, donde, por ejemplo, el resultado puede ser cualquier número real entre 0 y 1, con la misma (densidad de) probabilidad.

Promedio y desviación estándar

¿Podemos calcular el promedio de una distribución de probabilidad?

Imaginemos que tiramos un dado 7 veces y salen los siguientes números: ${1, 2, 2, 2, 4, 4, 6}$.

Calcular el promedio es sumarlos y dividir por la cantidad de números:

$$\begin{align} \bar{x} &= \frac{1 + 2 + 2 + 2 + 4 + 4 + 6}{7} \\ \text{sacando factor común} \\ &= \frac{ \Big( {1 \times 1 + 3 \times 2 + 2 \times 4 + 1 \times 6} \Big) }{7} \\ \text{distribuyendo la división} \\ &= {\frac{1}{7} \times 1 + \frac{3}{7} \times 2 + \frac{2}{7} \times 4 + \frac{1}{7} \times 6} \\ \text{fracciónes de veces} \\ &= {f_1 \times 1 + f_3 \times 2 + f_4 \times 4 + f_6 \times 6} \end{align}$$

En otras palabras, el promedio es

$$ \bar{x} = \sum_i f_i \, x_i $$

donde $f_i$ es la fracción de veces que salió el número $i$-ésimo, y $x_i$ es el valor del número $i$-ésimo.

Promedio teórico

Si tiramos muchas veces el dado, esperamos que los $f_i$ tiendan a la probabilidad que salga cada número: $p_i = \frac{1}{6}$.

Entonces, podemos definir el valor medio $\mu$, valor esperado o esperanza $E[X]$ de una variable aleatoria como:

$$ \mu = \sum_i p_i \, x_i $$

Podemos estimarlo como el promedio de $N$ experimentos:

¡El promedio ("experimental") tiene un error!

Ya calculamos dicho error:

$$ \sigma_{\bar{x}} = \frac{\sigma}{\sqrt{N}} $$

Que el error depende de $N$ lo podemos ver fácilmente:

¿Pero qué es $\sigma$?

Desviación estándar teórica

Análogamente al promedio, se puede calcular la desviación estándar teórica:

$$ \sigma = \sqrt{\sum_i p_i \, (x_i - \mu)^2} $$

que estimamos como la desviación estándar experimental.

Entonces, el error del promedio lo estimamos experimentalmente así:

$$ \sigma_{\bar{x}} = \frac{\sigma}{\sqrt{N}} \quad\Rightarrow\quad s_{\bar{x}} = \frac{s}{\sqrt{N}} $$

donde reemplazamos $\sigma \mapsto s$.

Aunque técnicamente significan cosas distintas, en el laboratorio, vamos a usar $s$ o $\sigma$ intercambiablemente. (Si cursan estadística, no.)

Álgebra de variables aleatorias

Suma de dos dados

Si en lugar del resultado de tirar un dado, definimos como nuestra variable aleatoria la suma de los resultados de tirar 2 dados:

Suma de N dados

Análogamente, podemos simular la distribución de sumar $N$ dados.

Rápidamente, tiende a una forma de campana. Podemos superponer una distribución normal a esta campana, para comparar.

Por más que nuestras mediciones no provengan de una distribución normal, generalmente podemos aproximarlas bien por una normal, ya que involucran múltiples fuentes de error.

Distribución normal o gaussiana

La distribución normal tiene la siguiente forma funcional:

$$ N(x) \propto e^{-x^2} $$

que tiene un máximo en $x = 0$.

En general, se escribe con dos parámetros:

y un factor $\frac{1}{2}$ en el exponente:

$$ N(x \,|\, \mu, \sigma) \propto \exp \left( \frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2 \right) $$

Además, la van a ver con un factor $\frac{1}{\sigma \sqrt{2\pi}}$, que es para que la distribución este normalizada (su integral sea 1):

$$ N(x \,|\, \mu, \sigma) = \frac{1}{\sigma \sqrt{2\pi}} \; e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2} $$

Está incluida en Scipy como scipy.stats.norm.

Podemos estimar $\mu$ y $\sigma$ como el promedio $\bar{x}$ y la desviación estándar $s$ de las muestras:

Sin embargo, no siempre tiene sentido resumir mediciones en promedio y desviación estandar (o, más general, centro y ancho).

Distribución uniforme discreta

Si las mediciones fueran los números que salen al arrojar un dado, esperariamos un histograma donde todos los números del 1 al 6 tienen la misma probabilidad.

Pero nadie describiria las mediciones como el promedio y la desviación estandar: $3.5 \pm 1.7$, es decir, el intervalo $[1.8, 5.2]$.

Distribución del diámetro

...medido de una manera particular. ¡Este "detalle" es importantísimo[1]! Hay que definir correctamente el proceso que generó los datos, es decir, como se midió.

Un buen método para medir el diámetro es apoyar la regla en un borde del circulo y pivotar la regla sobre ese punto, barriendo sobre borde del círculo hasta encontrar la longitud máxima.

Pero, si no seguimos este método, y apoyamos la regla en lo que creemos que es el diámetro, podríamos obtener la siguiente distribución de mediciones:

[1] pueden leer la paradoja de Bertrand: https://en.wikipedia.org/wiki/Bertrand_paradox_(probability). Ignoren el Recent Developments, lo que dijo Bertrand está bien. Otras paradojas en estadística también se dan cuando no se considera la forma en la que se generaron los datos, por ejemplo, la paradoja de Simpson: https://en.wikipedia.org/wiki/Simpson%27s_paradox. La solución a estos problemas está fuera de la estadística, en lo que se llama inferencia causal. Si les interesa, pueden leer los libros de Judea Pearl: "Causal Inference in Statistics: A Primer" o "The Book of Why".

que no describiriamos como un centro y un ancho.

Interpretación estadística

Para 1 dado:

¿Cuál es la probabilidad de que:

Para la suma de 2 dados:

¿Cuál es la probabilidad de que:

Distribución normal o gaussiana

¿Cuál es la probabilidad de que salga 10?

El area verde corresponde a $\mu \pm \sigma$ y su integral vale ~68%.

Si sumamos el area amarilla, $\mu \pm 2 \sigma$ y su integral vale ~95%.

E incluyendo el area roja, $\mu \pm 3 \sigma$ y su integral vale ~99%.

Entonces, si una medición no cae dentro de $\bar{x} \pm \sigma$, no significa que "este mal". Pasa $1/3$ de las veces.

Ahora, si una medición cae a más de $3 \sigma$ del valor esperado, ya sospechamos fuertemente que no es consistente.

En física de particulas, se usa $5 \sigma$ como criterio, que equivale a 99.99994%. Caer fuera de dicho intervalo por azar debería pasar una cada un millón de intentos.

Interpretación física

Vimos que hay diferentes "mediciones" que podemos hacer sobre las mediciones (o datos):

pero, ¿cuál usamos?

La respuesta a esta pregunta no la da la estadística. La estadística les da herramientas para analizar los datos, pero no les dice que herramienta usar ni que concluir. Es importante interpretarlos en base a nuestro experimento. Hay que entender de donde vienen los datos, cuál es el proceso que los generó. Y de ahí, qué se quiere describir: ¿el centro de la distribución, o una medición cualquiera?

Entonces, imaginemos ejemplos:

Altura de las personas

Imaginemos que medimos a $N$ personas, armamos un histograma:

¿Qué reportaría?

Hay que hacer una pregunta más especifica, entender para que lo vamos a user:

Queremos diseñar los colectivos tal que el 68% de la gente se pueda sentar cómoda.

Altura de una persona

Ahora imaginemos que definimos un protocolo para medir el torso. Medimos muchas veces y armamos nuevamente un histograma:

¿Que reportaría?

  1. Quiere hacerle un traje a esta persona, ¿cuánto mide su torso?
  1. El sastre quiere usar este protocolo para medir a otra persona, ¿qué error cometerá?

Mediciones del metrónomo

Código: https://colab.research.google.com/drive/149iu_xZMYZk8Zh7Cb1pT6DG-cPhScGWy

Periodo del metrónomo

image.png

Cada barra representa proviene de las medciiones de algunes de ustedes.

Si estoy comparando con el valor real del periodo (naranja), ¿cómo creen que calculé cada valor con su barra de error?

Tiempos de respuesta

image.png

Acá estoy mostrando evaluando el sus tiempos de respuesta.

¿Cómo creen que calculé cada valor con su barra de error?

¿Y el valor global que pongo en el título?

Preguntas para responder en Discord

  1. Basandonos en los experimentos de la clase anterior, como medida del error de una medición del periodo, usaria:

    • El error instrumental del cronómetro
    • La desviación estándar de los periodos
    • La desv. estándar dividido raiz(N) (error del promedio)
  2. Para reportar el intervalo donde esperan que caigan el 68% de mediciones, usaria:

    • Promedio ± Desv. estándar
    • Promedio ± Error del proemdio
    • Desv. estándar ± Error de la desv. estándar
  3. Para reportar el intervalo donde cree que está el periodo real, usaria:

    • Promedio ± Desv. estándar
    • Promedio ± Error del proemdio
    • Desv. estándar ± Error de la desv. estándar
  4. Para comparar las precisiones entre los metodos "centro" y "extremo", usaria:

    • Promedio ± Desv. estándar
    • Promedio ± Error del promedio
    • Desv. estándar ± Error de la desv. estándar