Al repetir una medición varias veces en las mismas condiciones, puede que la magnitud observada se repita tantas veces como la medición se lleve a cabo. Llamamos a ésta medición reproducible. Un ejemplo sencillo es, como en la lección anterior, medir el largo de un cuaderno con una regla. Si lo hacemos con paciencia y cuidado una vez, una segunda vez, una tercera, etc., y reportamos únicamnte el valor medido hasta donde indica la última división mínima que alcanza la longitud del cuaderno sobre la escala de nuestra regla, auque a nos tiente la idea estimar "a ojo" decimales más pequeños que la mínima escala, es decir, evitamos cifras apreciadas; obtendremos en todas las iteraciones el mismo valor medido $l_{0,1} = l_{0,2} = l_{0,3} = ... = l_{0,n}$. Parece lógico, ¿no?, pues evidentemente el cuaderno no cambiará de longitud por sí solo, ni parece que haya factores externos que lo hagan cambiar de longitud.
Dado que no existe variación detectable entre mediciones, podemos decir que si la hay, es menor que la mínima escala del instrumento. El instrumento de medición introduce una incertidumbre igual a la mitad de la mitad de la mínima escala de nuestro instrumento...
Cuando una medición se realiza directamente con un instrumento y no se tienen mediciones repetidas, la incertidumbre proviene de la resolución del instrumento. Según la GUM (JCGM 100:2008), si el instrumento tiene una mínima escala o resolución $a$ (hasta ahora nosotros la hemos representado mayormente por $\delta x = a/2$), y no sabemos en qué punto dentro de esa división está el valor real, se considera que los valores posibles están distribuidos uniformemente dentro de ese intervalo. Esto se llama una distribución rectangular.
En ese caso, la incertidumbre estándar asociada a una medición individual se calcula como:
\[ u_x = \frac{a/2}{\sqrt{3}} = \frac{\delta x}{\sqrt{3}} ~~~~~~~~ (2.1) \]Por ejemplo, si una regla tiene divisiones de 1 mm, la mitad de su mínima escala es 0.5 mm, y la incertidumbre estándar asociada será (ya redondeada a las cifras siginificativas pertinentes):
\[ u_x = \frac{0.5~\text{mm}}{\sqrt{3}} = 0.29~\text{mm} ~~~~~~~~ (2.2) \]De ahora en adelante hay que tener en cuenta la diferencia entre $u_x$ (la incertidumbre absoluta de instrumento suponiendo rectangular) y $\delta x$ (la incertidumbre absulta de cualquier medición. Si hablamos de la incertidumbre absoluta asociada a un instrumento, usualmente es simplemente la mitad de la mínima escala), y que a una medición normalmente se le asociará $u_x$ a menos que se indique lo contrario.
Imagina que tienes un instrumento cuya escala más pequeña es 1 mm. La pregunta es: ¿qué tanto puede variar realmente tu lectura?
Cuando alguien dice:
“Mi incertidumbre es ±0.5 mm porque la mínima escala es 1 mm”.
Lo que hace es dar un intervalo, pero sin pensar en cómo se distribuyen los posibles errores dentro de ese intervalo. Es más una regla de pulgar que un razonamiento.
La distribución rectangular parte de algo muy simple:
“Si no hay ninguna evidencia de que el error tienda "hacia arriba" o "hacia abajo", lo más lógico es suponer que todos los errores entre –0.5 mm y +0.5 mm son igual de probables”.
Esto construye un modelo claro de incertidumbre: cualquier valor dentro del intervalo es posible y tiene la misma
probabilidad. (Se llama “rectangular” porque, si dibujas esa probabilidad constante sobre el intervalo,
la gráfica es literalmente un rectángulo: la base es el intervalo posible y la altura es la probabilidad uniforme.)
Cuando la probabilidad está distribuida de manera uniforme en un intervalo de ancho total 2a, la dispersión típica (la incertidumbre estándar) no es a, sino $\frac{a/2}{\sqrt{3}}$.
Esto representa que, aunque el error puede llegar a los extremos ±a, lo típico no es quedarse pegado al borde, sino encontrarse en cualquier punto del intervalo con igual probabilidad.
La distribución rectangular es mejor porque no solo te dice hasta dónde puede llegar el error, sino cómo se reparte dentro de ese intervalo, y ese modelo conduce naturalmente a una incertidumbre estándar más razonable ($\frac{a/2}{\sqrt{3}}$) que simplemente usar mitad de la mínima escala. Es decir, supone que el valor verdadero puede encontrarse con igual probablidad en cualquier punto del intervalo $[x-a,x+a].$
Nota: para realizar una medición efectica de mayor resolución es necesario ocupar un intrumento de resolución más fina entre los grados o marcas de su escala. En lo que a la Metrología concierne no es correcto querer estimar una medición con decimales más pequeños que la mínima escala del instrumento utilizado.
Cualquier medición realizada con una regla cuya mínima escala es 1mm tendrá asociada una incertidumbre de 0.05 cm. Una hoja de papel tamaño carta mide $(21.9 \pm 0.05)\text{cm}$ de ancho y $(27.94 \pm 0.05)\text{cm}$ de largo si la medidmos con una de estas reglas. O bien, ya suponiendo la distribución rectangular: $(21.9 \pm 0.03)\text{cm}$ y $(27.94 \pm 0.03)\text{cm}$ respectivamente.
Un error sistemático es un desplazamiento constante entre el valor medido y el valor verdadero a la hora de realizar la medición. Afecta siempre en la misma dirección (siempre suma o siempre resta) y no desaparece repitiendo las mediciones.
Tiene una causa identificable: instrumento mal calibrado, desfase entre el punto de inicio de una trayectoria en el espacio
y el punto donde empieza la medición, paralaje, etc.
Produce baja exactitud, porque todas las mediciones quedan desplazadas de manera constante respecto al valor verdadero, mas no
baja precisión, pues aunque los valores estén desplazados por el error, este no cauará gran dispersión entre ellos .
No se reduce por repetición: si haces 1 o 1,000 mediciones, todas seguirán desplazadas por el mismo valor.
Un termomómetro está mal calibrado y lee +2°C de más en cualquier condición. Si la temperatura real es 25°C, siempre verás alrededor de 27°C, por muy estable que esté.
Imaginemos que dejamos caer una pelota desde cierta altura $h$ con la mano, y medimos su tiempo de caída con un cronómetro 5 veces. Aunque $h$ sea exactamente la misma cada vez, veremos tiempos de caída diferentes. Podemos verificar nuestro cronómetro e incluso, si fuera necesario, cambiarlo por uno que sí esté funcionando correctamente; sin embargo, bajo su resolución ($a = 0.01 s$) obtendremos tiempos diferentes. Esto se debe a distintos factores que son difíciles o imposibles de controlar por completo a la hora de llevar a cabo el experimento, y que sí influyen menos o más notablemente en el resultado. Por ejemplo:
Son estas condiciones variables que, aunque su variabilidad puede ser parcialmente controladda y mitigada tomando acciones como: cerrar las ventanas y hacer el experimento bajo techo, improvisar un dispositivo mecánico que deje caer la pelota en vez de una mano humana, utilizar un sensor digital para detener el cronómetro en vez de una persona, etc.; siempre estarán presentes de una forma u otra( a diferencia de los sistemáticos que se les puede considerar eliminados después de tomar las acciones pertinentes), por lo que a este tipo de errores se les denomina aleatorios. Estos errores usualmente introducen dispersión (se alejan numéricamente entre sí) entre los resultados y reducen su precisión.
La existencia de los errores aleatorios es una de las principales razones por las cuales existen las mediciones no reproducibles, especialmente en el caso, en que, aunque las variables que se encuentran bajo nuestro control se mantengan aparentemente constantes, el experimento pueda arrojar resultados distintos cada interación.
Más adelante veremos que la ponderación de ambos tipos de errores nos lleva al uso de nuestra ecuación estadística más importante: la incertidumbre típica combinada y la incertidumbre total. A continuación veremos un ejemplo que la consideración de los errores aleatorios implica el uso de la desviación estándar.
Una pelota se deja caer de cierta altura 5 veces. Si medidmos el tiempo que tarda en llegar al suelo, obtenemos los siguientes:
$t_1 = 1.43 \text{s}$¿Qué resultado debemos reportar? ¿Qué incertidumbre le asignamos?
Cuando tenemos un experimento repetido bajo condiciones que suponemos iguales cada vez, y sin embargo, obtenemos mediciones ditintas, se le llama medición no reproducible. Y para nuestros tiempos no reproducibles reportaremos como resultado la media aritmética (promedio) de las mediciones obtenidas
Y para la incertidumbre, antes se usaba una estimación más simple basada en el rango máximo y mínimo de los datos, pero la GUM recomienda usar la desviación estándar de la media, porque representa mejor la confianza en los resultados cuando hay mediciones repetidas. Después veremos que a esto se le llama Incertidumbre Tipo A. Veamos el mismo ejemplo con los dos procedimientos diferentes:
La media aritmética o promedio de cualquier medición, como sabemos, es la suma de todos valores considerados como iteraciones de esa medición ($x_i$) dividido entre el número de iteraciones ($n$):
\[ \bar{x} = \frac{1}{n} \sum^n _{i=1} x_i ~~~~~~~~ (2.3) \]Para esta caso en particular:
\[ \bar{t} = t_\text{prom} = \frac{1}{n} \sum_{i=1}^n t_i = \frac{t_1 + t_2 + ... + t_n}{n}~~; ~~~~~~~~ (2.4) \]donde $t_i$ es cada uno de los tiempos reportados y $n$ es cuántos tiempos se reportaron. Así entonces, para nuestro ejemplo:
\[ \bar{t} = \frac{1.43 + 1.44 + 1.41 + 1.45 + 1.47}{5} = 1.44 ~~~~~~~~ (2.5) \]Y la incertidumbre que le asociaremos será el rango de dispersión de los datos, es decir, el valor abosluto de la diferencia entre el valor máximo y mínimo de las mediciones:
\[ \delta x = \text{Rango de dispersión} = |x_\text{max} - x_\text{min}| ~~~~~~~~ (2.6) \]Para este caso en particular:
\[ \delta t = |t_\text{max} - t_\text{min}| = |1.47 - 1.41| = |0.06| = 0.06 ~~~~~~~~ (2.7) \]Así entonces:
\[ \bar{t} \pm \delta t = (1.44 \pm 0.06)\text{s} ~~~~~~~~ (2.8) \]Primero calculamos la media aritmética. Este primer paso es el mismo que el de la ecuación (2.4):
\[ \bar{t} = 1.44~\text{s} \]Luego obtenemos la desviación estándar muestral de las mediciones, que nos dice cuánta variación hay entre ellas. En general se define como:
\[ \sigma_x = \sqrt{\frac{1}{n-1}\sum^n _{i=1} (x_i - \bar{x})^2} ~~~~~~~~ (2.9) \]Para este caso en particular:
\[ \sigma_t = \sqrt{\frac{(1.43-1.44)^2 + ... + (1.47-1.44)^2}{4}} = 0.022~\text{s} ~~~~~~~~ (2.10) \]Como lo que reportamos no es una sola medición, sino el promedio de varias, la incertidumbre asociada es menor que la dispersión total. Por eso usamos la desviación estándar de la media:
\[ u_{A,t} = \frac{\sigma_t}{\sqrt{n}} = \frac{0.022}{\sqrt{5}} = 0.01~\text{s} ~~~~~~~~ (2.11) \]Finalmente, expresamos el resultado con su incertidumbre tipo A:
\[ t = (\bar{t} \pm u_{A,t}) = (1.44 \pm 0.01)~\text{s} ~~~~~~~~ (2.12) \]Esto significa que el tiempo real de caída tiene una alta probabilidad de encontrarse entre 1.43 s y 1.45 s. Antes, se usaba una estimación más simple basada en el rango máximo y mínimo de los datos (±0.06 s), pero la GUM recomienda usar la desviación estándar de la media, porque representa mejor la confianza en los resultados cuando hay mediciones repetidas.
Sin embargo, queda una cuestión por resolver: si dejamos caer la pelota de la misma altura, ¿por qué obtuvimos diferentes tiempos? Los llamados errores estocásticos están involucrados en casi todas las mediciones. Surgen debido a condiciones incontrolables que afectan al observador, al instrumento de medición o a lo que se está midiendo y son los principales responsables de las mediciones que aquí llamamos “no reproducibles”.
Con fundamentos probabilísticos se puede suponer que, calculándolos a partir de un valor promedio de todas las mediciones originales, estos errores son tanto positivos como negativos generando así una dispersión “grande” o “pequeña”. Se dice que si la dispersión es “pequeña”, la precisión es “grande” (Como en la imagen de la Leccion1).