- La incertidumbre es una estimación cuantitativa del error que está presente en todos los datos; todas las medidas contienen alguna incertidumbre generada a través del error sistemático y o del error común.
- Reconocer la incertidumbre de los datos es un componente importante en la presentación de los resultados de la investigación científica.
- La incertidumbre es malentendida comúnmente como que significa que los científicos no están seguros de sus resultados, pero el término especifica el grado por el cual los científicos sí están seguros de sus datos.
- La cuidadosa metodología puede reducir la incertidumbre al correr el error sistemático y minimizar el error aleatorio. Sin embargo, la incertidumbre
La incertidumbre en la naturaleza
Se le atribuye comúnmente a Karl Pearson, el estadístico y genetista inglés, al final de los años 1800 la primera descripción del concepto de incertidumbre como una medida de variabilidad de los
datos (
Salsburg, 2001). Antes de Pearson, los científicos se dieron cuenta que las medidas incorporaban variabilidad, pero asumían que esta variabilidad se debía simplemente a un error. Por ejemplo, las medidas orbitales de los planetas alrededor del sol, tomadas por diferentes científicos en diferentes momentos variaba, y se pensaba que esta variabilidad se debía a los errores causados por una instrumentación inadecuada. Ya en el año 1820 el matemático francés Pierre-Simon Laplace discutió un método para cuantificar la distribución del error de las medidas astronómicas causadas por pequeños errores asociados con las limitaciones instrumentales. A medida que la tecnología avanzaba durante los años 1800, los astrónomos se dieron cuenta que podían reducir, pero no eliminar este error en sus medidas. Pearson adelantó una idea revolucionaria: la incertidumbre, propuso, no se debía simplemente a los límites de la tecnología en la medición de ciertos eventos, sino que era de naturaleza inherente. Hasta la más cuidadosa y rigurosa investigación científica (o cualquier tipo de investigación, de hecho) no puede producir una medida exacta. Al contrario, repetir una investigación produce unas medidas dispersas que están distribuidas alrededor de algún valor central. Esta dispersión estaría causada no solamente por el error, sino también por la variabilidad natural. En otras palabras, las medidas en sí mismas, independientemente de cualquier inexactitud humana o instrumental, exhiben dispersión. Ya sea el sendero de una flecha, el corazón reposado de un adulto masculino, o la edad de un artefacto histórico, las medidas no tienen valores exactos, sino que siempre exhiben una gama de valores, y esta gama puede ser cuantificada como incertidumbre. Esta incertidumbre puede ser expresada como un campo de la
probabilidad para obtener un cierto valor, y las probabilidades están distribuidas alrededor de un valor central o medio.
La incertidumbre y el error en la práctica – la datación por carbono 14
Los arqueólogos, paleontólogos y otros investigadores se han interesado durante mucho tiempo en la datación de objetos y artefactos, en un esfuerzo de comprender su historia y sus usos. Desafortunadamente, los registros escritos son una invención humana relativamente reciente y hay pocos artefactos históricos acompañados de historias escritas precisas. En la primera mitad del siglo XX, un químico nuclear americano llamado Willard F. Libby, se interesó en el uso del
isótopo radioactivo
14C para datar ciertos objetos. La
teoría de la datación por radiocarbono es relativamente sencilla. La mayoría del carbono en la estratosfera de la Tierra está como
12C, pero una pequeña cantidad del isótopo
14C, está producido naturalmente a través del bombardeo del
14N con rayos cósmicos (
W. F. Libby, 1946). A medida que las plantas captan carbono de la atmósfera a través de la respiración, incorporan el
14C, así como el más abundante
12C en sus tejidos. Los animales también toman los isótopos de carbono a través de la comida que comen. Por consiguiente, todos los
organismos vivos tienen la misma proporción de isótopos de
14C y
12C en sus cuerpos, que los que tiene la atmósfera. Al contrario del
12C, el
14C es un isótopo radioactivo que en su
producto 14N está constantemente sufriendo descomposición a un índice conocido. Mientras que un organismo está vivo, toma nuevo
14C del ambiente y así se mantiene en equilibrio con éste. Cuando los organismos mueren, sin embargo, el carbono en sus tejidos ya no se sustituye, y la cantidad de
14C disminuye lentamente con el tiempo al descomponerse en
14N. Por consiguiente, la cantidad del
14C radioactivo que se conserva en un pedazo de madera o hueso animal puede ser usado para determinar cuándo murió ese organismo. Esencialmente, a mayor tiempo de muerte del organismo, menores niveles de
14C.
La confiabilidad: la presentación de la incertidumbre y el error
Como consecuencia del error, las medidas científicas no se reportan como valores sencillos, sino como gamas o promedios con barras de errores en un gráfico o signos de ± en una tabla. Karl Pearson primero describió los métodos matemáticos para determinar la distribución de la
probabilidad de las medidas científicas, y estos métodos forman la
base de las aplicaciones estadísticas en la investigación científica (vea nuestro módulo
Data: Statistics). Las técnicas estadísticas nos permiten estimar y reportar el error que rodea un valor, después de que se han repetido las medidas de ese valor. Por ejemplo, Libby y Wu reportaron sus estimados como registros de una
desviación estándar, alrededor de la medida
media, o promedio. La desviación estándar provee una medida del registro de variabilidad de medidas individuales y específicamente, define un registro que contiene un 34.1% de las medidas individuales por encima del valor medio y 34.1% de aquellos por debajo de la media. La desviación estándar de un registro de medidas puede ser usada para calcular un intervalo de confiabilidad alrededor del valor. Las declaraciones de confiabilidad no proveen, como creen algunos, un cálculo de cuán correcta es una medida. Por el contrario, una declaración de confiabilidad describe la probabilidad por la cual un registro de medidas se superpondrá al valor medio de la medida cuando se repite un estudio. Esto puede sonar un poco confuso, pero considere un estudio de Yoshikata Morimoto y sus colegas, quienes examinaron el promedio de la velocidad del lanzamiento de ocho jugadores de baseball de la universidad (
Morimoto et al., 2003). Cada uno de los pitchers tenía que hacer seis lanzamientos y el promedio de la velocidad fue de 34.6 m/s (77.4 mph) con un 95% de intervalo de confianza de 34.6 ± 0.2 m/s (34.4 m/s a 34.8 m/s). Más adelante, cuando repitió este estudio y cada uno de los 8 pitchers tenía que hacer 18 lanzamientos, el promedio de la velocidad fue de 34.7 m/s, exactamente dentro del intervalo de confianza obtenido durante el primer estudio. En este caso, no hay un valor “teóricamente correcto”, sino que el intervalo de confianza provee un estimado de la probabilidad de que se encontrará un resultado similar
si se repite el estudio. Debido a que Morimoto determinó un intervalo de confianza de 95%, si repitiese su estudio 100 veces (sin agotar a sus pitchers), su intervalo de confianza se superpondría con la media de la velocidad del lanzamiento 95 veces, y los otros cinco estudios probablemente, producirían velocidades de lanzamiento que estarían fuera del intervalo de confianza.
En la ciencia, un indicador importante de la confiabilidad para la medida es la cantidad reportada de cifras significativas. Morimoto reportó sus medidas a una décima (34.6 m/s) ya que su instrumentación tenía este nivel de
precisión. Pudo distinguir las diferencias en los lanzamientos de 34.6 m/s a 34.7 m/s.
Si hubiese redondeado sus medidas a 35 m/s, hubiese perdido una cantidad de detalles contenidos en sus
datos. Es más, su instrumentación no tenía la precisión necesaria para reportar figuras significativas adicionales (por ejemplo, 34.62 m/s).Cuando se reportan figuras significativas, se puede introducir errores substanciales en un conjunto de datos.