viernes, 7 de octubre de 2011

Datos: incertidumbre, errores, y confiabilidad

Conceptos clave

  • La incertidumbre es una estimación cuantitativa del error que está presente en todos los datos; todas las medidas contienen alguna incertidumbre generada a través del error sistemático y o del error común.
  • Reconocer la incertidumbre de los datos es un componente importante en la presentación de los resultados de la investigación científica.
  • La incertidumbre es malentendida comúnmente como que significa que los científicos no están seguros de sus resultados, pero el término especifica el grado por el cual los científicos sí están seguros de sus datos.
  • La cuidadosa metodología puede reducir la incertidumbre al correr el error sistemático y minimizar el error aleatorio. Sin embargo, la incertidumbre





La incertidumbre en la naturaleza

Se le atribuye comúnmente a Karl Pearson, el estadístico y genetista inglés, al final de los años 1800 la primera descripción del concepto de incertidumbre como una medida de variabilidad de los datos (Salsburg, 2001). Antes de Pearson, los científicos se dieron cuenta que las medidas incorporaban variabilidad, pero asumían que esta variabilidad se debía simplemente a un error. Por ejemplo, las medidas orbitales de los planetas alrededor del sol, tomadas por diferentes científicos en diferentes momentos variaba, y se pensaba que esta variabilidad se debía a los errores causados por una instrumentación inadecuada. Ya en el año 1820 el matemático francés Pierre-Simon Laplace discutió un método para cuantificar la distribución del error de las medidas astronómicas causadas por pequeños errores asociados con las limitaciones instrumentales. A medida que la tecnología avanzaba durante los años 1800, los astrónomos se dieron cuenta que podían reducir, pero no eliminar este error en sus medidas. Pearson adelantó una idea revolucionaria: la incertidumbre, propuso, no se debía simplemente a los límites de la tecnología en la medición de ciertos eventos, sino que era de naturaleza inherente. Hasta la más cuidadosa y rigurosa investigación científica (o cualquier tipo de investigación, de hecho) no puede producir una medida exacta. Al contrario, repetir una investigación produce unas medidas dispersas que están distribuidas alrededor de algún valor central. Esta dispersión estaría causada no solamente por el error, sino también por la variabilidad natural. En otras palabras, las medidas en sí mismas, independientemente de cualquier inexactitud humana o instrumental, exhiben dispersión. Ya sea el sendero de una flecha, el corazón reposado de un adulto masculino, o la edad de un artefacto histórico, las medidas no tienen valores exactos, sino que siempre exhiben una gama de valores, y esta gama puede ser cuantificada como incertidumbre. Esta incertidumbre puede ser expresada como un campo de la probabilidad para obtener un cierto valor, y las probabilidades están distribuidas alrededor de un valor central o medio.

La incertidumbre y el error en la práctica – la datación por carbono 14

Los arqueólogos, paleontólogos y otros investigadores se han interesado durante mucho tiempo en la datación de objetos y artefactos, en un esfuerzo de comprender su historia y sus usos. Desafortunadamente, los registros escritos son una invención humana relativamente reciente y hay pocos artefactos históricos acompañados de historias escritas precisas. En la primera mitad del siglo XX, un químico nuclear americano llamado Willard F. Libby, se interesó en el uso del isótopo radioactivo 14C para datar ciertos objetos. La teoría de la datación por radiocarbono es relativamente sencilla. La mayoría del carbono en la estratosfera de la Tierra está como 12C, pero una pequeña cantidad del isótopo 14C, está producido naturalmente a través del bombardeo del 14N con rayos cósmicos (W. F. Libby, 1946). A medida que las plantas captan carbono de la atmósfera a través de la respiración, incorporan el 14C, así como el más abundante 12C en sus tejidos. Los animales también toman los isótopos de carbono a través de la comida que comen. Por consiguiente, todos los organismos vivos tienen la misma proporción de isótopos de 14C y 12C en sus cuerpos, que los que tiene la atmósfera. Al contrario del 12C, el 14C es un isótopo radioactivo que en su producto 14N está constantemente sufriendo descomposición a un índice conocido. Mientras que un organismo está vivo, toma nuevo 14C del ambiente y así se mantiene en equilibrio con éste. Cuando los organismos mueren, sin embargo, el carbono en sus tejidos ya no se sustituye, y la cantidad de 14C disminuye lentamente con el tiempo al descomponerse en 14N. Por consiguiente, la cantidad del 14C radioactivo que se conserva en un pedazo de madera o hueso animal puede ser usado para determinar cuándo murió ese organismo. Esencialmente, a mayor tiempo de muerte del organismo, menores niveles de 14C.

La confiabilidad: la presentación de la incertidumbre y el error

Como consecuencia del error, las medidas científicas no se reportan como valores sencillos, sino como gamas o promedios con barras de errores en un gráfico o signos de ± en una tabla. Karl Pearson primero describió los métodos matemáticos para determinar la distribución de la probabilidad de las medidas científicas, y estos métodos forman la base de las aplicaciones estadísticas en la investigación científica (vea nuestro módulo Data: Statistics). Las técnicas estadísticas nos permiten estimar y reportar el error que rodea un valor, después de que se han repetido las medidas de ese valor. Por ejemplo, Libby y Wu reportaron sus estimados como registros de una desviación estándar, alrededor de la medida media, o promedio. La desviación estándar provee una medida del registro de variabilidad de medidas individuales y específicamente, define un registro que contiene un 34.1% de las medidas individuales por encima del valor medio y 34.1% de aquellos por debajo de la media. La desviación estándar de un registro de medidas puede ser usada para calcular un intervalo de confiabilidad alrededor del valor. Las declaraciones de confiabilidad no proveen, como creen algunos, un cálculo de cuán correcta es una medida. Por el contrario, una declaración de confiabilidad describe la probabilidad por la cual un registro de medidas se superpondrá al valor medio de la medida cuando se repite un estudio. Esto puede sonar un poco confuso, pero considere un estudio de Yoshikata Morimoto y sus colegas, quienes examinaron el promedio de la velocidad del lanzamiento de ocho jugadores de baseball de la universidad (Morimoto et al., 2003). Cada uno de los pitchers tenía que hacer seis lanzamientos y el promedio de la velocidad fue de 34.6 m/s (77.4 mph) con un 95% de intervalo de confianza de 34.6 ± 0.2 m/s (34.4 m/s a 34.8 m/s). Más adelante, cuando repitió este estudio y cada uno de los 8 pitchers tenía que hacer 18 lanzamientos, el promedio de la velocidad fue de 34.7 m/s, exactamente dentro del intervalo de confianza obtenido durante el primer estudio. En este caso, no hay un valor “teóricamente correcto”, sino que el intervalo de confianza provee un estimado de la probabilidad de que se encontrará un resultado similar si se repite el estudio. Debido a que Morimoto determinó un intervalo de confianza de 95%, si repitiese su estudio 100 veces (sin agotar a sus pitchers), su intervalo de confianza se superpondría con la media de la velocidad del lanzamiento 95 veces, y los otros cinco estudios probablemente, producirían velocidades de lanzamiento que estarían fuera del intervalo de confianza.
En la ciencia, un indicador importante de la confiabilidad para la medida es la cantidad reportada de cifras significativas. Morimoto reportó sus medidas a una décima (34.6 m/s) ya que su instrumentación tenía este nivel de precisión. Pudo distinguir las diferencias en los lanzamientos de 34.6 m/s a 34.7 m/s. Si hubiese redondeado sus medidas a 35 m/s, hubiese perdido una cantidad de detalles contenidos en sus datos. Es más, su instrumentación no tenía la precisión necesaria para reportar figuras significativas adicionales (por ejemplo, 34.62 m/s).Cuando se reportan figuras significativas, se puede introducir errores substanciales en un conjunto de datos.

domingo, 2 de octubre de 2011

Ley de elasticidad de Hooke

En física, la ley de elasticidad de Hooke o ley de Hooke, originalmente formulada para casos del estiramiento longitudinal, establece que el alargamiento unitario que experimenta un material elástico es directamente proporcional a la fuerza aplicada F:
siendo δ el alargamiento, L la longitud original, E: módulo de Young, A la sección transversal de la pieza estirada. La ley se aplica a materiales elásticos hasta un límite denominado límite elástico.
Esta ley recibe su nombre de Robert Hooke, físico británico contemporáneo de Isaac Newton. Ante el temor de que alguien se apoderara de su descubrimiento, Hooke lo publicó en forma de un famoso anagrama, ceiiinosssttuv, revelando su contenido un par de años más tarde. El anagrama significa Ut tensio sic vis ("como la extensión, así la fuerza").

Ley de Hooke para los resortes
La forma más común de representar matemáticamente la Ley de Hooke es mediante la ecuación del muelle o resorte, donde se relaciona la fuerza F ejercida sobre el resorte con la elongación o alargamiento δ producido:
F = -k\delta \,
donde k se llama constante elástica del resorte y  \delta\, es su elongación o variación que experimenta su longitud.
La energía de deformación o energía potencial elástica Uk asociada al estiramiento del resorte viene dada por la siguiente ecuación:
U_k=\frac{1}{2} k{\delta}^2
Es importante notar que la k antes definida depende de la longitud del muelle y de su constitución. Definiremos ahora una constante intrínseca del resorte independiente de la longitud de este y estableceremos así la ley diferencial constitutiva de un muelle. Multiplicando k por la longitud total, y llamando al producto k_i\, o k\, intrínseca, se tiene:
k=\frac{k_i}{L}

Llamaremos F(x)\, a la tensión en una sección del muelle situada una distancia x de uno de sus extremos que tomamos como origen de coordenadas, kΔx a la constante de un pequeño trozo de muelle de longitud Δx a la misma distancia y δΔx al alargamiento de ese pequeño trozo en virtud de la aplicación de la fuerza F(x). Por la ley del muelle completo:
F(x)=-k_{\Delta x}\delta_{\Delta x}=-k_i\frac{\delta_{\Delta x}}{\Delta x}
Tomando el límite:
F(x)=-k_i\frac{{\delta}_{dx}}{dx}
que por el principio de superposición resulta:
F\left(x\right)=-k_i\frac{d{\delta}}{dx}=-AE\frac{d\delta}{dx}
Que es la ecuación diferencial del muelle. Si se integra para todo x, de obtiene como ecuación de onda unidimensional que describe los fenómenos ondulatorios (Ver: Muelle elástico). La velocidad de propagación de las vibraciones en un resorte se calcula como:
c=\sqrt{\frac{E}{\rho}}

Ley de Hooke en sólidos elásticos

En la mecánica de sólidos deformables elásticos la distribución de tensiones es mucho más complicada que en un resorte o una barra estirada sólo según su eje. La deformación en el caso más general necesita ser descrita mediante un tensor de deformaciones mientras que los esfuerzos internos en el material necesitan se representados por un tensor de tensiones. Estos dos tensores están relacionados por ecuaciones lineales conocidas por ecuaciones de Hooke generalizadas o ecuaciones de Lamé-Hooke, que son las ecuaciones constitutivas que caracterizan el comportamiento de un sólido elástico lineal. Estas ecuaciones tienen la forma general:
\sigma_{ij} = \sum_{k,l} C_{ijkl}\varepsilon_{kl} \,
Gran parte de las estructuras de ingeniería son diseñadas para sufrir deformaciones pequeñas,se involucran sólo en la recta del diagrama de esfuerzo y deformación.
De tal forma que la deformación Є es una cantidad adimencional,el modulo E se expresa en las mismas unidades que el esfuerzo σ (unidades pa, psi y ksi).El máximo valor del esfuerzo para el que puede emplearse la ley de Hooke en un material es conocido como límite de proporcionalidad de un material .En este caso, los materiales dúctiles que poseen un punto de cedencia definido;en ciertos materiales no puede definirse la proporcionalidad de cedencia fácilmente, ya que es difícil determinar con precisión el valor del esfuerzo σ para el que la similitud entre σ y Є deje de ser lineal. Al utilizar la ley de Hooke en valores mayores que el límite de proporcionalidad no conducirá a ningún error significativo. En resistencia de materiales se involucra en las propiedades físicas de materiales,como resistencia ,ductibilidad y resistencia de corrosión;que pueden afectarse debido a la aleación ,el tratamiento térmico y el proceso de manofactura.