Precisión y exactitud

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Disposición cartesiana de la precisión y exactitud

En un conjunto de medidas, la exactitud es la cercanía de las medidas a un valor específico, mientras que la precisión es la cercanía de las medidas entre sí.

La precisión tiene dos definiciones:

  1. Más comúnmente, es una descripción de errores sistemáticos , una medida de sesgo estadístico; la baja precisión provoca una diferencia entre un resultado y un valor 'verdadero'. ISO llama a esto veracidad .
  2. Alternativamente, ISO define la precisión como la descripción de una combinación de los dos tipos de error de observación anteriores (aleatorio y sistemático), por lo que una alta precisión requiere tanto una alta precisión como una alta veracidad.

La precisión es una descripción de los errores aleatorios , una medida de la variabilidad estadística.

En términos más simples, dado un conjunto de puntos de datos de mediciones repetidas de la misma cantidad, se puede decir que el conjunto es preciso si su promedio está cerca del valor real de la cantidad que se mide, mientras que se puede decir que el conjunto es preciso si los valores son cercanos entre sí. En la primera definición más común de "exactitud" anterior, los dos conceptos son independientes entre sí, por lo que se puede decir que un conjunto particular de datos es exacto, preciso, ambos o ninguno.

Definición técnica común

En los campos de la ciencia y la ingeniería, la precisión de un sistema de medición es el grado de aproximación de las mediciones de una cantidad al valor real de esa cantidad. La precisión de un sistema de medición, relacionada con la reproducibilidad y la repetibilidad, es el grado en que las mediciones repetidas en condiciones sin cambios muestran los mismos resultados. Aunque las dos palabras precisión y exactitud pueden ser sinónimos en el uso coloquial, se contrastan deliberadamente en el contexto del método científico.

El campo de la estadística, donde la interpretación de las medidas juega un papel central, prefiere utilizar los términos sesgo y variabilidad en lugar de exactitud y precisión: el sesgo es la cantidad de inexactitud y la variabilidad es la cantidad de imprecisión.

Casos de paridad entre precisión y exactitud
Casos de paridad entre precisión y exactitud

Un sistema de medición puede ser exacto pero no exacto, preciso pero no exacto, ninguno o ambos. Por ejemplo, si un experimento contiene un error sistemático, entonces aumentar el tamaño de la muestra generalmente aumenta la precisión pero no mejora la exactitud. El resultado sería una serie de resultados consistentes pero inexactos del experimento defectuoso. Eliminar el error sistemático mejora la precisión pero no cambia la precisión.

En el análisis numérico, la precisión es también la proximidad de un cálculo al valor real; mientras que la precisión es la resolución de la representación, típicamente definida por el número de dígitos decimales o binarios.

En términos militares, la precisión se refiere principalmente a la precisión del fuego ( justesse de tir ), la precisión del fuego expresada por la cercanía de una agrupación de disparos en y alrededor del centro del objetivo.

Diferencias

La precisión y la exactitud se diferencian porque mientras la precisión mide la coherencia de un conjunto de datos entre sí, la precisión mide es la coherencia entre la media del conjunto de datos y el medio ideal que debería tener.

Un sistema de medición se considera válido si es exacto y preciso. Los términos relacionados incluyen sesgo (efectos no aleatorios o dirigidos causados ​​por un factor o factores no relacionados con la variable independiente) y error (variabilidad aleatoria).

La terminología también se aplica a mediciones indirectas, es decir, valores obtenidos mediante un procedimiento computacional a partir de datos observados.

Además de la exactitud y la precisión, las mediciones también pueden tener una resolución de medición, que es el cambio más pequeño en la cantidad física subyacente que produce una respuesta en la medición.

Cuantificación

En instrumentación industrial, la precisión es la tolerancia de medida, o transmisión del instrumento y define los límites de los errores cometidos cuando el instrumento se utiliza en condiciones normales de funcionamiento.

Contextualización gráfica de la precisión y exactitud
Contextualización gráfica de la precisión y exactitud

Idealmente, un dispositivo de medición es exacto y preciso, con mediciones todas cercanas y estrechamente agrupadas alrededor del valor real. La exactitud y precisión de un proceso de medición generalmente se establece midiendo repetidamente algún estándar de referencia rastreable. Dichos estándares están definidos en el Sistema Internacional de Unidades (abreviado SI del francés: Système international d'unités ) y mantenidos por organizaciones de estándares nacionales como el Instituto Nacional de Estándares y Tecnología en los Estados Unidos.

Esto también se aplica cuando las mediciones se repiten y promedian. En ese caso, el término error estándar se aplica correctamente: la precisión del promedio es igual a la desviación estándar conocida del proceso dividida por la raíz cuadrada del número de mediciones promediadas. Además, el teorema del límite central muestra que la distribución de probabilidad de las mediciones promediadas estará más cerca de una distribución normal que la de las mediciones individuales.

Con respecto a la precisión podemos distinguir:

  • la diferencia entre la media de las medidas y el valor de referencia, el sesgo. Es necesario establecer y corregir el sesgo para la calibración.
  • el efecto combinado de eso y la precisión.

Una convención común en ciencia e ingeniería es expresar la exactitud y/o precisión implícitamente por medio de cifras significativas. Cuando no se indique expresamente, se entiende que el margen de error es la mitad del valor del último lugar significativo. Por ejemplo, un registro de 843,6 m, o 843,0 m, o 800,0 m implicaría un margen de 0,05 m (el último lugar significativo es el lugar de las décimas), mientras que un registro de 843 m implicaría un margen de error de 0,5 m ( los últimos dígitos significativos son las unidades).

Una lectura de 8000 m, con ceros finales y sin punto decimal, es ambigua; los ceros finales pueden o no ser considerados como cifras significativas. Para evitar esta ambigüedad, el número podría representarse en notación científica: 8,0 × 10  m indica que el primer cero es significativo (por lo tanto, un margen de 50 m) mientras que 8,000 × 10  m indica que los tres ceros son significativos, dando un margen de 0,5 metros De manera similar, se puede usar un múltiplo de la unidad de medida básica: 8,0 km equivale a 8,0 × 10 metro. Indica un margen de 0,05 km (50 m). Sin embargo, confiar en esta convención puede dar lugar a errores de precisión falsos al aceptar datos de fuentes que no la obedecen. Por ejemplo, una fuente que informa un número como 153 753 con una precisión de +/- 5000 parece tener una precisión de +/- 0,5. Según la convención, se habría redondeado a 154.000.

Alternativamente, en un contexto científico, si se desea indicar el margen de error con mayor precisión, se puede utilizar una notación como 7,54398(23) × 10 m, lo que significa un rango de entre 7,54375 y 7,54421 × 10 m.

La precisión incluye:

  • repetibilidad — la variación que surge cuando se hacen todos los esfuerzos para mantener las condiciones constantes utilizando el mismo instrumento y operador, y repitiendo durante un período de tiempo corto; y
  • reproducibilidad — la variación que surge usando el mismo proceso de medición entre diferentes instrumentos y operadores, y durante períodos de tiempo más largos.

En ingeniería, la precisión suele tomarse como tres veces la desviación estándar de las medidas tomadas, lo que representa el rango en el que pueden ocurrir el 99,73 % de las medidas. Por ejemplo, un ergonomista que mide el cuerpo humano puede estar seguro de que el 99,73 % de sus medidas extraídas se encuentran dentro de ± 0,7 cm, si usa el sistema de procesamiento GRYPHON, o ± 13 cm, si usa datos sin procesar.

Definición ISO (ISO 5725)

Un cambio en el significado de estos términos apareció con la publicación de la serie de normas ISO 5725 en 1994, que también se refleja en la edición de 2008 del "BIPM International Vocabulary of Metrology" (VIM), artículos 2.13 y 2.14.

De acuerdo con ISO 5725-1, el término general "exactitud" se utiliza para describir la proximidad de una medición al valor real. Cuando el término se aplica a conjuntos de medidas del mismo mensurando, implica un componente de error aleatorio y un componente de error sistemático. En este caso, la veracidad es la cercanía de la media de un conjunto de resultados de medición al valor real (verdadero) y la precisión es la cercanía de concordancia entre un conjunto de resultados.

ISO 5725-1 y VIM también evitan el uso del término "sesgo", previamente especificado en BS 5497-1, porque tiene diferentes connotaciones fuera de los campos de la ciencia y la ingeniería, como en medicina y derecho.Precisión de una agrupación objetivo según BIPM e ISO 5725.

  • Baja exactitud debido a la baja precisión
  • Baja exactitud incluso con alta precisión

En clasificación binaria

La precisión también se usa como una medida estadística de qué tan bien una prueba de clasificación binaria identifica o excluye correctamente una condición. Es decir, la precisión es la proporción de predicciones correctas (tanto verdaderos positivos como verdaderos negativos) entre el número total de casos examinados. Como tal, compara estimaciones de probabilidad antes y después de la prueba. Para aclarar el contexto por la semántica, a menudo se lo denomina "precisión de Rand" o "índice de Rand". Es un parámetro de la prueba. La fórmula para cuantificar la precisión binaria es:

{\displaystyle {\text{Precisión}}={\frac {TP+TN}{TP+TN+FP+FN}}}donde TP = Verdadero positivo ; FP = Falso positivo ; TN = Verdadero negativo ; FN = Falso negativo

Tenga en cuenta que, en este contexto, los conceptos de veracidad y precisión definidos en la norma ISO 5725-1 no son aplicables. Una de las razones es que no existe un único “valor verdadero” de una cantidad, sino dos posibles valores verdaderos para cada caso, mientras que la precisión es un promedio de todos los casos y, por lo tanto, tiene en cuenta ambos valores. Sin embargo, el término precisión se usa en este contexto para referirse a una métrica diferente que se origina en el campo de la recuperación de información (ver más abajo).

En psicometría y psicofísica

En psicometría y psicofísica, el término precisión se usa indistintamente con validez y error constante . Precisión es sinónimo de fiabilidad y error variable . La validez de un instrumento de medida o prueba psicológica se establece mediante experimentación o correlación con la conducta. La confiabilidad se establece con una variedad de técnicas estadísticas, clásicamente a través de una prueba de consistencia interna como el alfa de Cronbach para garantizar que los conjuntos de preguntas relacionadas tengan respuestas relacionadas, y luego la comparación de esas preguntas relacionadas entre la población de referencia y la población objetivo.

En simulación lógica

En la simulación lógica, un error común en la evaluación de modelos precisos es comparar un modelo de simulación lógica con un modelo de simulación de circuito de transistor. Esta es una comparación de diferencias en precisión, no de exactitud. La precisión se mide con respecto al detalle y la exactitud se mide con respecto a la realidad.

En los sistemas de información

Los sistemas de recuperación de información, como las bases de datos y los motores de búsqueda web, se evalúan mediante muchas métricas diferentes, algunas de las cuales se derivan de la matriz de confusión, que divide los resultados en verdaderos positivos (documentos correctamente recuperados), verdaderos negativos (documentos correctamente no recuperados), falsos positivos (documentos recuperados incorrectamente) y falsos negativos (documentos no recuperados incorrectamente). Las métricas comúnmente utilizadas incluyen las nociones de precisión y recuperación. En este contexto, la precisión se define como la fracción de documentos recuperados que son relevantes para la consulta (positivos verdaderos divididos por positivos verdaderos+falsos), utilizando un conjunto de resultados relevantes seleccionados por humanos. La recuperación se define como la fracción de documentos relevantes recuperados en comparación con el número total de documentos relevantes (verdaderos positivos divididos por verdaderos positivos + falsos negativos). Con menos frecuencia, se utiliza la métrica de precisión, que se define como el número total de clasificaciones correctas (positivos verdaderos más negativos verdaderos) dividido por el número total de documentos.

Ninguna de estas métricas tiene en cuenta el ranking de resultados. La clasificación es muy importante para los motores de búsqueda web porque los lectores rara vez pasan de la primera página de resultados, y hay demasiados documentos en la web para clasificarlos manualmente en cuanto a si deben incluirse o excluirse de una búsqueda determinada. Agregar un límite en un número particular de resultados tiene en cuenta la clasificación hasta cierto punto. La precisión de la medida en k, por ejemplo, es una medida de precisión que mira solo los diez primeros (k=10) resultados de búsqueda. Las métricas más sofisticadas, como la ganancia acumulada descontada, tienen en cuenta cada clasificación individual y se usan más comúnmente cuando esto es importante.

Contenido relacionado

Evidencia empírica

La evidencia empírica de una proposición es evidencia, es decir, lo que apoya o contrarresta esta proposición, que está constituida por o accesible a la...

Teoría del flogisto

La teoría del flogisto es una teoría científica superada que postulaba la existencia de un elemento parecido al fuego llamado flogisto contenido dentro de...

Historia de las ciencias sociales

La historia de las ciencias sociales tiene su origen en el acervo común de la filosofía occidental y comparte varios precursores, pero comenzó más...

Teoría del caos

Teoría del caos es una disciplina científica interdisciplinaria y una especialidad de las matemáticas. La teoría del caos estudia cómo pequeños cambios...

Historia del método científico

La historia del método científico considera los cambios en la metodología de la investigación científica, a diferencia de la historia de la ciencia...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save