Exactitud y precisión

Ajustar Compartir Imprimir Citar

Exactitud y precisión son dos medidas de error de observación. Exactitud es qué tan cerca está un determinado conjunto de medidas (observaciones o lecturas) de su valor verdadero, mientras que precisión< /b> es qué tan cerca están las medidas entre sí.

En otras palabras, precisión es una descripción de errores aleatorios, una medida de variabilidad estadística. Precisión tiene dos definiciones:

  1. Más comúnmente, es una descripción de sólo errores sistemáticos, una medida de sesgo estadístico de una determinada medida de tendencia central; la baja precisión causa una diferencia entre un resultado y un verdadero valor; ISO llama esto verdad.
  2. Alternativamente, ISO define la precisión como describir una combinación de ambos tipos de error observacional (aleatorio y sistemático), por lo que la alta precisión requiere tanto alta precisión como alta fidelidad.

En la primera y más común definición de "precisión" anterior, el concepto es independiente de "precisión", por lo que se puede decir que un conjunto particular de datos es exacto, preciso, ambos o ninguno.

En términos más simples, dada una muestra estadística o un conjunto de puntos de datos de mediciones repetidas de la misma cantidad, se puede decir que la muestra o conjunto es exacto si su promedio está cerca del valor real de la cantidad que se mide, mientras que se puede decir que el conjunto es preciso si su desviación estándar es relativamente pequeña.

Definición técnica común

Precisión es la proximidad de los resultados de medición al valor aceptado; precisión es el grado en que las mediciones repetidas (o reproducibles) en condiciones inalteradas muestran los mismos resultados.

En los campos de la ciencia y la ingeniería, la precisión de un sistema de medición es el grado de aproximación de las mediciones de una cantidad al valor real de esa cantidad. La precisión de un sistema de medición, relacionada con la reproducibilidad y la repetibilidad, es el grado en que las mediciones repetidas en condiciones sin cambios muestran los mismos resultados. Aunque las dos palabras precisión y exactitud pueden ser sinónimos en el uso coloquial, se contrastan deliberadamente en el contexto del método científico.

El campo de la estadística, donde la interpretación de las medidas juega un papel central, prefiere utilizar los términos sesgo y variabilidad en lugar de exactitud y precisión: el sesgo es la cantidad de inexactitud y variabilidad es la cantidad de imprecisión.

Un sistema de medición puede ser exacto pero no exacto, preciso pero no exacto, ninguno o ambos. Por ejemplo, si un experimento contiene un error sistemático, entonces aumentar el tamaño de la muestra generalmente aumenta la precisión pero no mejora la exactitud. El resultado sería una serie de resultados consistentes pero inexactos del experimento defectuoso. Eliminar el error sistemático mejora la precisión pero no cambia la precisión.

Un sistema de medición se considera válido si es tanto exacto como preciso. Los términos relacionados incluyen sesgo (efectos no aleatorios o dirigidos causados por un factor o factores no relacionados con la variable independiente) y error (variabilidad aleatoria).

La terminología también se aplica a mediciones indirectas, es decir, valores obtenidos mediante un procedimiento computacional a partir de datos observados.

Además de la exactitud y la precisión, las mediciones también pueden tener una resolución de medición, que es el cambio más pequeño en la cantidad física subyacente que produce una respuesta en la medición.

En el análisis numérico, la precisión también es la proximidad de un cálculo al valor real; mientras que la precisión es la resolución de la representación, típicamente definida por el número de dígitos decimales o binarios.

En términos militares, la precisión se refiere principalmente a la precisión del fuego (justesse de tir), la precisión del fuego expresada por la cercanía de un grupo de disparos en y alrededor del centro del objetivo.

Cuantificación

En instrumentación industrial, la precisión es la tolerancia de medición o transmisión del instrumento y define los límites de los errores cometidos cuando el instrumento se utiliza en condiciones normales de funcionamiento.

Lo ideal es que un dispositivo de medición sea exacto y preciso, con mediciones cercanas y estrechamente agrupadas alrededor del valor real. La exactitud y precisión de un proceso de medición generalmente se establece midiendo repetidamente algún estándar de referencia rastreable. Dichos estándares están definidos en el Sistema Internacional de Unidades (abreviado SI del francés: Système international d'unités) y mantenidos por organizaciones de estándares nacionales como el Instituto Nacional de Estándares y Tecnología en los Estados Unidos..

Esto también se aplica cuando las mediciones se repiten y promedian. En ese caso, el término error estándar se aplica correctamente: la precisión del promedio es igual a la desviación estándar conocida del proceso dividida por la raíz cuadrada del número de mediciones promediadas. Además, el teorema del límite central muestra que la distribución de probabilidad de las mediciones promediadas estará más cerca de una distribución normal que la de las mediciones individuales.

Con respecto a la precisión podemos distinguir:

Una convención común en ciencia e ingeniería es expresar la exactitud y/o precisión implícitamente por medio de cifras significativas. Cuando no se indique expresamente, se entiende que el margen de error es la mitad del valor del último lugar significativo. Por ejemplo, un registro de 843,6 m, o 843,0 m, o 800,0 m implicaría un margen de 0,05 m (el último lugar significativo es el lugar de las décimas), mientras que un registro de 843 m implicaría un margen de error de 0,5 m (los últimos dígitos significativos son las unidades).

Una lectura de 8000 m, con ceros al final y sin punto decimal, es ambigua; los ceros finales pueden o no ser considerados como cifras significativas. Para evitar esta ambigüedad, el número podría representarse en notación científica: 8,0 × 103 m indica que el primer cero es significativo (por lo tanto, un margen de 50 m) mientras que 8,000 × 103< /sup> m indica que los tres ceros son significativos, dando un margen de 0,5 m. Del mismo modo, se puede utilizar un múltiplo de la unidad de medida básica: 8,0 km equivale a 8,0 × 103 m. Indica un margen de 0,05 km (50 m). Sin embargo, confiar en esta convención puede dar lugar a errores de precisión falsos al aceptar datos de fuentes que no la obedecen. Por ejemplo, una fuente que informa un número como 153 753 con una precisión de +/- 5000 parece tener una precisión de +/- 0,5. Según la convención, se habría redondeado a 154.000.

Alternativamente, en un contexto científico, si se desea indicar el margen de error con más precisión, se puede usar una notación como 7.54398(23) × 10−10 m, lo que significa un rango de entre 7,54375 y 7,54421 × 10−10 m.

La precisión incluye:

En ingeniería, la precisión suele tomarse como tres veces la desviación estándar de las medidas tomadas, lo que representa el rango en el que pueden ocurrir el 99,73 % de las medidas. Por ejemplo, un ergonomista que mide el cuerpo humano puede estar seguro de que el 99,73 % de sus medidas extraídas se encuentran dentro de ± 0,7 cm, si usa el sistema de procesamiento GRYPHON, o ± 13 cm, si usa datos sin procesar.

Definición ISO (ISO 5725)

Según ISO 5725-1, la precisión consiste en la veracidad (proximidad de resultados de medición al verdadero valor) y precisión (repetibilidad o reproducibilidad de la medición).

Un cambio en el significado de estos términos apareció con la publicación de la serie de normas ISO 5725 en 1994, que también se refleja en la edición de 2008 del "BIPM International Vocabulary of Metrology" (VIM), ítems 2.13 y 2.14.

Según ISO 5725-1, el término general "precisión" se utiliza para describir la cercanía de una medida al valor verdadero. Cuando el término se aplica a conjuntos de medidas del mismo mensurando, implica un componente de error aleatorio y un componente de error sistemático. En este caso, la veracidad es la cercanía de la media de un conjunto de resultados de medición al valor real (verdadero) y la precisión es la cercanía del acuerdo entre un conjunto de resultados.

ISO 5725-1 y VIM también evitan el uso del término "sesgo", previamente especificado en BS 5497-1, porque tiene diferentes connotaciones fuera de los campos de la ciencia y la ingeniería, como en medicina y ley.

En clasificación

En clasificación binaria

Exactitud también se usa como una medida estadística de qué tan bien una prueba de clasificación binaria identifica o excluye correctamente una condición. Es decir, la precisión es la proporción de predicciones correctas (tanto verdaderos positivos como verdaderos negativos) entre el número total de casos examinados. Como tal, compara estimaciones de probabilidad antes y después de la prueba. Para que el contexto quede claro por la semántica, a menudo se lo denomina "precisión de Rand" o "Índice Rand". Es un parámetro de la prueba. La fórmula para cuantificar la precisión binaria es:

TP = Verdaderamente positivoFP = Falso positivoTN = True negativeFN = Falso negativo

Tenga en cuenta que, en este contexto, los conceptos de veracidad y precisión definidos en la norma ISO 5725-1 no son aplicables. Una de las razones es que no existe un único “valor verdadero” de una cantidad, sino dos posibles valores verdaderos para cada caso, mientras que la precisión es un promedio de todos los casos y, por lo tanto, tiene en cuenta ambos valores. Sin embargo, el término precisión se usa en este contexto para referirse a una métrica diferente que se origina en el campo de la recuperación de información (ver más abajo).

En clasificación multiclase

Al calcular la precisión en la clasificación multiclase, la precisión es simplemente la fracción de las clasificaciones correctas:

La precisión también se denomina precisión top-1 para distinguirla de la precisión top-5, común en la evaluación de redes neuronales convolucionales. Para evaluar la precisión de los 5 primeros, el clasificador debe proporcionar probabilidades relativas para cada clase. Cuando se ordenan, una clasificación se considera correcta si la clasificación correcta se encuentra en algún lugar dentro de las 5 predicciones principales realizadas por la red. La precisión Top-5 fue popularizada por el desafío ImageNet. Por lo general, es más alta que la precisión del top 1, ya que cualquier predicción correcta en las posiciones 2 a 5 no mejorará el puntaje del top 1, pero sí mejorará el puntaje del top 5.

En psicometría y psicofísica

En psicometría y psicofísica, el término exactitud se usa indistintamente con validez y error constante. Precisión es sinónimo de fiabilidad y error variable. La validez de un instrumento de medida o prueba psicológica se establece mediante experimentación o correlación con la conducta. La confiabilidad se establece con una variedad de técnicas estadísticas, clásicamente a través de una prueba de consistencia interna como el alfa de Cronbach para garantizar que los conjuntos de preguntas relacionadas tengan respuestas relacionadas, y luego la comparación de esas preguntas relacionadas entre la población de referencia y la población objetivo.

En simulación lógica

En la simulación lógica, un error común en la evaluación de modelos precisos es comparar un modelo de simulación lógica con un modelo de simulación de circuito de transistor. Esta es una comparación de diferencias en precisión, no de exactitud. La precisión se mide con respecto al detalle y la exactitud se mide con respecto a la realidad.

En sistemas de información

Los sistemas de recuperación de información, como las bases de datos y los motores de búsqueda web, se evalúan con muchas métricas diferentes, algunas de las cuales se derivan de la matriz de confusión, que divide los resultados en verdaderos positivos (documentos correctamente recuperados), verdaderos negativos (documentos correctamente no recuperados), falsos positivos (documentos recuperados incorrectamente) y falsos negativos (documentos no recuperados incorrectamente). Las métricas comúnmente utilizadas incluyen las nociones de precisión y recuperación. En este contexto, la precisión se define como la fracción de documentos recuperados que son relevantes para la consulta (positivos verdaderos divididos por positivos verdaderos+falsos), utilizando un conjunto de resultados relevantes seleccionados por humanos. La recuperación se define como la fracción de documentos relevantes recuperados en comparación con el número total de documentos relevantes (verdaderos positivos divididos por verdaderos positivos + falsos negativos). Con menos frecuencia, se utiliza la métrica de precisión, que se define como el número total de clasificaciones correctas (positivos verdaderos más negativos verdaderos) dividido por el número total de documentos.

Ninguna de estas métricas tiene en cuenta la clasificación de los resultados. La clasificación es muy importante para los motores de búsqueda web porque los lectores rara vez pasan de la primera página de resultados, y hay demasiados documentos en la web para clasificarlos manualmente en cuanto a si deben incluirse o excluirse de una búsqueda determinada. Agregar un límite en un número particular de resultados tiene en cuenta la clasificación hasta cierto punto. La precisión de la medida en k, por ejemplo, es una medida de precisión que mira solo los diez primeros (k=10) resultados de búsqueda. Las métricas más sofisticadas, como la ganancia acumulada descontada, tienen en cuenta cada clasificación individual y se usan más comúnmente cuando esto es importante.

En los sistemas cognitivos

En los sistemas cognitivos, la exactitud y la precisión se utilizan para caracterizar y medir los resultados de un proceso cognitivo realizado por entidades biológicas o artificiales donde un proceso cognitivo es una transformación de datos, información, conocimiento o sabiduría a una forma de mayor valor. (Pirámide DIKW) A veces, un proceso cognitivo produce exactamente el resultado previsto o deseado, pero a veces produce un resultado muy alejado del previsto o deseado. Además, las repeticiones de un proceso cognitivo no siempre producen el mismo resultado. Precisión cognitiva (CA) es la propensión de un proceso cognitivo a producir el resultado previsto o deseado. La precisión cognitiva (CP) es la propensión de un proceso cognitivo a producir solo el resultado previsto o deseado. Para medir la cognición aumentada en conjuntos humano/cog, donde uno o más humanos trabajan en colaboración con uno o más sistemas cognitivos (cogs), los aumentos en la exactitud cognitiva y la precisión cognitiva ayudan a medir el grado de aumento cognitivo.