Estadística matemática

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

La estadística matemática es la aplicación de la teoría de la probabilidad, una rama de las matemáticas, a la estadística, a diferencia de las técnicas para recopilar datos estadísticos. Las técnicas matemáticas específicas que se utilizan para esto incluyen el análisis matemático, el álgebra lineal, el análisis estocástico, las ecuaciones diferenciales y la teoría de la medida.

Introducción

La recopilación de datos estadísticos se relaciona con la planificación de estudios, especialmente con el diseño de experimentos aleatorios y con la planificación de encuestas que utilizan muestreo aleatorio. El análisis inicial de los datos a menudo sigue el protocolo de estudio especificado antes de que se lleve a cabo el estudio. Los datos de un estudio también se pueden analizar para considerar hipótesis secundarias inspiradas en los resultados iniciales, o para sugerir nuevos estudios. Un análisis secundario de los datos de un estudio planificado utiliza herramientas de análisis de datos, y el proceso para hacerlo es estadística matemática.

El análisis de datos se divide en:

  • estadística descriptiva - la parte de las estadísticas que describe los datos, es decir, resume los datos y sus propiedades típicas.
  • estadística inferencial - la parte de la estadística que extrae conclusiones de los datos (utilizando algún modelo para los datos): por ejemplo, la estadística inferencial implica seleccionar un modelo para los datos, verificar si los datos cumplen las condiciones de un modelo particular y cuantificar el incertidumbre involucrada (por ejemplo, usando intervalos de confianza).

Si bien las herramientas de análisis de datos funcionan mejor con datos de estudios aleatorios, también se aplican a otros tipos de datos. Por ejemplo, a partir de experimentos naturales y estudios observacionales, en cuyo caso la inferencia depende del modelo elegido por el estadístico y, por lo tanto, es subjetiva.

Temas

Los siguientes son algunos de los temas importantes en estadística matemática:

Distribuciones de probabilidad

Una distribución de probabilidad es una función que asigna una probabilidad a cada subconjunto medible de los posibles resultados de un experimento aleatorio, una encuesta o un procedimiento de inferencia estadística. Se encuentran ejemplos en experimentos cuyo espacio muestral no es numérico, donde la distribución sería una distribución categórica; experimentos cuyo espacio muestral está codificado por variables aleatorias discretas, donde la distribución puede especificarse mediante una función de masa de probabilidad; y experimentos con espacios muestrales codificados por variables aleatorias continuas, donde la distribución puede especificarse mediante una función de densidad de probabilidad. Los experimentos más complejos, como los que implican procesos estocásticos definidos en tiempo continuo, pueden exigir el uso de medidas de probabilidad más generales.

Una distribución de probabilidad puede ser univariante o multivariante. Una distribución univariada da las probabilidades de que una sola variable aleatoria tome varios valores alternativos; una distribución multivariada (una distribución de probabilidad conjunta) da las probabilidades de un vector aleatorio, un conjunto de dos o más variables aleatorias, que toman varias combinaciones de valores. Las distribuciones de probabilidad univariadas importantes y comúnmente encontradas incluyen la distribución binomial, la distribución hipergeométrica y la distribución normal. La distribución normal multivariante es una distribución multivariante común.

Distribuciones especiales

  • Distribución normal, la distribución continua más común
  • Distribución de Bernoulli, para el resultado de un solo ensayo de Bernoulli (por ejemplo, éxito/fracaso, sí/no)
  • Distribución binomial, para el número de "ocurrencias positivas" (por ejemplo, éxitos, votos a favor, etc.) dado un número total fijo de ocurrencias independientes
  • Distribución binomial negativa, para observaciones de tipo binomial pero donde la cantidad de interés es la cantidad de fallas antes de que ocurra una cantidad determinada de éxitos
  • Distribución geométrica, para observaciones de tipo binomial pero donde la cantidad de interés es el número de fallas antes del primer éxito; un caso especial de la distribución binomial negativa, donde el número de éxitos es uno.
  • Distribución uniforme discreta, para un conjunto finito de valores (por ejemplo, el resultado de un dado justo)
  • Distribución uniforme continua, para valores distribuidos continuamente
  • Distribución de Poisson, para el número de ocurrencias de un evento de tipo Poisson en un período de tiempo determinado
  • Distribución exponencial, para el tiempo antes de que ocurra el próximo evento de tipo Poisson
  • Distribución gamma, para el tiempo antes de que ocurran los próximos k eventos de tipo Poisson
  • Distribución de chi-cuadrado, la distribución de una suma de variables normales estándar al cuadrado; útil, por ejemplo, para la inferencia con respecto a la varianza de la muestra de muestras distribuidas normalmente (consulte la prueba de chi-cuadrado)
  • distribución t de Student, la distribución de la razón de una variable normal estándar y la raíz cuadrada de una variable chi cuadrada escalada; útil para la inferencia con respecto a la media de muestras distribuidas normalmente con varianza desconocida (consulte la prueba t de Student)
  • Distribución Beta, para una sola probabilidad (número real entre 0 y 1); conjugado a la distribución de Bernoulli y distribución binomial

Inferencia estadística

La inferencia estadística es el proceso de sacar conclusiones a partir de datos que están sujetos a variaciones aleatorias, por ejemplo, errores de observación o variaciones de muestreo. Los requisitos iniciales de tal sistema de procedimientos para la inferencia y la inducción son que el sistema debe producir respuestas razonables cuando se aplica a situaciones bien definidas y que debe ser lo suficientemente general como para aplicarse en una variedad de situaciones. Las estadísticas inferenciales se utilizan para probar hipótesis y hacer estimaciones utilizando datos de muestra. Mientras que las estadísticas descriptivas describen una muestra, las estadísticas inferenciales infieren predicciones sobre una población más grande que representa la muestra.

El resultado de la inferencia estadística puede ser una respuesta a la pregunta "¿qué se debe hacer a continuación?", donde esto podría ser una decisión sobre realizar más experimentos o encuestas, o sobre sacar una conclusión antes de implementar alguna política organizacional o gubernamental. En su mayor parte, la inferencia estadística hace proposiciones sobre poblaciones, utilizando datos extraídos de la población de interés a través de alguna forma de muestreo aleatorio. De manera más general, los datos sobre un proceso aleatorio se obtienen a partir de su comportamiento observado durante un período de tiempo finito. Dado un parámetro o hipótesis sobre el cual se desea hacer una inferencia, la inferencia estadística suele utilizar:

  • un modelo estadístico del proceso aleatorio que se supone que genera los datos, que se conoce cuando se ha utilizado la aleatorización, y
  • una realización particular del proceso aleatorio; es decir, un conjunto de datos.

Regresión

En estadística, análisis de regresiónes un proceso estadístico para estimar las relaciones entre variables. Incluye muchas formas de modelar y analizar varias variables, cuando el foco está en la relación entre una variable dependiente y una o más variables independientes. Más específicamente, el análisis de regresión ayuda a comprender cómo cambia el valor típico de la variable dependiente (o 'variable de criterio') cuando se varía cualquiera de las variables independientes, mientras que las otras variables independientes se mantienen fijas. Más comúnmente, el análisis de regresión estima la expectativa condicional de la variable dependiente dadas las variables independientes, es decir, el valor promedio de la variable dependiente cuando las variables independientes son fijas. Con menos frecuencia, la atención se centra en un cuantil, u otro parámetro de ubicación de la distribución condicional de la variable dependiente dadas las variables independientes. En todos los casos, el objetivo de la estimación es una función de las variables independientes denominadasfunción de regresión . En el análisis de regresión, también es de interés caracterizar la variación de la variable dependiente en torno a la función de regresión que puede describirse mediante una distribución de probabilidad.

Se han desarrollado muchas técnicas para llevar a cabo el análisis de regresión. Los métodos familiares, como la regresión lineal, son paramétricos, ya que la función de regresión se define en términos de un número finito de parámetros desconocidos que se estiman a partir de los datos (p. ej., utilizando mínimos cuadrados ordinarios). La regresión no paramétrica se refiere a técnicas que permiten que la función de regresión se encuentre en un conjunto específico de funciones, que pueden ser de dimensión infinita.

Estadísticas no paramétricas

Las estadísticas no paramétricas son valores calculados a partir de datos de una manera que no se basa en familias parametrizadas de distribuciones de probabilidad. Incluyen estadísticas descriptivas e inferenciales. Los parámetros típicos son la media, la varianza, etc. A diferencia de las estadísticas paramétricas, las estadísticas no paramétricas no hacen suposiciones sobre las distribuciones de probabilidad de las variables que se evalúan .

Los métodos no paramétricos se utilizan ampliamente para estudiar poblaciones que adoptan un orden de clasificación (como las reseñas de películas que reciben de una a cuatro estrellas). El uso de métodos no paramétricos puede ser necesario cuando los datos tienen una clasificación pero no una interpretación numérica clara, como cuando se evalúan las preferencias. En términos de niveles de medición, los métodos no paramétricos dan como resultado datos "ordinales".

Como los métodos no paramétricos hacen menos suposiciones, su aplicabilidad es mucho más amplia que los métodos paramétricos correspondientes. En particular, pueden aplicarse en situaciones en las que se sabe menos acerca de la aplicación en cuestión. Además, debido a la dependencia de menos supuestos, los métodos no paramétricos son más robustos.

Otra justificación para el uso de métodos no paramétricos es la simplicidad. En ciertos casos, incluso cuando se justifica el uso de métodos paramétricos, los métodos no paramétricos pueden ser más fáciles de usar. Debido tanto a esta simplicidad como a su mayor robustez, algunos estadísticos consideran que los métodos no paramétricos dejan menos espacio para el uso indebido y los malentendidos.

Estadística, matemáticas y estadística matemática.

La estadística matemática es un subconjunto clave de la disciplina de la estadística. Los teóricos de la estadística estudian y mejoran los procedimientos estadísticos con las matemáticas, y la investigación estadística a menudo plantea cuestiones matemáticas. La teoría estadística se basa en la probabilidad y la teoría de la decisión.

Matemáticos y estadísticos como Gauss, Laplace y CS Peirce utilizaron la teoría de decisiones con distribuciones de probabilidad y funciones de pérdida (o funciones de utilidad). El enfoque de la teoría de la decisión para la inferencia estadística fue revitalizado por Abraham Wald y sus sucesores, y hace un uso extensivo de la computación, el análisis y la optimización científicos; para el diseño de experimentos, los estadísticos utilizan el álgebra y la combinatoria.

Contenido relacionado

Ciencias formales

La ciencia formal es una rama de la ciencia que estudia las disciplinas del lenguaje formal relacionadas con los sistemas formales, como la lógica, las...

Teoría estadística

La teoría de la estadística proporciona una base para toda la gama de técnicas, tanto en el diseño de estudios como en el análisis de datos, que se...

Distribución logarítmica normal

La distribución logarítmica normal o log-normal, es la representación estadística de una variable aleatoria cuya transformación logarítmica sigue una...

Historia de la medición

Los primeros sistemas registrados de pesos y medidas se originan en el tercer o cuarto milenio antes de Cristo. Incluso las civilizaciones más antiguas...

Axiomas de probabilidad

Los axiomas de Kolmogorov son los fundamentos de la teoría de la probabilidad introducida por Andrey Kolmogorov en 1933. Estos axiomas siguen siendo...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save