Prueba de chi-cuadrado de Pearson

ImprimirCitar
Evalua cuán probable es que cualquier diferencia entre los conjuntos de datos surgiera por casualidad

La prueba de Pearson en la mitad ()χ χ 2{displaystyle chi ^{2}) es una prueba estadística aplicada a conjuntos de datos categóricos para evaluar cuán probable es que cualquier diferencia observada entre los conjuntos surgiera por casualidad. Es el más utilizado de muchas pruebas de chi-squared (por ejemplo, Yates, relación de probabilidad, prueba portmanteau en series temporales, etc.) – procedimientos estadísticos cuyos resultados se evalúan por referencia a la distribución de chi-squared. Sus propiedades fueron investigadas por Karl Pearson en 1900. En contextos donde es importante mejorar una distinción entre la estadística de prueba y su distribución, nombres similares a los Pearson χ-squared test o estadística se utilizan.

Prueba una hipótesis nula que establece que la distribución de frecuencia de ciertos eventos observados en una muestra es consistente con una distribución teórica particular. Los eventos considerados deben ser mutuamente excluyentes y tener una probabilidad total de 1. Un caso común para esto es cuando cada evento cubre un resultado de una variable categórica. Un ejemplo simple es la hipótesis de que un dado normal de seis caras es "justo" (es decir, los seis resultados tienen la misma probabilidad de ocurrir).

Definición

La prueba de chi-cuadrado de Pearson se utiliza para evaluar tres tipos de comparación: bondad de ajuste, homogeneidad e independencia.

  • Una prueba de bondad de ajuste establece si una distribución de frecuencia observada difiere de una distribución teórica.
  • Una prueba de homogeneidad compara la distribución de los recuentos para dos o más grupos utilizando la misma variable categórica (por ejemplo, elección de actividad —colege, militar, empleo, viaje— de graduados de una escuela secundaria reportada un año después de la graduación, clasificada por año de graduación, para ver si el número de graduados que eligen una determinada actividad ha cambiado de clase a clase, o de década a década).
  • Una prueba de independencia evalúa si las observaciones consistentes en medidas sobre dos variables, expresadas en una tabla de contingencia, son independientes entre sí (por ejemplo, encuestar respuestas de personas de diferentes nacionalidades para ver si la nacionalidad está relacionada con la respuesta).

Para las tres pruebas, el procedimiento computacional incluye los siguientes pasos:

  1. Cálculo de la estadística de prueba de chi-squared, χ χ 2{displaystyle chi ^{2}, que se asemeja a una suma normalizada de las desviaciones cuadradas entre frecuencias observadas y teóricas (ver abajo).
  2. Determinar los grados de libertad, dfDe esa estadística.
    1. Para una prueba de bondad de beneficio, df = Cats - Parms, donde Gatos es el número de categorías de observación reconocidas por el modelo, y Parms es el número de parámetros en el modelo ajustado para que el modelo se ajuste mejor a las observaciones: El número de categorías reducido por el número de parámetros ajustados en la distribución.
    2. Para una prueba de homogeneidad, df = (Rows −1)×(Cols −1), donde Rows corresponde al número de categorías (es decir, filas en el cuadro de contingencia asociado), y Cols corresponde al número de grupos independientes (es decir, columnas en el cuadro de contingencia asociado).
    3. Para una prueba de independencia, df = (Rows −1)×(Cols −1), donde en este caso, Rows corresponde al número de categorías en una variable, y Cols corresponde al número de categorías en la segunda variable.
  3. Seleccione un nivel de confianza deseado (nivel de significación, valor p, o el nivel de alfa correspondiente) para el resultado de la prueba.
  4. Compare χ χ 2{displaystyle chi ^{2} al valor crítico de la distribución de chi-squared con df grados de libertad y el nivel de confianza seleccionado (un lado, ya que la prueba sólo está en una dirección, es decir, el valor de prueba mayor que el valor crítico?), que en muchos casos da una buena aproximación de la distribución de χ χ 2{displaystyle chi ^{2}.
  5. Sostenga o rechaza la hipótesis nula de que la distribución de frecuencia observada es la misma que la distribución teórica basada en si la estadística de prueba supera el valor crítico de χ χ 2{displaystyle chi ^{2}. Si la estadística de prueba supera el valor crítico de χ χ 2{displaystyle chi ^{2}, la hipótesis nula (H0{displaystyle H_{0} = hay no diferencia entre las distribuciones) puede ser rechazada, y la hipótesis alternativa (H1{displaystyle H_{1} = es se puede aceptar una diferencia entre las distribuciones, tanto con el nivel seleccionado de confianza. Si la estadística de prueba cae por debajo del umbral χ χ 2{displaystyle chi ^{2} valor, entonces no se puede llegar a una conclusión clara, y la hipótesis nula es sostenida (no podemos rechazar la hipótesis nula), aunque no necesariamente aceptada.

Prueba de ajuste de una distribución

Distribución uniforme discreta

En este caso N{displaystyle N} las observaciones se dividen entre n{displaystyle n} células. Una aplicación simple es probar la hipótesis de que, en la población general, los valores se producirían en cada célula con igual frecuencia. La "frecuencia teórica" para cualquier célula (bajo la hipótesis nula de una distribución uniforme discreta) se calcula como

Ei=Nn,{displaystyle E_{i}={frac {N},}

y la reducción de los grados de libertad es p=1{displaystyle p=1}, notoriamente porque las frecuencias observadas Oi{displaystyle O_{i} se ven obligados a sumarse a N{displaystyle N}.

Un ejemplo específico de su aplicación sería su aplicación para la prueba de rango logarítmico.

Otras distribuciones

Al probar si las observaciones son variables aleatorias cuya distribución pertenece a una determinada familia de distribuciones, las "frecuencias teóricas" se calculan utilizando una distribución de esa familia de alguna manera estándar. La reducción de los grados de libertad se calcula como p=s+1{displaystyle p=s+1}, donde s{displaystyle s} es el número de parámetros utilizados en la fijación de la distribución. Por ejemplo, al comprobar una distribución de gamma de tres parámetros, p=4{displaystyle p=4}, y al comprobar una distribución normal (donde los parámetros son medios y desviación estándar), p=3{displaystyle p=3}, y al comprobar una distribución Poisson (donde el parámetro es el valor esperado), p=2{displaystyle p=2}. Así, habrá n− − p{displaystyle No. grados de libertad, donde n{displaystyle n} es el número de categorías.

Los grados de libertad no se basan en el número de observaciones como en la distribución t o F de Student. Por ejemplo, si se prueba un dado justo de seis caras, habría cinco grados de libertad porque hay seis categorías o parámetros (cada número); el número de veces que se tira el dado no influye en el número de grados de libertad.

Cálculo de la estadística de prueba

Distribución Chi-squared, mostrando X2 sobre el eje x y el valor P en el eje y.

El valor de la prueba estadística es

χ χ 2=.. i=1n()Oi− − Ei)2Ei=N.. i=1n()Oi/N− − pi)2pi{displaystyle chi ^{2}=sum - ¿Qué? {}=Nsum} {fnfn} {fnh}}}

donde

  • χ χ 2{displaystyle chi ^{2} = Estatística de prueba acumulativa de Pearson, que se aproxima asintóticamente a un χ χ 2{displaystyle chi ^{2} distribución.
  • Oi{displaystyle O_{i} = el número de observaciones de tipo i.
  • N{displaystyle N} = número total de observaciones
  • Ei=Npi{displaystyle E_{i}=Np_{i} = el conteo esperado (teórico) de tipo i, afirmado por la hipótesis nula de que la fracción de tipo i población pi{displaystyle P_{i}
  • n{displaystyle n} = el número de células en la tabla.

A continuación, se puede utilizar la estadística de Chi-squared para calcular un valor p comparando el valor de la estadística con una distribución de chi-squared. El número de grados de libertad es igual al número de células n{displaystyle n}, menos la reducción de grados de libertad, p{displaystyle p}.

La estadística chi-cuadrado también se puede calcular como

χ χ 2=.. i=1nOi2Ei− − N.{displaystyle chi ^{2}=sum - ¿Qué? No.

Este resultado es la consecuencia del teorema de Pitágoras.

El resultado sobre el número de grados de libertad es válido cuando los datos originales son multinomiales y por lo tanto los parámetros estimados son eficientes para minimizar la estadística de chi-squared. Más generalmente, sin embargo, cuando la estimación de probabilidad máxima no coincida con la estimación mínima de chi-squared, la distribución se situará en algún lugar entre una distribución de chi-squared con n− − 1− − p{displaystyle No. y n− − 1{displaystyle n-1} grados de libertad (véase por ejemplo Chernoff y Lehmann, 1954).

Método bayesiano

En las estadísticas bayesianas, en su lugar, se usaría una distribución de Dirichlet como conjugada previa. Si se toma un a priori uniforme, entonces la estimación de máxima verosimilitud para la probabilidad de la población es la probabilidad observada, y se puede calcular una región creíble alrededor de esta u otra estimación.

Pruebas de independencia estadística

En este caso, una "observación" consiste en los valores de dos resultados y la hipótesis nula es que la ocurrencia de estos resultados es estadísticamente independiente. Cada observación se asigna a una celda de una matriz bidimensional de celdas (llamada tabla de contingencia) de acuerdo con los valores de los dos resultados. Si hay filas r y columnas c en la tabla, la "frecuencia teórica" para una célula, dada la hipótesis de independencia, es

Ei,j=Npi⋅ ⋅ p⋅ ⋅ j,{displaystyle E_{i,j}=Np_{icdot }p_{cdot j}

Donde N{displaystyle N} es el tamaño total de la muestra (la suma de todas las células en la tabla), y

pi⋅ ⋅ =Oi⋅ ⋅ N=.. j=1cOi,jN,{displaystyle p_{icdot #={frac {O_{icdot } {N}=sum ¿Por qué? {O_{i,j} {N}}}

es la fracción de observaciones de tipo i ignorando el atributo de columna (fracción de totales de fila), y

p⋅ ⋅ j=O⋅ ⋅ jN=.. i=1rOi,jN{displaystyle p_{cdot #={frac {cdot - ¿Qué? - ¿Qué? {O_{i,j} {N}}}}

es la fracción de observaciones de tipo j ignorando el atributo de fila (fracción de totales de columna). El término "frecuencias" se refiere a números absolutos en lugar de valores ya normalizados.

El valor de la estadística de prueba es

χ χ 2=.. i=1r.. j=1c()Oi,j− − Ei,j)2Ei,j{displaystyle chi ^{2}=sum - ¿Qué? ¿Por qué? JUEVES
=N.. i,jpi⋅ ⋅ p⋅ ⋅ j()()Oi,j/N)− − pi⋅ ⋅ p⋅ ⋅ jpi⋅ ⋅ p⋅ ⋅ j)2{displaystyle =Nsum ¿Por qué? {fnMicrosoft Sans Serif}

Note que χ χ 2{displaystyle chi ^{2} es 0 si y sólo si Oi,j=Ei,jО О i,j{displaystyle O_{i,j}=E_{i,j}forall i,j}, es decir, sólo si el número esperado y verdadero de observaciones son iguales en todas las células.

Encajar en el modelo de "independencia" reduce el número de grados de libertad en p = r + c − 1. El número de grados de libertad es igual al número de celdas rc, menos la reducción en grados de libertad, p, que se reduce a (r − 1)(c − 1).

Para la prueba de independencia, también conocida como prueba de homogeneidad, una probabilidad de chi-cuadrado menor o igual a 0,05 (o que la estadística de chi-cuadrado esté en el punto crítico de 0,05 o más) se interpreta comúnmente como trabajadores aplicados como justificación para rechazar la hipótesis nula de que la variable de fila es independiente de la variable de columna. La hipótesis alternativa corresponde a las variables que tienen una asociación o relación donde no se especifica la estructura de esta relación.

Supuestos

La prueba de chi-cuadrado, cuando se usa con la aproximación estándar de que se aplica una distribución de chi-cuadrado, tiene las siguientes suposiciones:

Muestra aleatoria simple
Los datos de muestra son un muestreo aleatorio de una distribución fija o población donde cada colección de miembros de la población del tamaño de muestra dado tiene una probabilidad igual de selección. Las variables de la prueba se han desarrollado para muestras complejas, como donde se ponderan los datos. Otras formas se pueden utilizar como muestreo purpositivo.
Tamaño de la muestra (tabla entera)
Se supone una muestra con un tamaño suficientemente grande. Si se realiza una prueba chi cuadrada en una muestra con un tamaño más pequeño, entonces la prueba chi cuadrada producirá una inferencia inexacta. El investigador, mediante el uso de chi prueba cuadrada en pequeñas muestras, podría terminar cometiendo un error tipo II. Para tamaños de muestra pequeños se prefiere la prueba de efectivo.
Cuenta de celda esperada
Cuentas celulares suficientes. Algunos requieren 5 o más, y otros requieren 10 o más. Una regla común es 5 o más en todas las células de una tabla de 2 por 2 y 5 o más en el 80% de las células en tablas más grandes, pero no hay células con cero cuenta esperada. Cuando esta suposición no se cumple, se aplica la corrección de Yates.
Independencia
Las observaciones se suponen siempre independientes entre sí. Esto significa que el chi-squared no se puede utilizar para probar datos correlativos (como pares emparejados o datos de panel). En esos casos, la prueba de McNemar puede ser más apropiada.

Una prueba que se basa en diferentes supuestos es la prueba exacta de Fisher; si se cumple su supuesto de distribuciones marginales fijas, es sustancialmente más preciso para obtener un nivel de significancia, especialmente con pocas observaciones. En la gran mayoría de las aplicaciones, esta suposición no se cumplirá y la prueba exacta de Fisher será demasiado conservadora y no tendrá la cobertura correcta.

Derivación

Derivation using Central Limit Theorem

The null distribution of the Pearson statistic with j rows and k columns is approximated by the chi-squared distribution with (k − 1)(j − 1) degrees of freedom.

This approximation arises as the true distribution, under the null hypothesis, if the expected value is given by a multinomial distribution. For large sample sizes, the central limit theorem says this distribution tends toward a certain multivariate normal distribution.

Two cells

In the special case where there are only two cells in the table, the expected values follow a binomial distribution,

O ∼ Bin ( n , p ) , {displaystyle O sim {mbox{Bin}}(n,p),,}

where

p = probability, under the null hypothesis,
n = number of observations in the sample.

In the above example the hypothesised probability of a male observation is 0.5, with 100 samples. Thus we expect to observe 50 males.

If n is sufficiently large, the above binomial distribution may be approximated by a Gaussian (normal) distribution and thus the Pearson test statistic approximates a chi-squared distribution,

Bin ( n , p ) ≈ N ( n p , n p ( 1 − p ) ) . {displaystyle {text{Bin}}(n,p)approx {text{N}}(np,np(1-p)).,}

Let O1 be the number of observations from the sample that are in the first cell. The Pearson test statistic can be expressed as

( O 1 − n p ) 2 n p + ( n − O 1 − n ( 1 − p ) ) 2 n ( 1 − p ) , {displaystyle {frac {(O_{1}-np)^{2}}{np}}+{frac {(n-O_{1}-n(1-p))^{2}}{n(1-p)}},}

which can in turn be expressed as

( O 1 − n p n p ( 1 − p ) ) 2 . {displaystyle left({frac {O_{1}-np}{sqrt {np(1-p)}}}right)^{2}.}

By the normal approximation to a binomial this is the squared of one standard normal variate, and hence is distributed as chi-squared with 1 degree of freedom. Note that the denominator is one standard deviation of the Gaussian approximation, so can be written

( O 1 − μ ) 2 σ 2 . {displaystyle {frac {(O_{1}-mu)^{2}}{sigma ^{2}}}.}

So as consistent with the meaning of the chi-squared distribution, we are measuring how probable the observed number of standard deviations away from the mean is under the Gaussian approximation (which is a good approximation for large n).

The chi-squared distribution is then integrated on the right of the statistic value to obtain the P-value, which is equal to the probability of getting a statistic equal or bigger than the observed one, assuming the null hypothesis.

Two-by-two contingency tables

When the test is applied to a contingency table containing two rows and two columns, the test is equivalent to a Z-test of proportions.

Many cells

Broadly similar arguments as above lead to the desired result, though the details are more involved. One may apply an orthogonal change of variables to turn the limiting summands in the test statistic into one fewer squares of i.i.d. standard normal random variables.

Let us now prove that the distribution indeed approaches asymptotically the χ 2 {displaystyle chi ^{2}} distribution as the number of observations approaches infinity.

Let n {displaystyle n} be the number of observations, m {displaystyle m} the number of cells and p i {displaystyle p_{i}} the probability of an observation to fall in the i-th cell, for 1 ≤ i ≤ m {displaystyle 1leq ileq m} . We denote by { k i } {displaystyle {k_{i}}} the configuration where for each i there are k i {displaystyle k_{i}} observations in the i-th cell. Note that

i = 1 m k i = n and ∑ i = 1 m p i = 1. {displaystyle sum _{i=1}^{m}k_{i}=nqquad {text{and}}qquad sum _{i=1}^{m}p_{i}=1.}

Let χ P 2 ( { k i } , { p i } ) {displaystyle chi _{P}^{2}({k_{i}},{p_{i}})} be Pearson's cumulative test statistic for such a configuration, and let χ P 2 ( { p i } ) {displaystyle chi _{P}^{2}({p_{i}})} be the distribution of this statistic. We will show that the latter probability approaches the χ 2 {displaystyle chi ^{2}} distribution with m − 1 {displaystyle m-1} degrees of freedom, as n → . {displaystyle nto infty.}

For any arbitrary value T:

P ( χ P 2 ( { p i } ) > T ) = ∑ { k i } | χ P 2 ( { k i } , { p i } ) > T n ! k 1 ! ⋯ k m ! ∏ i = 1 m p i k i {displaystyle P(chi _{P}^{2}({p_{i}})>T)=sum _{{k_{i}}|chi _{P}^{2}({k_{i}},{p_{i}})>T}{frac {n!}{k_{1}!cdots k_{m}!}}prod _{i=1}^{m}{p_{i}}^{k_{i}}}

We will use a procedure similar to the approximation in de Moivre–Laplace theorem. Contributions from small k i {displaystyle k_{i}} are of subleading order in n {displaystyle n} and thus for large n {displaystyle n} we may use Stirling's formula for both n ! {displaystyle n!} and k i ! {displaystyle k_{i}!} to get the following:

P ( χ P 2 ( { p i } ) > T ) ∼ { k i } | χ P 2 ( { k i } , { p i } ) > T ∏ i = 1 m ( n p i k i ) k i 2 π n ∏ i = 1 m 2 π k i {displaystyle P(chi _{P}^{2}({p_{i}})>T)sim sum _{{k_{i}}|chi _{P}^{2}({k_{i}},{p_{i}})>T}prod _{i=1}^{m}left({frac {np_{i}}{k_{i}}}right)^{k_{i}}{sqrt {frac {2pi n}{prod _{i=1}^{m}2pi k_{i}}}}}

By substituting for

x i = k i − n p i n , i = 1 , ⋯ , m − 1 , {displaystyle x_{i}={frac {k_{i}-np_{i}}{sqrt {n}}},qquad i=1,cdotsm-1,}

we may approximate for large n {displaystyle n} the sum over the k i {displaystyle k_{i}} by an integral over the x i {displaystyle x_{i}} . Noting that:

k m = n p m − n ∑ i = 1 m − 1 x i , {displaystyle k_{m}=np_{m}-{sqrt {n}}sum _{i=1}^{m-1}x_{i},}

we arrive at

P ( χ P 2 ( { p i } ) > T ) ∼ 2 π n ∏ i = 1 m 2 π k i ∫ χ P 2 ( { n x i + n p i } , { p i } ) > T { ∏ i = 1 m − 1 n d x i } { ∏ i = 1 m − 1 ( 1 + x i n p i ) − ( n p i + n x i ) ( 1 − i = 1 m − 1 x i n p m ) − ( n p m − n ∑ i = 1 m − 1 x i ) } = 2 π n ∏ i = 1 m ( 2 π n p i + 2 π n x i ) ∫ χ P 2 ( { n x i + n p i } , { p i } ) > T { ∏ i = 1 m − 1 n d x i } × × { ∏ i = 1 m − 1 exp ⁡ [ − ( n p i + n x i ) ln ⁡ ( 1 + x i n p i ) ] exp ⁡ [ − ( n p m − n ∑ i = 1 m − 1 x i ) ln ⁡ ( 1 − i = 1 m − 1 x i n p m ) ] } {displaystyle {begin{aligned}P(chi _{P}^{2}({p_{i}})>T)&sim {sqrt {frac {2pi n}{prod _{i=1}^{m}2pi k_{i}}}}int _{chi _{P}^{2}({{sqrt {n}}x_{i}+np_{i}},{p_{i}})>T}left{prod _{i=1}^{m-1}{{sqrt {n}}dx_{i}}right}left{prod _{i=1}^{m-1}left(1+{frac {x_{i}}{{sqrt {n}}p_{i}}}right)^{-(np_{i}+{sqrt {n}}x_{i})}left(1-{frac {sum _{i=1}^{m-1}{x_{i}}}{{sqrt {n}}p_{m}}}right)^{-left(np_{m}-{sqrt {n}}sum _{i=1}^{m-1}x_{i}right)}right}\&={sqrt {frac {2pi n}{prod _{i=1}^{m}left(2pi np_{i}+2pi {sqrt {n}}x_{i}right)}}}int _{chi _{P}^{2}({{sqrt {n}}x_{i}+np_{i}},{p_{i}})>T}left{prod _{i=1}^{m-1}{{sqrt {n}}dx_{i}}right}times \&qquad qquad times left{prod _{i=1}^{m-1}exp left[-left(np_{i}+{sqrt {n}}x_{i}right)ln left(1+{frac {x_{i}}{{sqrt {n}}p_{i}}}right)right]exp left[-left(np_{m}-{sqrt {n}}sum _{i=1}^{m-1}x_{i}right)ln left(1-{frac {sum _{i=1}^{m-1}{x_{i}}}{{sqrt {n}}p_{m}}}right)right]right}end{aligned}}}

By expanding the logarithm and taking the leading terms in n {displaystyle n} , we get

P ( χ P 2 ( { p i } ) > T ) ∼ 1 ( 2 π ) m − 1 ∏ i = 1 m p i ∫ χ P 2 ( { n x i + n p i } , { p i } ) > T { ∏ i = 1 m − 1 d x i } ∏ i = 1 m − 1 exp ⁡ [ − 1 2 ∑ i = 1 m − 1 x i 2 p i − 1 2 p m ( ∑ i = 1 m − 1 x i ) 2 ] {displaystyle P(chi _{P}^{2}({p_{i}})>T)sim {frac {1}{sqrt {(2pi)^{m-1}prod _{i=1}^{m}p_{i}}}}int _{chi _{P}^{2}({{sqrt {n}}x_{i}+np_{i}},{p_{i}})>T}left{prod _{i=1}^{m-1}dx_{i}right}prod _{i=1}^{m-1}exp left[-{frac {1}{2}}sum _{i=1}^{m-1}{frac {x_{i}^{2}}{p_{i}}}-{frac {1}{2p_{m}}}left(sum _{i=1}^{m-1}{x_{i}}right)^{2}right]}

Pearson's chi, χ P 2 ( { k i } , { p i } ) = χ P 2 ( { n x i + n p i } , { p i } ) {displaystyle chi _{P}^{2}({k_{i}},{p_{i}})=chi _{P}^{2}({{sqrt {n}}x_{i}+np_{i}},{p_{i}})} , is precisely the argument of the exponent (except for the -1/2; note that the final term in the exponent's argument is equal to ( k m − n p m ) 2 / ( n p m ) {displaystyle (k_{m}-np_{m})^{2}/(np_{m})} ).

This argument can be written as:

1 2 ∑ i , j = 1 m − 1 x i A i j x j , i , j = 1 , ⋯ , m − 1 , A i j = δ i j p i + 1 p m . {displaystyle -{frac {1}{2}}sum _{i,j=1}^{m-1}x_{i}A_{ij}x_{j},qquad i,j=1,cdotsm-1,quad A_{ij}={tfrac {delta _{ij}}{p_{i}}}+{tfrac {1}{p_{m}}}.}

A {displaystyle A} is a regular symmetric ( m − 1 ) × ( m − 1 ) {displaystyle (m-1)times (m-1)} matrix, and hence diagonalizable. It is therefore possible to make a linear change of variables in { x i } {displaystyle {x_{i}}} so as to get m − 1 {displaystyle m-1} new variables { y i } {displaystyle {y_{i}}} so that:

i , j = 1 m − 1 x i A i j x j = ∑ i = 1 m − 1 y i 2 . {displaystyle sum _{i,j=1}^{m-1}x_{i}A_{ij}x_{j}=sum _{i=1}^{m-1}y_{i}^{2}.}

This linear change of variables merely multiplies the integral by a constant Jacobian, so we get:

P ( χ P 2 ( { p i } ) > T ) ∼ C ∫ i = 1 m − 1 y i 2 > T { ∏ i = 1 m − 1 d y i } ∏ i = 1 m − 1 exp ⁡ [ − 1 2 ( ∑ i = 1 m − 1 y i 2 ) ] {displaystyle P(chi _{P}^{2}({p_{i}})>T)sim Cint _{sum _{i=1}^{m-1}y_{i}^{2}>T}left{prod _{i=1}^{m-1}dy_{i}right}prod _{i=1}^{m-1}exp left[-{frac {1}{2}}left(sum _{i=1}^{m-1}y_{i}^{2}right)right]}

Where C is a constant.

This is the probability that squared sum of m − 1 {displaystyle m-1} independent normally distributed variables of zero mean and unit variance will be greater than T, namely that χ 2 {displaystyle chi ^{2}} with m − 1 {displaystyle m-1} degrees of freedom is larger than T.

We have thus shown that at the limit where n → , {displaystyle nto infty} the distribution of Pearson's chi approaches the chi distribution with m − 1 {displaystyle m-1} degrees of freedom.

Ejemplos

La equidad de los dados

Se lanza un dado de 6 caras 60 veces. El número de veces que cae con 1, 2, 3, 4, 5 y 6 boca arriba es 5, 8, 9, 8, 10 y 20, respectivamente. ¿Está sesgado el dado, de acuerdo con la prueba chi-cuadrado de Pearson a un nivel de significación del 95 % y/o del 99 %?

La hipótesis nula es que el dado es imparcial, por lo que se espera que cada número ocurra la misma cantidad de veces, en este caso, 60/n = 10. El Los resultados se pueden tabular de la siguiente manera:

i{displaystyle i}Oi{displaystyle O_{i}Ei{displaystyle E_{i}Oi− − Ei{displaystyle O_{i}-E_{i}()Oi− − Ei)2{displaystyle (O_{i}-E_{i} {2}
1510; 5 -25
2810−24
3910−11
4810−24
5101000
6201010100
Sum 134

Luego consultamos una tabla de valores críticos de distribución de chi-cuadrado de cola superior, el valor tabular se refiere a la suma de las variables al cuadrado, cada una dividida por los resultados esperados. Para el presente ejemplo, esto significa

X2=25/10+4/10+1/10+4/10+0/10+100/10=13.4{displaystyle {X^{} {displaystyle {cH00FF}displaystyle {cH00FF} {displaystyle {ccH00}} {ccH00FF}displaystyle {cH00}} {displaystyle {ccH00}} {displaystyle {ccccccdisplaystyle {cH00}}}}}}}}}} {displaystyle {displaystyle {displaystyle {displaystyle {cccccccccccccccccccccdisplaystyle {displaystyle {displaystyle {cccccccccccccccccccccccccccccc 2}=25/10+4/10+1/10+0/10+0/10+100/10=13.4}

Este es el resultado experimental cuya improbabilidad (con un dado justo) deseamos estimar.

Grados
de
libertad
Probability less than the critical value
0.900.950.9750.990.999
5 9.236 11.070 12.833 15.086 20.515

La suma experimental de 13,4 se encuentra entre los valores críticos del 97,5 % y el 99 % de significación o confianza (valor p). Específicamente, obtener 20 tiradas de 6, cuando la expectativa es de solo 10 de esos valores, es poco probable con un dado justo.


Prueba de bondad de ajuste chi-cuadrada

En este contexto, las frecuencias tanto de las distribuciones teóricas como empíricas son conteos no normalizados, y para una prueba con el tamaño de la muestra total N{displaystyle N} de ambas distribuciones (sumas de todas las celdas de las tablas de contingencia correspondientes) deben ser las mismas.

Por ejemplo, para probar la hipótesis de que se extrajo una muestra aleatoria de 100 personas de una población en la que la frecuencia de hombres y mujeres es la misma, el número observado de hombres y mujeres se compararía con las frecuencias teóricas de 50 hombres. y 50 mujeres. Si en la muestra hubiera 44 hombres y 56 mujeres, entonces

χ χ 2=()44− − 50)250+()56− − 50)250=1.44.{displaystyle chi ^{2}={(44-50)^{2}over 50}+{(56-50)^{2}over 50}=1.44}

Si la hipótesis nula es verdadera (es decir, se eligen hombres y mujeres con la misma probabilidad), la estadística de prueba se extraerá de una distribución chi-cuadrado con un grado de libertad (porque si se conoce la frecuencia masculina, entonces la se determina la frecuencia femenina).

La consulta de la distribución chi-cuadrado para 1 grado de libertad muestra que la probabilidad de observar esta diferencia (o una diferencia más extrema que esta) si hombres y mujeres son igualmente numerosos en la población es de aproximadamente 0,23. Esta probabilidad es mayor que los criterios convencionales de significación estadística (0,01 o 0,05), por lo que normalmente no rechazaríamos la hipótesis nula de que el número de hombres en la población es el mismo que el número de mujeres (es decir, consideraríamos nuestra muestra dentro de el rango de lo que esperaríamos para una proporción de 50/50 hombre/mujer).

Problemas

La aproximación a la distribución chi-cuadrado falla si las frecuencias esperadas son demasiado bajas. Normalmente será aceptable siempre que no más del 20% de los eventos tengan frecuencias esperadas por debajo de 5. Cuando solo hay 1 grado de libertad, la aproximación no es confiable si las frecuencias esperadas están por debajo de 10. En este caso, una mejor aproximación se puede obtener reduciendo el valor absoluto de cada diferencia entre las frecuencias observadas y esperadas en 0,5 antes de elevar al cuadrado; esto se llama corrección de continuidad de Yates.

En los casos en los que se encuentre que el valor esperado, E, es pequeño (lo que indica una probabilidad de población subyacente pequeña y/o un número pequeño de observaciones), la aproximación normal de la distribución multinomial puede fallar y, en tales casos, Se considera que es más apropiado utilizar la prueba G, una estadística de prueba basada en la razón de verosimilitud. Cuando el tamaño total de la muestra es pequeño, es necesario utilizar una prueba exacta adecuada, generalmente la prueba binomial o, para las tablas de contingencia, la prueba exacta de Fisher. Esta prueba utiliza la distribución condicional del estadístico de prueba dados los totales marginales y, por lo tanto, supone que los márgenes se determinaron antes del estudio; las alternativas como la prueba de Boschloo que no hacen esta suposición son uniformemente más poderosas.

Se puede demostrar que el χ χ 2{displaystyle chi ^{2} la prueba es una aproximación de baja orden Ψ Ψ {displaystyle Psi } Prueba. Las razones anteriores para estas cuestiones se hacen evidentes cuando se investigan los términos de orden superior.

Contenido relacionado

Alberto Brudzewski

Albert Brudzewski, también Albert Blar Albert de Brudzewo o Wojciech Brudzewski fue un astrónomo, matemático, filósofo y diplomático...

Divisor

En matemáticas, a divisor de un entero n{displaystyle n}, también llamado a factor de n{displaystyle n}, es un entero m{displaystyle m} que puede ser...

Lista de funciones matemáticas

Ver también Lista de tipos de...
Más resultados...
Tamaño del texto:
Copiar
Síguenos en YouTube
¡ Ayúdanos a crecer con @academialab !