Prueba G

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Examen estadístico

En estadística, las pruebas G son pruebas de índice de probabilidad o de significación estadística de máxima verosimilitud que se utilizan cada vez más en situaciones en las que anteriormente se recomendaban las pruebas de chi-cuadrado.

Formulación

La fórmula general para G es

G=2. . iOi⋅ ⋅ In⁡ ⁡ ()OiEi),{displaystyle G=2sum ¿Por qué? {fnMicrosoft Sans Serif}

Donde Oi≥ ≥ 0{textstyle O_{i}gq 0} es el recuento observado en una celda, 0}" xmlns="http://www.w3.org/1998/Math/MathML">Ei■0{textstyle E_{i} Confío0}0}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert skin-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/4062eeb20ae9e7b43f0ec8ee6107d4a8f24dbb17" style="vertical-align: -0.671ex; width:6.776ex; height:2.509ex;"/> es el recuento esperado bajo la hipótesis nula, In{textstyle ln } denota el logaritmo natural, y la suma se toma sobre todas las células no vacías. El resultado G{textstyle G} se distribuye con chi-squared.

Además, el recuento total observado debe ser igual al recuento total esperado:

. . iOi=. . iEi=N{displaystyle sum ################################################################################################################################################################################################################################################################ ¿Qué?
N{textstyle N}

Derivación

Podemos derivar el valor de la prueba G a partir de la prueba del índice de verosimilitud logarítmica donde el modelo subyacente es un modelo multinomial.

Supongamos que teníamos una muestra x=()x1,... ... ,xm){textstyle x=(x_{1},ldotsx_{m}} donde cada xi{textstyle x_{i}} es el número de veces que un objeto de tipo i{textstyle i} fue observado. Además, dejemos n=. . i=1mxi{textstyle n=sum ¿Qué? sea el número total de objetos observados. Si asumimos que el modelo subyacente es multinomio, entonces la estadística de prueba se define por

In⁡ ⁡ ()L()Silencio Silencio ~ ~ Silenciox)L()Silencio Silencio ^ ^ Silenciox))=In⁡ ⁡ ()∏ ∏ i=1mSilencio Silencio ~ ~ ixi∏ ∏ i=1mSilencio Silencio ^ ^ ixi){displaystyle ln left({frac {L {tilde {theta } impermeable)}{L({hat {theta) - Sí. {fnMicrosoft Sans Serif} {fnMicrosoft Sans} {fnMicrosoft} {fnMicrosoft} {fnMicrosoft Sans Serif} - Sí.
Silencio Silencio ~ ~ {textstyle {tilde {thetat }Silencio Silencio ^ ^ {displaystyle {hat {theta }Silencio Silencio ^ ^ i{textstyle {hat {theta }
Silencio Silencio ^ ^ i=xin{displaystyle {hat {theta }_{i}={frac {x_{i} {n}}} {cH}} {cH}}}} {cH}}}} {cH}}}}}}}} {c}}}}}} {cH}}}}}}}}}}}}} {c}}} {c}}}} {}}}}}}}}}}} {}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}
Silencio Silencio ~ ~ i{displaystyle {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\\fnMicrosoft}fnMicrosoft {\fnMicrosoft {fnMicrosoft {\\fnMicrosoft}\\\\\\\\\\\\\\\\\\\\\\\\\\fnMicrosoft {fnMicrosoft {fnMicrosoft {\\\\\\\\\\fnMicrosoft {\fnMicro }
Silencio Silencio ~ ~ i=ein{displaystyle {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\\fnMicrosoft}fnMicrosoft {\fnMicrosoft {fnMicrosoft {\\fnMicrosoft}\\\\\\\\\\\\\\\\\\\\\\\\\\fnMicrosoft {fnMicrosoft {fnMicrosoft {\\\\\\\\\\fnMicrosoft {\fnMicro }_{i}={frac {fn}} {fn}} {fn}}} {fn}}}} {fn}}}}}}}} {fn}}}} {fn}}}}}}}}}}}} {cH}}}}}}}}}}}}}} {cH}}}} {}}}}}}}} {}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}
Silencio Silencio ~ ~ {textstyle {tilde {thetat }Silencio Silencio ^ ^ {textstyle {hat {theta }
In⁡ ⁡ ()L()Silencio Silencio ~ ~ Silenciox)L()Silencio Silencio ^ ^ Silenciox))=In⁡ ⁡ ∏ ∏ i=1m()eixi)xi=. . i=1mxiIn⁡ ⁡ ()eixi){displaystyle {begin{aligned}ln left({frac {L({tilde {theta }justificada)}{hat {theta}{hat {theta] - Sí. ¿Por qué? {e_{i} {x_{i}}}right)}\\\\\fn}\\fnMicrosoft Sans Serif} ###{i=1}{m}x_{i}ln left({frac {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}
ei{textstyle e_{i}}Ei{textstyle E_{i}xi{textstyle x_{i}}Oi{fnMicrosoftstyle O...− − 2{fnMicrosoftstyle -2}

G=− − 2. . i=1mOiIn⁡ ⁡ ()EiOi)=2. . i=1mOiIn⁡ ⁡ ()OiEi){displaystyle {begin{alignedat}{2}Giéndose= limit;-2sum ################################################################################################################################################################################################################################################################ {E_{i}{O_}}derecha)\fnMicrosoft Sans Serif} ################################################################################################################################################################################################################################################################ {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}}} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}}} {f}}}}}}} {f} {f}}}} {f}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}

Heurísticamente, se puede imaginar Oi {displaystyle - ¿Qué? como continuo y aproximado cero, en cuyo caso OiIn⁡ ⁡ Oi→ → 0 ,{displaystyle ~O_{i}ln O_{i}to 0~,} y términos con cero observaciones pueden simplemente ser eliminados. Sin embargo, previstos contar en cada celda debe ser estrictamente mayor que cero para cada célula (0~forall ,i~}" xmlns="http://www.w3.org/1998/Math/MathML"> Ei■0 О О i {displaystyle ~E_{i} {0~forall ,i~}0~forall ,i~}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert skin-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/9f4510a616f3579eac5ed3e60216a0b48ca46d63" style="vertical-align: -0.671ex; width:11ex; height:2.509ex;"/>) para aplicar el método.

Distribución y uso

Dada la hipótesis nula de que las frecuencias observadas resultan de un muestreo aleatorio de una distribución con las frecuencias esperadas dadas, la distribución de G es aproximadamente una distribución chi-cuadrado, con el mismo número de grados de libertad como en la correspondiente prueba de chi-cuadrado.

Para muestras muy pequeñas, la prueba multinomial de bondad de ajuste y la prueba exacta de Fisher para tablas de contingencia, o incluso la selección de hipótesis bayesiana, son preferibles a la prueba G. McDonald recomienda utilizar siempre una prueba exacta (prueba exacta de bondad de ajuste, prueba exacta de Fisher) si el tamaño total de la muestra es inferior a 1000.

No hay nada mágico acerca de un tamaño de muestra de 1 000, es sólo un número redondo agradable que está bien dentro de la gama donde una prueba exacta, prueba de chi-square, y G– La prueba dará casi idéntico p valores. hojas de cálculo, calculadoras de páginas web, y SAS no debe tener ningún problema haciendo una prueba exacta en un tamaño de muestra de 1 000 .
John H. McDonald
Las

pruebas G se recomiendan al menos desde la edición de 1981 de Biometría, un libro de texto de estadística de Robert R. Sokal y F. James Rohlf.

Relación con otras métricas

Relación con la prueba de chi-cuadrado

Las pruebas de chi-cuadrado comúnmente utilizadas para determinar la bondad del ajuste de una distribución y la independencia en tablas de contingencia son, de hecho, aproximaciones del índice de probabilidad logarítmica en el que se basan las pruebas G.

La fórmula general para el estadístico de prueba chi-cuadrado de Pearson es

χ χ 2=. . i()Oi− − Ei)2Ei .{displaystyle chi ^{2}=sum _{i}{i}{frac {left(O_{i}-E_{i}right)}{2}}{E_{i}}}~}}

La aproximación de G por chi cuadrado se obtiene por un segundo orden Taylor expansión del logaritmo natural alrededor de 1 (ver #Derivation (chi-squared) abajo). Tenemos G. . χ χ 2{displaystyle Gapprox chi ^{2} cuando el número observado cuenta Oi {displaystyle - ¿Qué? están cerca de los conteos esperados Ei .{displaystyle ~E_{i}~ Cuando esta diferencia es grande, sin embargo, χ χ 2 {displaystyle ~chi ^{2}~ La aproximación comienza a descomponerse. Aquí, los efectos de los atípicos en los datos serán más pronunciados, y esto explica el por qué χ χ 2 {displaystyle ~chi ^{2}~ las pruebas fallan en situaciones con pocos datos.

Para muestras de un tamaño razonable, el G- La prueba y la prueba de chi-squared conducirán a las mismas conclusiones. Sin embargo, la aproximación a la distribución teórica de chi-squared para la G- La prueba es mejor que la de Pearson. En los casos en que 2cdot E_{i}~}" xmlns="http://www.w3.org/1998/Math/MathML"> Oi■2⋅ ⋅ Ei {displaystyle - ¿Qué? E_{i}2cdot E_{i}~}" aria-hidden="true" class="mwe-math-fallback-image-inline mw-invert skin-invert" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/5e1ffc7c0eb966dc152f681e92d192504fa22cb5" style="vertical-align: -0.671ex; width:12.189ex; height:2.509ex;"/> para un caso celular G- La prueba siempre es mejor que la prueba de la quimera.

Para probar la bondad del beneficio G- La prueba es infinitamente más eficiente que la prueba de chi cuadrados en el sentido de Bahadur, pero las dos pruebas son igualmente eficientes en el sentido de Pitman o en el sentido de Hodges y Lehmann.

Derivación (chi-cuadrado)

Considere

G=2. . iOiIn⁡ ⁡ ()OiEi) ,{displaystyle G=2sum ################################################################################################################################################################################################################################################################ {fnMicrosoft Sans Serif}

y dejar Oi=Ei+δ δ i{displaystyle O_{i}=E_{i}+delta ¿Qué? con . . iδ δ i=0 ,{displaystyle sum _{i}delta ¿Qué? para que el número total de cuentas siga siendo el mismo. En sustitución encontramos,

G=2. . i()Ei+δ δ i)In⁡ ⁡ ()1+δ δ iEi) .{displaystyle G=2sum _{i}{i}{i}+delta _{i})ln left(1+{frac {delta - Sí.

Una expansión de Taylor 1+δ δ iEi{displaystyle 1+{frac {delta - Sí. se puede realizar utilizando In⁡ ⁡ ()1+x)=x− − 12x2+O()x3){displaystyle ln(1+x)=x-{frac [1}{2}x^{2}+{mathcal {O}(x^{3}}}. El resultado es

G=2. . i()Ei+δ δ i)()δ δ iEi− − 12δ δ i2Ei2+O()δ δ i3)) ,{displaystyle G=2sum ¿Por qué? {delta {fnK} {fnMicroc} {1}{2}{frac {delta} ¿Por qué? y distribuyendo términos que encontramos,
G=2. . iδ δ i+12δ δ i2Ei+O()δ δ i3) .{displaystyle G=2sum _{i}delta ¿Por qué? {1}{2}{frac {delta} {fnK} {fnK}} {fnK}}fnh}left(delta) - Sí.

Ahora, usando el hecho de que . . iδ δ i=0 {displaystyle ~sum _{i}delta ¿Qué? y δ δ i=Oi− − Ei ,{displaystyle ~delta ¿Qué? podemos escribir el resultado,

G. . . . i()Oi− − Ei)2Ei .{displaystyle ~Gapprox sum _{i}{frac {left (O_{i}-E_{i} {2}}~}

Relación con la divergencia de Kullback–Leibler

El G-La estadística más importante es proporcional a la divergencia Kullback-Leibler de la distribución teórica de la distribución empírica:

G=2. . iOi⋅ ⋅ In⁡ ⁡ ()OiEi)=2N. . ioi⋅ ⋅ In⁡ ⁡ ()oiei)=2NDKL()o. . e),{displaystyle {begin{aligned}G limit=2sum ¿Por qué? [O_{i} {E_{i}}right)}=2Nsum ¿Por qué? {o_{i} {e_{i}}}right)}\\\cH00=2N,D_{mathrm {KL} {ofnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}

Donde N es el número total de observaciones y oi{displaystyle O... y ei{displaystyle E_{i} son las frecuencias empíricas y teóricas, respectivamente.

Relación con la información mutua

Para el análisis de tablas de contingencia, el valor de G también se puede expresar en términos de información mutua.

Dejar

N=. . ijOij{displaystyle N=sum ¿Qué? π π ij=OijN{displaystyle ;pi ¿Qué? {fn} {fn}fn}} π π i.=. . jOijN{displaystyle ;pi ¿Por qué?, y π π .j=. . iOijN{displaystyle ;pi {fnMicrosoft Sans Serif} ¿Qué?.

Entonces... G se puede expresar en varias formas alternativas:

G=2⋅ ⋅ N⋅ ⋅ . . ijπ π ij()In⁡ ⁡ ()π π ij)− − In⁡ ⁡ ()π π i.)− − In⁡ ⁡ ()π π .j)),{displaystyle G=2cdot Ncdot sum _{ij}{pi _{ij}left(ln(pi _{ij})-ln(pi _{i.})-ln(pi _{.j})right)}}}}
G=2⋅ ⋅ N⋅ ⋅ [H()r)+H()c)− − H()r,c)],{displaystyle G=2cdot Ncdot left[H(r)+H(c)-H(r,c)right],}
G=2⋅ ⋅ N⋅ ⋅ MI⁡ ⁡ ()r,c),{displaystyle G=2cdot Ncdot operatorname {MI} (r,c),}

donde la entropía de una variable discreta al azar X{displaystyle X,} se define como

H()X)=− − . . x▪ ▪ Supp()X)p()x)log⁡ ⁡ p()x),{displaystyle H(X)=-{xin {text{Supp}(X)}p(x)log p(x)},}

y dónde

MI⁡ ⁡ ()r,c)=H()r)+H()c)− − H()r,c){displaystyle operatorname {MI} (r,c)=H(r)+H(c)-H(r,c),}

es la información mutua entre el vector de fila r y el vector de columna c de la tabla de contingencia.

También se puede demostrar que la ponderación de frecuencia de documento inversa comúnmente utilizada para la recuperación de texto es una aproximación de G aplicable cuando la suma de filas para la consulta es mucho menor que la suma de filas para el resto de el corpus. De manera similar, el resultado de la inferencia bayesiana aplicada a una elección de distribución multinomial única para todas las filas de la tabla de contingencia tomadas en conjunto frente a la alternativa más general de un multinomial separado por fila produce resultados muy similares al estadístico G. .

Aplicación

  • La prueba McDonald–Kreitman en genética estadística es una aplicación de la G- Prueba.
  • Dunning presentó la prueba a la comunidad lingüística computacional donde ahora se utiliza ampliamente.
  • El programa R-scape (utilizado por Rfam) utiliza pruebas G para detectar la co-variación entre posiciones de alineación de secuencias RNA.

Software estadístico

  • En R se pueden encontrar implementaciones rápidas en los paquetes AMR y Rfast. Para el paquete AMR, el comando es g.test que funciona exactamente igual chisq.test de la base R. R también tiene la probabilidad. test Archivado 2013-12-16 en la función Wayback Machine en el Deducer Archivado 2012-03-09 en el paquete Wayback Machine. Nota: Fisher G-test in the GeneCycle Package of the R programming language (en inglés)fisher.g.test) no implementa el G-prueba como se describe en este artículo, pero más bien la prueba exacta de Fisher de la nariz blanca gaisiana en una serie de tiempo.
  • Otra aplicación R para calcular los valores estadísticos y p correspondientes de G es proporcionada por la entropía del paquete R. Los comandos son Gstat para la estadística estándar G y el valor p asociado y Gstatindep para la estadística G aplicada para comparar las distribuciones conjuntas y de productos con la independencia de prueba.
  • En SAS, uno puede conducir G-prueba aplicando el /chisq opción después de la proc freq.
  • En Stata, se puede realizar un G-prueba aplicando el lr opción después de la tabulate Comando.
  • En Java, uso org.apache.commons.math3.stat.inference.GTest.
  • En Python, uso scipy.stats.power_divergence con lambda_=0.

Contenido relacionado

Ciencias formales

La ciencia formal es una rama de la ciencia que estudia las disciplinas del lenguaje formal relacionadas con los sistemas formales, como la lógica, las...

Estadística matemática

La estadística matemática es la aplicación de la teoría de la probabilidad, una rama de las matemáticas, a la estadística, a diferencia de las técnicas...

Teoría estadística

La teoría de la estadística proporciona una base para toda la gama de técnicas, tanto en el diseño de estudios como en el análisis de datos, que se...

Distribución logarítmica normal

La distribución logarítmica normal o log-normal, es la representación estadística de una variable aleatoria cuya transformación logarítmica sigue una...

Historia de la medición

Los primeros sistemas registrados de pesos y medidas se originan en el tercer o cuarto milenio antes de Cristo. Incluso las civilizaciones más antiguas...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save