Prueba U de Mann-Whitney

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Prueba no paramétrica de la hipótesis nula

En estadística, la prueba U de Mann–Whitney (también llamada Mann–Whitney–Wilcoxon (MWW/MWU), prueba de suma de rangos de Wilcoxon o prueba de Wilcoxon-Mann-Whitney) es una prueba no paramétrica de la hipótesis nula que, para valores seleccionados aleatoriamente X y Y de dos poblaciones, la probabilidad de que X sea mayor que Y es igual a la probabilidad de que Y es mayor que X.

Las pruebas no paramétricas utilizadas en dos muestras dependientes son la prueba de signos y la prueba de rangos con signos de Wilcoxon.

Supuestos y declaración formal de hipótesis

Aunque Mann y Whitney desarrollaron la prueba U de Mann-Whitney bajo el supuesto de respuestas continuas con la hipótesis alternativa de que una distribución es estocásticamente mayor que la otra, hay muchas otras formas de formular la hipótesis nula y alternativa de modo que la prueba U de Mann-Whitney dé una prueba válida.

Una formulación muy general es asumir que:

  1. Todas las observaciones de ambos grupos son independientes entre sí,
  2. Las respuestas son al menos ordinal (es decir, se puede al menos decir, de cualquier dos observaciones, que es mayor),
  3. Bajo la hipótesis nula H0, las distribuciones de ambas poblaciones son idénticas.
  4. La hipótesis alternativa H1 es que las distribuciones no son idénticas.

Bajo la formulación general, la prueba sólo es consistente cuando ocurre lo siguiente bajo H1:

  1. La probabilidad de una observación de la población X de la población Y es diferente (más grande o menor) que la probabilidad de una observación de Y más de una observación Xi.e., P(XY) P(YX) o P(XY) + 0.5 · P(X = Y) ل 0.5.

Bajo supuestos más estrictos que la formulación general anterior, por ejemplo, si se supone que las respuestas son continuas y la alternativa se restringe a un cambio de ubicación, es decir, F1(x) = F2(x + δ), podemos interpretar que una prueba U de Mann-Whitney significativa muestra una diferencia en las medianas. Bajo este supuesto de cambio de ubicación, también podemos interpretar que la prueba U de Mann-Whitney evalúa si la estimación de Hodges-Lehmann de la diferencia de tendencia central entre las dos poblaciones difiere de cero. La estimación de Hodges-Lehmann para este problema de dos muestras es la mediana de todas las diferencias posibles entre una observación de la primera muestra y una observación de la segunda muestra.

De lo contrario, si tanto las dispersiones como las formas de la distribución de ambas muestras difieren, la prueba U de Mann-Whitney no pasa la prueba de medianas. Es posible mostrar ejemplos en los que las medianas son numéricamente iguales mientras la prueba rechaza la hipótesis nula con un valor p pequeño.

La prueba U de Mann-Whitney/prueba de suma de rangos de Wilcoxon no es la misma que la prueba de rangos con signo de Wilcoxon, aunque ambas no son paramétricas e implican la suma de rangos. La prueba U de Mann-Whitney se aplica a muestras independientes. La prueba de rangos con signo de Wilcoxon se aplica a muestras pareadas o dependientes.

Estadística U

Vamos X1,...... ,Xn1{displaystyle X_{1},ldotsX_{n_{1}}} ser una muestra de i.i.d. de X{displaystyle X}, y Y1,...... ,Yn2{displaystyle Y_{1},ldots Y... una muestra de i.i.d. de Y{displaystyle Sí., y ambas muestras independientes entre sí. El correspondiente Mann-Whitney U estadística se define como el menor de:

U1=n1n2+n1()n1+1)2− − R1,U2=n1n2+n2()n2+1)2− − R2{displaystyle U_{1}=n_{1}n_{2}+{tfrac {n_{1} {1}} {2}}-R_{1},U_{2}=n_{1}n_{2}+{tfrac} {n_{2} {2}} {2}}}-R_{2}} {2}} {c}} {c}} {c}}} {c}}} {c}} {c}} {c}} {c}}} {c}} {c}} {c}}}} {c}}}}}}}} {c} {c}}}} {c}}}}}}}} {c}}}}}}}} {c} {c}}}}} {c}}} {c}}}}} {c}}}}}}}}}}} {c}}}}}}}} {c}}}}} {c}}}}}}}}}}} {c} {c}}}}}}}}}}}}}}}} {c}}}}}}}}}}}}}}}}}}}}}}}}}}}

con

R1,R2{displaystyle R_{1},R_{2} siendo la suma de las filas en los grupos 1 y 2, respectivamente.

Estadística de área bajo la curva (AUC) para curvas ROC

La estadística U está relacionada con el área bajo la curva característica operativa del receptor (AUC).

AUC1=U1n1n2{displaystyle mathrm {AUC} _{1}={U_{1} over No.

Tenga en cuenta que esta es la misma definición que el tamaño del efecto del lenguaje común de la sección anterior. es decir, la probabilidad de que un clasificador clasifique una instancia positiva elegida al azar por encima de una negativa elegida al azar (suponiendo que "positiva" tenga una clasificación más alta que "negativa").

Did you mean:

Because of its probabilistic form, the U statistic can be generalised to a measure of a classifier 's separation power for more than two classes:

M=1c()c− − 1).. AUCk,l l {displaystyle M={1over c(c-1)}sum mathrm {AUC} _{k,ell }

Donde c es el número de clases y Rk, término de AUCk, considera solo la clasificación de los ítems pertenecientes a las clases k y (es decir, los elementos que pertenecen a todas las demás clases se ignoran) de acuerdo con las estimaciones del clasificador de la probabilidad de que los elementos pertenezcan a la clase k. AUCk,k siempre será cero pero, a diferencia del caso de dos clases, generalmente AUCk, ≠ AUC,k, que es por lo que la medida M suma todas las (k,) pares, de hecho usando el promedio de AUCk, y AUC,k.

Cálculos

La prueba implica el cálculo de una estadística, generalmente llamada U, cuya distribución bajo la hipótesis nula es conocida. En el caso de muestras pequeñas, la distribución se tabula, pero para tamaños de muestra superiores a ~20, la aproximación utilizando la distribución normal es bastante buena. Algunos libros tabulan estadísticas equivalentes a U, como la suma de rangos en una de las muestras, en lugar de U en sí.

La prueba U de Mann-Whitney está incluida en la mayoría de los paquetes estadísticos modernos. También se calcula fácilmente a mano, especialmente para muestras pequeñas. Hay dos maneras de hacer esto.

Método uno:

Para comparar dos pequeños conjuntos de observaciones, un método directo es rápido, y da una visión del significado del U estadística, que corresponde al número de victorias de todos los concursos pares (ver el ejemplo de tortuga y liebre bajo Ejemplos a continuación). Para cada observación en un conjunto, cuenta el número de veces que este primer valor gana sobre cualquier observación en el otro conjunto (el otro valor pierde si este primero es mayor). Cuenta 0,5 para cualquier vínculo. La suma de victorias y lazos es U (es decir: U1{displaystyle U_{1}) para el primer set. U para el otro set es el contrario (es decir: U2{displaystyle U_{2}).

Método dos:

Para muestras más grandes:

  1. Asignar filas numéricas a todas las observaciones (poner las observaciones de ambos grupos a un conjunto), comenzando con 1 por el valor más pequeño. Donde hay grupos de valores atados, asigne un rango igual al punto medio de clasificaciones no ajustadas (por ejemplo, las filas de (3, 5, 5, 5, 5, 8) son (1, 3.5, 3.5, 3.5, 3.5, 6), donde las filas no ajustadas serían (1, 2, 3, 4, 5, 6)).
  2. Ahora, agregue las filas para las observaciones que vinieron de la muestra 1. La suma de las filas en la muestra 2 se determina ahora, ya que la suma de todas las filas equivale a N()N + 1)/2 Donde N es el número total de observaciones.
  3. U es entonces dado por:
U1=R1− − n1()n1+1)2{displaystyle U_{1}=R_{1}-{n_{1}(n_{1}+1) over 2},!}
Donde n1 es el tamaño de la muestra para la muestra 1, y R1 es la suma de las filas en la muestra 1.
Tenga en cuenta que no importa cuál de las dos muestras se considera muestra 1. Una fórmula igualmente válida U es
U2=R2− − n2()n2+1)2{displaystyle U_{2}=R_{2}-{n_{2}(n_{2}+1) over 2},!}
El menor valor U1 y U2 es el que se utiliza al consultar tablas de significado. La suma de los dos valores es dada por
U1+U2=R1− − n1()n1+1)2+R2− − n2()n2+1)2.{displaystyle U_{1}+U_{2}=R_{1}-{n_{1}(n_{1}+1) over 2}+R_{2}-{2}(n_{2}+1) over 2}.,!}
Saber que R1 + R2 = N()N + 1)/2 y N = n1 + n2, y haciendo un poco de álgebra, encontramos que la suma es
U1 + U2 = n1n2.

Propiedades

El valor máximo U es el producto de los tamaños de la muestra para las dos muestras (es decir: Ui=n1n2{displaystyle U_{i}=n_{1}n_{2}). En tal caso, el "otro" U sería 0.

Ejemplos

Ilustración de métodos de cálculo

Supongamos que Esopo no está satisfecho con su experimento clásico en el que se descubrió que una tortuga vencía a una liebre en una carrera y decide realizar una prueba de significancia para descubrir si los resultados podrían extenderse a las tortugas y las liebres en general. Recoge una muestra de 6 tortugas y 6 liebres y las hace correr su carrera a todas a la vez. El orden en el que llegan al puesto de meta (su orden de clasificación, del primero al último en cruzar la línea de meta) es el siguiente, escribiendo T para una tortuga y H para una liebre:

T T T T T T H H H

¿Cuál es el valor de U?

  • Usando el método directo, tomamos cada tortoise a su vez, y contamos el número de liebres que golpea, obteniendo 6, 1, 1, 1, 1, lo que significa que UT = 11. Alternativamente, podríamos tomar cada liebre a su vez, y contar el número de tortugas que golpea. En este caso, tenemos 5, 5, 5, 5, 5, 0, así que UH = 25. Tenga en cuenta que la suma de estos dos valores para U = 36, que es 6×6.
  • Utilizando el método indirecto:
clasificar a los animales para el tiempo que toman para completar el curso, así que dar el primer lugar animal 12, el segundo rango 11, y así sucesivamente.
la suma de las filas alcanzadas por las tortugas es 12 + 6 + 5 + 3 + 2 = 32.
Por lo tanto UT = 32 − (6×7)/2 = 32 − 21 = 11 (Lo mismo como método uno).
La suma de las filas alcanzadas por las liebres es 11 + 10 + 9 + 8 + 7 + 1 = 46, conduce a UH = 46 − 21 = 25.

Ejemplo de declaración de resultados

Al informar los resultados de una prueba U de Mann-Whitney, es importante indicar:

  • Una medida de las tendencias centrales de los dos grupos (medios o medianas; desde el Mann-Whitney U test es una prueba ordinal, medianas se recomiendan generalmente)
  • El valor de U (tal vez con alguna medida de tamaño del efecto, como el tamaño del efecto del lenguaje común o la correlación biserial de rango).
  • Los tamaños de la muestra
  • El nivel de significación.

En la práctica, es posible que parte de esta información ya se haya proporcionado y se debe utilizar el sentido común para decidir si se repite o no. Se podría ejecutar un informe típico,

"Los retrasos en los grupos E y C fueron de 153 y 247 ms; las distribuciones en los dos grupos difieren significativamente (Mann-Whitney) U = 10,5, n1 = n2 = 8, P ▪ 0,05 dos colas)."

Se podría ejecutar una declaración que haga plena justicia al estado estadístico de la prueba,

"Los resultados de los dos tratamientos se compararon con la prueba de dos muestras de Wilcoxon-Mann-Whitney. El efecto de tratamiento (diferencia entre tratamientos) fue cuantificado utilizando el estimador Hodges-Lehmann (HL), que es consistente con el test de Wilcoxon. Este estimador (HLΔ) es la mediana de todas las posibles diferencias en los resultados entre un tema en el grupo B y un tema en el grupo A. Un intervalo de confianza no paramétrico 0.95 para HLΔ acompaña estas estimaciones como lo hace ρ, una estimación de la probabilidad de que un sujeto elegido aleatoriamente de la población B tenga un peso más alto que un sujeto elegido aleatoriamente de la población A. El peso medio [cuartiles] para sujetos en tratamiento A y B respectivamente son 147 [121, 177] y 151 [130, 180] kg. Tratamiento Un peso reducido por HLΔ = 5 kg (0.95 CL [2, 9] kg, 2P = 0,02, *** = 0,58)."

Sin embargo, sería raro encontrar un informe tan extenso en un documento cuyo tema principal no fuera la inferencia estadística.

Aproximación normal y corrección de empate

Para muestras grandes, U tiene una distribución aproximadamente normal. En ese caso, el valor estandarizado

z=U− − mUσ σ U,{displaystyle z={frac}{sigma}.

donde mU y σU son la media y la desviación estándar de U, es aproximadamente una desviación normal estándar cuyo significado se puede comprobar en tablas de distribución normal. mU y σU están dados por

mU=n1n22,{displaystyle m_{U}={frac {n_{1}n_{2} {2}},} y
σ σ U=n1n2()n1+n2+1)12.{displaystyle sigma ¿Qué? {n_{1}n_{2}(n_{1}+n_{2}+1) over 12}},}

La fórmula para la desviación estándar es más complicada en presencia de rangos empatados. Si hay empates en los rangos, σ debe ajustarse de la siguiente manera:

σ σ lazos=n1n2()n1+n2+1)12− − n1n2.. k=1K()tk3− − tk)12n()n− − 1),{displaystyle sigma _{text{ties}={sqrt {{n_{1}n_{2}(n_{1}+n_{2}+1) over 12}-{n_{1}n_{2}sum ¿Qué?

donde el lado izquierdo es simplemente la varianza y el lado derecho es el ajuste por empates, tk es el número de empates por el késimo rango, y K es el número total de rangos únicos con empates.

Una forma computacionalmente más eficiente con n1n2 /12 factorizado es

σ σ lazos=n1n212()()n+1)− − .. k=1K()tk3− − tk)n()n− − 1)),{displaystyle sigma _{text{ties}={sqrt {{n_{1}n_{2}over 12}left(n+1)-{sum ¿Por qué? }

donde n = n1 + n2 .

Si el número de ataduras es pequeño (y especialmente si no hay bandas de atadura grandes), las ataduras se pueden ignorar al realizar los cálculos a mano. Los paquetes estadísticos informáticos utilizarán de forma rutinaria la fórmula correctamente ajustada.

Tenga en cuenta que dado que U1 + U2 = n1n2, la media n1n2/2 utilizado en la aproximación normal es la media de los dos valores de U . Por lo tanto, el valor absoluto de la estadística z calculada será el mismo independientemente del valor de U que se utilice.

Tamaños del efecto

Es una práctica ampliamente recomendada para los científicos informar el tamaño del efecto para una prueba inferencial.

Proporción de concordancia de todos los pares

Las siguientes tres medidas son equivalentes.

Tamaño del efecto del lenguaje común

Un método para informar el tamaño del efecto de la prueba U de Mann-Whitney es con f, el tamaño del efecto del lenguaje común. Como estadística de muestra, el tamaño del efecto del lenguaje común se calcula formando todos los pares posibles entre los dos grupos y luego encontrando la proporción de pares que apoyan una dirección (por ejemplo, que los elementos del grupo 1 son más grandes que los del grupo 2). A modo de ejemplo, en un estudio con una muestra de diez liebres y diez tortugas, el número total de pares ordenados es diez veces diez o 100 pares de liebres y tortugas. Supongamos que los resultados muestran que la liebre corrió más rápido que la tortuga en 90 de las 100 parejas de muestra; en ese caso, el tamaño del efecto del lenguaje común de la muestra es del 90%. Este valor de muestra es un estimador insesgado del valor de la población, por lo que la muestra sugiere que la mejor estimación del tamaño del efecto del lenguaje común en la población es 90%.

La relación entre f y el Mann-Whitney U (específicamente) U1{displaystyle U_{1}) es como sigue:

f=U1n1n2{displaystyle f={U_{1} over No, no.

Esto es lo mismo que el área bajo la curva (AUC) para la curva ROC.

Ρ estadística

Una estadística llamada ρ que está relacionada linealmente con U y se usa ampliamente en estudios de categorización (aprendizaje de discriminación que involucra conceptos) y en otros lugares, se calcula dividiendo U por su valor máximo para los tamaños de muestra dados, que es simplemente n1×n2. ρ es, por tanto, una medida no paramétrica de la superposición entre dos distribuciones; puede tomar valores entre 0 y 1, y es una estimación de P(Y > X) + 0,5 P(Y = X), donde X e Y son observaciones elegidas al azar de las dos distribuciones. Ambos valores extremos representan una separación completa de las distribuciones, mientras que un ρ de 0,5 representa una superposición completa. La utilidad del estadístico ρ se puede ver en el caso del extraño ejemplo usado anteriormente, donde dos distribuciones que eran significativamente diferentes en una prueba U de Mann-Whitney, sin embargo, casi tenían medianas idénticas: el valor de ρ en este caso es aproximadamente 0,723 a favor de las liebres, lo que refleja correctamente el hecho de que aunque la tortuga mediana venció a la liebre mediana, a las liebres en conjunto les fue mejor que a las tortugas en conjunto.

Correlación rango-biserial

Un método para informar el tamaño del efecto de la prueba U de Mann-Whitney es con una medida de correlación de rango conocida como correlación biserial de rango. Edward Cureton presentó y nombró la medida. Al igual que otras medidas correlacionales, la correlación biserial de rango puede variar de menos uno a más uno, y un valor de cero indica que no hay relación.

Existe una fórmula de diferencia simple para calcular la correlación biserial de rango a partir del tamaño del efecto del lenguaje común: la correlación es la diferencia entre la proporción de pares favorables a la hipótesis (f) menos su complemento (es decir: la proporción que es desfavorable (u)). Esta fórmula de diferencia simple es solo la diferencia del tamaño del efecto del lenguaje común de cada grupo y es la siguiente:

r=f− − u{displaystyle r=f-u}

Por ejemplo, considere el ejemplo en el que las liebres corren más rápido que las tortugas en 90 de 100 parejas. El tamaño del efecto del lenguaje común es del 90 %, por lo que la correlación biserial de rango es 90 % menos 10 %, y la correlación biserial de rango r = 0,80.

Una fórmula alternativa para el biserial de rango se puede utilizar para calcularlo desde el Mann-Whitney U (ya U1{displaystyle U_{1} o U2{displaystyle U_{2}) y los tamaños de la muestra de cada grupo:

r=f− − ()1− − f)=2f− − 1=2U1n1n2− − 1=1− − 2U2n1n2{displaystyle r=f-(1-f)=2f-1={2U_{1} over n_{1}n_{2}-1=1-{2U_{2} over No.

Esta fórmula es útil cuando los datos no están disponibles, pero cuando hay un informe publicado, porque U y los tamaños de muestra se informan de forma rutinaria. Usando el ejemplo anterior con 90 pares que favorecen a las liebres y 10 pares que favorecen a la tortuga, U2 es el más pequeño de los dos, por lo que U2 = 10. Esta fórmula da entonces r = 1 – (2×10) / (10×10) = 0,80, que es el mismo resultado que con la fórmula simple fórmula de diferencia anterior.

Relación con otras pruebas

Did you mean:

Comparison to Student 's t-test

La prueba U de Mann-Whitney prueba una hipótesis nula de que la distribución de probabilidad de una observación extraída al azar de un grupo es la misma que la distribución de probabilidad de una observación extraída al azar del otro grupo frente a una alternativa de que esas distribuciones no son iguales (ver Prueba U de Mann-Whitney # Supuestos y declaración formal de hipótesis). Por el contrario, una prueba t prueba una hipótesis nula de medias iguales en dos grupos frente a una alternativa de medias desiguales. Por lo tanto, excepto en casos especiales, la prueba U de Mann-Whitney y la prueba t no prueban las mismas hipótesis y deben compararse teniendo esto en cuenta.

Datos ordinal
El Mann-Whitney U la prueba es preferible a la t-prueba cuando los datos son ordinal pero no escalonados, en cuyo caso no se puede suponer que el espaciado entre valores adyacentes de la escala sea constante.
Robustitud
Al comparar las sumas de las filas, el Mann-Whitney U la prueba es menos probable que t- Prueba de indicar espuriosamente la importancia debido a la presencia de aficionados. Sin embargo, el Mann-Whitney U test puede tener peor control de error tipo I cuando los datos son tanto heteroscedasticos como no normales.
Eficiencia
Cuando la normalidad sostiene, el Mann-Whitney U test tiene una eficiencia (asintomática) 3/π o alrededor de 0.95 en comparación con el t- Prueba. Para las distribuciones lo suficientemente lejos de lo normal y para tamaños de muestra suficientemente grandes, el Mann-Whitney U la prueba es considerablemente más eficiente que la t. Esta comparación en eficiencia, sin embargo, debe interpretarse con cautela, ya que Mann-Whitney y la prueba t no prueban las mismas cantidades. Si, por ejemplo, una diferencia de los medios de grupo es de interés primario, Mann-Whitney no es una prueba adecuada.

La prueba U de Mann-Whitney dará resultados muy similares a la realización de una prueba t paramétrica ordinaria de dos muestras en las clasificaciones de los datos.

Diferentes distribuciones

El Mann-Whitney U test no es válido para probar la hipótesis nula X)+0.5P(Y=X)=0.5}" xmlns="http://www.w3.org/1998/Math/MathML">P()Y■X)+0.5P()Y=X)=0.5{displaystyle P(Y frecuentemente)+0.5P(Y=X)=0.5}X)+0.5P(Y=X)=0.5}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/8124951a9d240f7852fc8e2de5d40dab0355e8f1" style="vertical-align: -0.838ex; width:32.695ex; height:2.843ex;"/> contra la hipótesis alternativa X)+0.5P(Y=X)neq 0.5}" xmlns="http://www.w3.org/1998/Math/MathML">P()Y■X)+0.5P()Y=X)ل ل 0.5{displaystyle P(Y confianzaX)+0.5P(Y=X)neq 0.5}X)+0.5P(Y=X)neq 0.5}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/3b103009599fc09f77bbe447b781f9eac4cee186" style="vertical-align: -0.838ex; width:32.695ex; height:2.843ex;"/>), sin asumir que las distribuciones son las mismas bajo la hipótesis nula (es decir, suponiendo que F1=F2{displaystyle F_{1}=F_{2}). Para probar entre esas hipótesis, hay mejores pruebas disponibles. Entre ellos se encuentran el Brunner-Munzel y la prueba Fligner-Policello. Específicamente, bajo la hipótesis nula más general X)+0.5P(Y=X)=0.5}" xmlns="http://www.w3.org/1998/Math/MathML">P()Y■X)+0.5P()Y=X)=0.5{displaystyle P(Y frecuentemente)+0.5P(Y=X)=0.5}X)+0.5P(Y=X)=0.5}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/8124951a9d240f7852fc8e2de5d40dab0355e8f1" style="vertical-align: -0.838ex; width:32.695ex; height:2.843ex;"/>, el Mann-Whitney U test puede haber inflado tipos de error tipo I incluso en muestras grandes (especialmente si las diferencias de dos poblaciones son desiguales y los tamaños de la muestra son diferentes), un problema las mejores alternativas resuelven. Como resultado, se ha sugerido utilizar una de las alternativas (específicamente la prueba Brunner-Munzel) si no se puede suponer que las distribuciones son iguales bajo la hipótesis nula.

Alternativas

Si se desea una interpretación de cambio simple, la prueba U de Mann-Whitney no debe no usarse cuando las distribuciones de las dos muestras son muy diferentes, ya que puede dar Interpretación errónea de resultados significativos. En esa situación, la versión de varianzas desiguales de la prueba t puede dar resultados más confiables.

De manera similar, algunos autores (por ejemplo, Conover) sugieren transformar los datos en rangos (si aún no lo son) y luego realizar la prueba t en los datos transformados, la versión del t utilizada dependiendo de si se sospecha que las variaciones de la población son diferentes o no. Las transformaciones de rango no conservan las varianzas, pero las varianzas se vuelven a calcular a partir de muestras después de las transformaciones de rango.

Se ha sugerido que la prueba de Brown-Forsythe es un equivalente no paramétrico apropiado de la prueba F para varianzas iguales.

Una prueba más poderosa es la prueba de Brunner-Munzel, que supera a la prueba U de Mann-Whitney en caso de que se viole el supuesto de intercambiabilidad.

La prueba U de Mann-Whitney es un caso especial del modelo de probabilidades proporcionales, que permite el ajuste de covariables.

Ver también Prueba de Kolmogorov-Smirnov.

Estadísticas de pruebas relacionadas

Did you mean:

Kendall 's tau

La prueba U de Mann-Whitney está relacionada con otros procedimientos estadísticos no paramétricos. Por ejemplo, equivale al coeficiente de correlación tau de Kendall si una de las variables es binaria (es decir, sólo puede tomar dos valores).

Implementaciones de software

En muchos paquetes de software, la prueba U de Mann-Whitney (de la hipótesis de distribuciones iguales frente a alternativas apropiadas) ha sido mal documentada. Algunos paquetes tratan incorrectamente los vínculos o no documentan técnicas asintóticas (por ejemplo, corrección de continuidad). Una revisión de 2000 analizó algunos de los siguientes paquetes:

  • MATLAB tiene la suma de rango en su Caja de Herramientas de Estadísticas.
  • Las estadísticas del paquete base implementan el wilcox de prueba. prueba en su paquete "stats".
  • El paquete R wilcoxon Z calculará la estadística z para una prueba de dos muestras de Wilcoxon, emparejado o de un muestreo.
  • SAS implementa la prueba en su procedimiento PROC NPAR1WAY.
  • Python (lengua de programación) tiene una aplicación de esta prueba proporcionada por SciPy
  • SigmaStat (SPSS Inc., Chicago, IL)
  • SYSTAT (SPSS Inc., Chicago, IL)
  • Java (lengua de programación) tiene una implementación de esta prueba proporcionada por Apache Commons
  • Julia (lengua de programación) tiene implementaciones de esta prueba a través de varios paquetes. En el paquete HypothesisTests.jl, esto se encuentra como pvalue(MannWhitneyUTest(X, Y)))
  • JMP (SAS Institute Inc., Cary, NC)
  • S-Plus (MathSoft, Inc., Seattle, WA)
  • STATISTICA (StatSoft, Inc., Tulsa, OK)
  • UNISTAT (Unistat Ltd, Londres)
  • SPSS (SPSS Inc, Chicago)
  • StatsDirect (StatsDirect Ltd, Manchester, Reino Unido) implementa todas las variantes comunes.
  • Stata (Stata Corporation, College Station, TX) implementa la prueba en su comando ranksum.
  • StatXact (Cytel Software Corporation, Cambridge, Massachusetts)
  • PSPP implementa la prueba en su función WILCOXON.
  • KNIME implementa la prueba en su Wilcoxon-Mann-Whitney Nodo de prueba.

Historia

La estadística apareció en un artículo de 1914 del alemán Gustav Deuchler (faltando un término en la varianza).

En un único artículo de 1945, Frank Wilcoxon propuso tanto la prueba de rango con signo de una muestra como la prueba de suma de rangos de dos muestras, en una prueba de significancia con una hipótesis nula puntual frente a su alternativa complementaria (es decir, igual versus no es igual). Sin embargo, en ese artículo sólo tabuló unos pocos puntos para el caso de igual tamaño de muestra (aunque en un artículo posterior proporcionó tablas más grandes).

Un análisis exhaustivo de la estadística, que incluía una recurrencia que permitía el cálculo de probabilidades de cola para tamaños de muestra arbitrarios y tablas para tamaños de muestra de ocho o menos, apareció en el artículo de Henry Mann y su alumno Donald Ransom Whitney en 1947. El artículo discutió hipótesis alternativas, incluido un ordenamiento estocástico (donde las funciones de distribución acumulativa satisfacían la desigualdad puntual FX (t) < FY(t)). Este artículo también calculó los primeros cuatro momentos y estableció la normalidad límite del estadístico bajo la hipótesis nula, estableciendo así que es asintóticamente libre de distribución.

Contenido relacionado

Aviones de reconocimiento

Un avión de reconocimiento es un avión militar diseñado o adaptado para realizar reconocimiento aéreo con funciones que incluyen la recopilación de...

Transferencia de datos de nodo a nodo

En telecomunicaciones, la transferencia de datos de nodo a nodo es el movimiento de datos de un nodo de una red al siguiente. En el modelo OSI es manejado por...

Marte 3

Mars 3 fue una sonda espacial robótica del programa soviético Mars, lanzada el 28 de mayo de 1971, nueve días después de su nave espacial gemela Mars 2....
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save