Media aritmética ponderada

AjustarCompartirImprimirCitar
Cantidad estadística

La media aritmética ponderada es similar a una media aritmética ordinaria (el tipo de promedio más común), excepto que en lugar de que cada uno de los puntos de datos contribuya por igual al promedio final, algunos puntos de datos contribuyen más que otros. La noción de media ponderada juega un papel en la estadística descriptiva y también ocurre de forma más general en varias otras áreas de las matemáticas.

Si todos los pesos son iguales, entonces la media ponderada es la misma que la media aritmética. Si bien las medias ponderadas generalmente se comportan de manera similar a las medias aritméticas, tienen algunas propiedades contrarias a la intuición, como se captura, por ejemplo, en la paradoja de Simpson.

Ejemplos

Ejemplo básico

Dadas dos clases escolares uno con 20 estudiantes, uno con 30 estudiantesy evaluar las calificaciones en cada clase de la siguiente manera:

Clase de mañana = {62, 67, 71, 74, 76, 77, 78, 79, 79, 80, 81, 81, 82, 83, 84, 86, 89, 93, 98}

Afternoon class = {81, 82, 83, 84, 85, 86, 87, 87, 88, 88, 89, 89, 89, 90, 90, 90, 90, 90, 91, 91, 91, 92, 92, 93, 93, 94, 95, 96, 97, 98, 99}

La media de la clase de la mañana es 80 y la media de la clase de la tarde es 90. La media no ponderada de las dos medias es 85. Sin embargo, esto no tiene en cuenta la diferencia en el número de estudiantes en cada clase (20 frente a 30); por lo tanto, el valor de 85 no refleja la calificación promedio de los estudiantes (independientemente de la clase). La calificación promedio de los estudiantes se puede obtener promediando todas las calificaciones, sin importar las clases (sume todas las calificaciones y divide por el número total de estudiantes):

x̄ ̄ =430050=86.{displaystyle {bar {x}={frac {4300}=86.}

O bien, esto se puede lograr ponderando las medias de la clase por el número de estudiantes en cada clase. A la clase más grande se le da más "peso":

x̄ ̄ =()20× × 80)+()30× × 90)20+30=86.{displaystyle {bar {x}={frac {20times 80)+(30times 90)}{20+30}=86.}

Por lo tanto, la media ponderada permite encontrar la calificación promedio promedio de los estudiantes sin conocer la calificación de cada estudiante. Solo se necesitan las medias de la clase y el número de estudiantes en cada clase.

Ejemplo de combinación convexa

Dado que solo los pesos relativos son relevantes, cualquier media ponderada se puede expresar usando coeficientes que suman uno. Tal combinación lineal se llama combinación convexa.

Usando el ejemplo anterior, obtendríamos los siguientes pesos:

2020+30=0,4{displaystyle {frac {20}{20+30}=0.4}
3020+30=0.6{displaystyle {frac {30}{20+30}=0.6}

Luego, aplique los pesos de esta manera:

x̄ ̄ =()0,4× × 80)+()0.6× × 90)=86.{displaystyle {bar {x}=(0.4times 80)+(0.6times 90)=86.}

Definición matemática

Formalmente, la media ponderada de un tuple finito no vacío de datos ()x1,x2,...... ,xn){displaystyle left(x_{1},x_{2},dotsx_{n}right)}, con pesos no negativos correspondientes ()w1,w2,...... ,wn){displaystyle left(w_{1},w_{2},dotsw_{n}right)} es

x̄ ̄ =.. i=1nwixi.. i=1nwi,{displaystyle {bar {x}={frac {sum limits ¿Qué? limits ¿Qué?

que se expande a:

x̄ ̄ =w1x1+w2x2+⋯ ⋯ +wnxnw1+w2+⋯ ⋯ +wn.{displaystyle {bar {x}={frac} {w_{1}x_{1}+w_{2}x_{2}+cdots ¿Qué? - Sí.

Por lo tanto, los elementos de datos con un peso alto contribuyen más a la media ponderada que los elementos con un peso bajo. Los pesos no pueden ser negativos. Algunos pueden ser cero, pero no todos (ya que no se permite la división por cero).

Las fórmulas se simplifican cuando se normalizan los pesos de tal manera que suman hasta 1, es decir, .. i=1nwi.=1{textstyle sum limits ¿Qué?. Para tales pesos normalizados, la media ponderada es equivalente:

x̄ ̄ =.. i=1nwi.xi{displaystyle {bar {x}=sum limits ¿Qué?.

Tenga en cuenta que siempre se pueden normalizar los pesos haciendo la siguiente transformación en los pesos originales:

wi.=wi.. j=1nwj{displaystyle ¿Qué? {w_{i}{sum limits ¿Qué?.

La media ordinaria 1n.. i=1nxi{textstyle {frac {1}{n}sum limits ¿Qué? es un caso especial de la media ponderada donde todos los datos tienen pesos iguales.

Si los elementos de datos son variables aleatorias independientes y distribuidas idénticamente con varianza σ σ 2{displaystyle sigma ^{2}, el error estándar de la media ponderada, σ σ x̄ ̄ {displaystyle sigma _{bar {x}}, se puede mostrar mediante la propagación de la incertidumbre para ser:

σ σ x̄ ̄ =σ σ .. i=1nwi.2{textstyle sigma _{bar {x}=sigma {sqrt {sum limits ¿Qué?

Ponderaciones definidas por varianza

Para la media ponderada de una lista de datos para los cuales cada elemento xi{displaystyle x_{i}} potencialmente proviene de una distribución de probabilidad diferente con varianza conocida σ σ i2{displaystyle sigma _{i}{2}, todos teniendo la misma media, una posible opción para los pesos es dada por la reciproca de la varianza:

wi=1σ σ i2.{displaystyle w_{i}={frac {1}{sigma - Sí.

La media ponderada en este caso es:

x̄ ̄ =.. i=1n()xiσ σ i2).. i=1n1σ σ i2=.. i=1n()xi⋅ ⋅ wi).. i=1nwi,{displaystyle {bar {x}={frac {sum _{i=1}left({dfrac {i=0} {fn} {x_{i}{sigma ¿Qué? ¿Qué? {1}{sigma ¿Qué? ♪ ♪♪♪♪♪♪♪♪ ¿Por qué? ¿Qué?

y el error estándar de la media ponderada (con pesos de varianza inversa) es:

σ σ x̄ ̄ =1.. i=1nσ σ i− − 2=1.. i=1nwi,{displaystyle sigma _{bar {x}={sqrt {frac}{sum ###{i=1} {n}sigma ¿Qué? {fnMicroc} {fnK} {fnMicroc} {fnMicroc} {fnMicroc} {fn} {fn} {fnMicroc} {fnK} {fnK} {f} {fnMicroc} {fnK} {fnK} {f}f}}} {f}}} {f}}fnfnf}fnfnf}fnfnfnf}}}f}fnfnKfnKfnKfnKfnfnfnfnfnKfnKfnfnfnfnKfnfnhfnfnfnfnfnfnKfnfnfnKfnKfnKfnKf}}}}fn ♪♪

Nota esto reduce a σ σ x̄ ̄ 2=σ σ 02/n{displaystyle sigma _{bar {x}{2}=sigma ¿Qué? cuando todo σ σ i=σ σ 0{displaystyle sigma ¿Qué? ¿Qué?. Es un caso especial de la fórmula general en la sección anterior,

σ σ x̄ ̄ 2=.. i=1nwi.2σ σ i2=.. i=1nσ σ i− − 4σ σ i2().. i=1nσ σ i− − 2)2.{displaystyle sigma _{bar {x}} {2}==== ################################################################################################################################################################################################################################################################ ¿Qué? - ¿Qué? ¿Qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}} {f}} {fnMicrosoft}}}} {f}}}} {f}}}}}} {f}}}}}}}}}}}} {f}}}}} {f}}}}}}}} {b}}}}} {b}}}}}}}}}}} {b}}}}}}}}}}} {b} {b}}} {b}}}}} {b}}}} {b}}}}}}}}}}}}}}}}}}}}}}}}}bb}}}}}}}}}bb}}}}}}}}} ###{i=1} {n}sigma - Sí.

Las ecuaciones anteriores se pueden combinar para obtener:

x̄ ̄ =σ σ x̄ ̄ 2.. i=1nxiσ σ i2.{displaystyle {bar {x}=sigma _{bar {x}} {2}sum} - ¿Qué? {x_{i}{sigma - Sí.

La importancia de esta elección es que esta media ponderada es el estimador de máxima verosimilitud de la media de las distribuciones de probabilidad bajo el supuesto de que son independientes y normalmente distribuidas con la misma media.

Propiedades estadísticas

Expectativa

La muestra ponderada significa, x̄ ̄ {displaystyle {bar {x}}, es en sí misma una variable aleatoria. Su valor esperado y su desviación estándar están relacionados con los valores previstos y las desviaciones estándar de las observaciones, como se indica a continuación. Para la simplicidad, asumimos pesos normalizados (pesos resumiendo a uno).

Si las observaciones tienen valores esperados

E()xi)=μ μ i,{displaystyle E(x_{i})={mu} ♪♪
E()x̄ ̄ )=.. i=1nwi.μ μ i.{displaystyle E({bar {x})=sum ¿Por qué? - Sí.
μ μ i=μ μ {displaystyle mu _{i}=mu }
E()x̄ ̄ )=μ μ .{displaystyle E({bar {x})=mu.}

Variación

Simple i.i.d. caso

Al tratar los pesos como constantes y tener una muestra de n observaciones de variables aleatorias no correlacionadas, todas con la misma varianza y expectativa (como es el caso de las variables aleatorias i.i.d), entonces la varianza de la media ponderada se puede estimar como la multiplicación de la varianza por el efecto de diseño de Kish (ver prueba):

Var⁡ ⁡ ()Sí.̄ ̄ w)=σ σ ^ ^ Sí.2nw2̄ ̄ w̄ ̄ 2{displaystyle operatorname {Var} ({bar {y}_{w})={frac {hat {sigma} {fn} {fn} {fn}} {fn}} {fn}} {fn} {fn}} {fn} {fn}} {fn}} {fn}fn}} {fn}}} {fn}}}} {fn}fn}} {f}}}}} {f} {f}} {f}f}}}}}}}}}}}} {f} {f}}}}}}}} {f} {f} {f} {f}}}f}}}}}}}}}}}}}}}} {f} {f} {f} {f} {f}}f} {f} {f}}f}f} {f}}}}}}}}}}}f}}}}}}}}}}}}}}}}}}}}}}}} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {fnMicrosoft Sans Serif}} {fnK}} {fnMicrosoft}}}} {f}} {f}}}} {fnMicrosoft}}}}}}} {f}}}}}}}} {b}}}}} {b} {b}}} {b}} {b}}}}}}}}} {b}} {b}}}}}}} {b}}}}}}}} {b}}}}}}}}} {b}}} {b}}}}} {b}}}} {b}}}}}}}}} {b}}}} {b}} {b}}}}}}}}}}}}}}}}}}}}} {b}}} {}} {}}}}}

Con σ σ ^ ^ Sí.2=.. i=1n()Sí.i− − Sí.̄ ̄ )2n− − 1{displaystyle {hat {sigma} - ¿Qué? - ¿Qué?, w̄ ̄ =.. i=1nwin{displaystyle {bar {f}={frac {fnMicroc} ¿Qué?, y w2̄ ̄ =.. i=1nwi2n{fnMicrosoft {fnMicrosoft}} {fnMicroc {fnMicrosoft}} {fnK}} {fnK}}}} {fnMicroc {fnK}}}}}} {fnf}}} {f}fnfnKfnK}}}}}}}}} {f}fnfnfnfnfnfnfnfnfnfnfnKfnfnKfnKfnfnKfnKfnKf}fnKf}fnKfnKfnKfnKfnKfnKfnKfnKfnKfnKf}}fnKfnKfnKfnKf}}fnKf}}}}}}}}}}}}} ¿Qué?

Sin embargo, esta estimación es bastante limitada debido a la fuerte suposición sobre las observaciones y. Esto ha llevado al desarrollo de estimadores alternativos más generales.

Perspectiva de muestreo de la encuesta

De un modelo perspectiva, nos interesa estimar la varianza de la media ponderada cuando las diferentes Sí.i{displaystyle Y... no son variables aleatorias i.i.d. Una perspectiva alternativa para este problema es la de un diseño de muestreo arbitrario de los datos en los que se seleccionan unidades con probabilidades desiguales (con reemplazo).

En la metodología de encuestas, la población significa, de cierta cantidad de interés Sí., se calcula tomando una estimación del total de Sí. sobre todos los elementos de la población (Y o a veces T) y dividirlo por el tamaño de la población – o bien conocido (N{displaystyle N}) o estimado (N^ ^ {displaystyle {hat {N}}}). En este contexto, cada valor de Sí. se considera constante, y la variabilidad viene del procedimiento de selección. Esto en contraste con enfoques basados en modelos en los que la aleatoriedad se describe a menudo en los valores y. El procedimiento de muestreo de la encuesta produce una serie de valores de indicador Bernoulli (Ii{displaystyle I_{i}que consigue 1 si alguna observación i está en la muestra y 0 si no fue seleccionado. Esto puede ocurrir con tamaño de muestra fijo, o muestreo de tamaño de muestra variado (por ejemplo: muestreo Poisson). La probabilidad de que algún elemento sea elegido, dada una muestra, se denota como P()Ii=1▪ ▪ Algunas muestras de tamañon)=π π i{displaystyle P(I_{i}=1mid {text{Some sample of size }n)=pi _{i}, y la probabilidad única de selección es P()Ii=1Silencioun dibujo de muestra)=pi.. π π in{displaystyle P(I_{i}=1:24{text{one sample draw}=p_{i}approx {fnMicroc} ¿Qué? (Si N es muy grande y cada uno pi{displaystyle P_{i} es muy pequeño). Para la siguiente derivación asumiremos que la probabilidad de seleccionar cada elemento está plenamente representada por estas probabilidades. Es decir: seleccionar algún elemento no influirá en la probabilidad de dibujar otro elemento (esto no se aplica para cosas como el diseño de muestreo de racimo).

Desde cada elemento (Sí.i{displaystyle Y...) se fija, y la aleatoriedad viene de que se incluye en la muestra o no (Ii{displaystyle I_{i}), a menudo hablamos de la multiplicación de los dos, que es una variable aleatoria. Para evitar confusión en la sección siguiente, llamemos a este término: Sí.i.=Sí.iIi{displaystyle Sí.. Con la siguiente esperanza: E[Sí.i.]=Sí.iE[Ii]=Sí.iπ π i{displaystyle E[y]=y_{i}E[I_{i}=y_{i}pi} ¿Qué?; y diferencia: V[Sí.i.]=Sí.i2V[Ii]=Sí.i2π π i()1− − π π i){displaystyle V[y'_{i}=y_{i} {2}V[I_{i}=y_{i} {2}pi _{i}(1-pi _{i})}.

Cuando cada elemento de la muestra se infla por el inverso de su probabilidad de selección, se denomina el π π {displaystyle pi}-expandidos Sí. valores, es decir: Sí... i=Sí.iπ π i{fnMicrosoft} {fnMicrosoft}} {fnMicroc}} {y_{i}{i} {f}} {f}}} {f}} {f}}} {f}}} {f}}}} {f}}} {f}}}}} {f}}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {\\f}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ - Sí.. Una cantidad conexa p{displaystyle p}-expandidos Sí. valores: Sí.ipi=nSí... i{fnMicroc} {fn} {fn} {fn}} {fn}} {fn}} {fn}} {fn}} {fn}} {fn}}}} {fn}}} {fn}}}}}} {fn}}}}}} {fn}}}}}}} {n}}}}}} {n}}}}}}}}} {n}}} {m} {m} {m} {m} {m}} {m} {m} {m}}}}}}}}}}}}}}}}}}}}}}}} {m} {m} {m} {m} {m} {m} {m}} {m} {m} {m}}}}}}} {m} {m} {m} {m} {m}}}}}}} {m}}} { {y}_{i}. Como arriba, podemos añadir una marca de garrapata si se multiplica por la función indicadora. I.e.: Sí... i.=IiSí... i=IiSí.iπ π i{displaystyle {check {fnK} {fnK} {fnMicrosoft} {fnMicrosoft}} {f}}} {fn}} {fnK}}} {f}}}}}} {f}} {f}} {f}f}}}}}}}} {f} {f}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}} {f} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}} {f}}} {f}}}}} {f}} {f} {f} {f}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {y}_{i}={frac} {I_{i}y_{i}{i} {i}}} {i}}} {i}}}} {i}}}}} {i}}}}}}}} {i}}}}}}}}}}}} {i}}}}}}}}} {i}}}}}}}}}}}}}}} { - Sí.

En esto diseño perspectiva, los pesos, utilizados en el numerador de la media ponderada, se obtienen a partir de tomar el inverso de la probabilidad de selección (es decir, el factor de inflación). I.e.: wi=1π π i.. 1n× × pi{displaystyle ¿Qué? ¿Qué? {frac {1}{ntimes ¿Qué?.

Varianza de la suma ponderada (pwr-estimator para totales)

Si el tamaño de la población N se sabe que podemos estimar que la población significa usar Ȳ ̄ ^ ^ conocidoN=Y^ ^ pwrN.. .. i=1nwiSí.i.N{fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}f}f {f}f}f}fn\fnfnfnfnfnfnfnfnfnfnfnfnfn\fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfn\fnfnfnfnfnfn\\\\\fnfn\fnfn {Y}}_{text{}conocidos No. {fnK} {Y} {fn}} {fn}} {fn}} {fn}}} {fn}}} {fn}}} {fn}}} {fn}}}}} {fn}} {fn}}}} {fn}}}}}} {fn}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}} {f}}}}} {f}}}}}}}}}} {p}}}}}}}}}}} {f}}}} {f} {f}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {fnMicroc {fnMicroc} - Sí..

Si el diseño de muestreo es uno que da como resultado un tamaño de muestra fijo n (como en el muestreo pps), entonces la varianza de este estimador es:

Var⁡ ⁡ ()Ȳ ̄ ^ ^ conocidoN)=1N2nn− − 1.. i=1n()wiSí.i− − wSí.̄ ̄ )2{displaystyle operatorname {Var} left({hat {bar {Y}}_{text{}conocidos - Sí. {1} {fn} {fnK}} {fn}} {fn}}} {fn}}} {fn}}} {fn}}} {fn}} {fn}}} {fn}}} {fn}}} {f}}}}} {fn}} {f}}}} {f} {f}}}} {f}}}}} {fn}}}}}}}}}}}}}} {f} {f}} {f} {f} {fn}}}}}}}}}}}}}}}}}}}}}}}} {f} {f} {f} {f}} {f} {f} {f} {f} {f} {f}f}}}}}}}}f}}}}}}}}}}}}}}}}}}}}}}}} {n}{n-1}sum ¿Por qué?
Prueba

La fórmula general se puede desarrollar así:

Ȳ ̄ ^ ^ conocidoN=Y^ ^ pwrN=1n.. i=1nSí.i.piN.. .. i=1nSí.i.π π iN=.. i=1nwiSí.i.N.{fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {f}f}f {f}f}f}fn\fnfnfnfnfnfnfnfnfnfnfnfnfn\fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfn\fnfnfnfnfnfn\\\\\fnfn\fnfn {Y}}_{text{}conocidos No. {fnK} {fn} {fn} {fn}} {fn} {fn}} {fn}}} {fn}} {fn}}} {fn}} {fn} {fn}} {fn}}} {fn}} {f}}}} {fn}}} {f}}}} {f}}}}}}} {f}}}}} {f}}}} {f}}}}} {f}}}}}} {f} {f} {f} {f}}}}}}}}}}}}}} {f}}}}} {f} {f} {f} {f}} {f}}}}} {f}}}}}}f}} {f}}}}}} {f}}}}}}}}}}}}}}}}}}}}} {f}}}}} - ¿Qué? {cHFF} {cHFF}} {cH00}} {cH00}} {cH00}}}} {cH}}}}} {cH}}}} {cH}}}}}} {cH}}}}} {cH}}}}}}}} {cH}}}}}}}}}}}}}}}}}}}}}}} {c}}}}}}}}}}}}}}}} {c}}}}}}}}}} {c}}}}}}}}}}} {c}}}}}}}}}}}}}}}}} {c}}}}}}} {c}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {fnMicroc {fnMicroc} - ¿Qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} ¿Qué? {cHFF} Sí.

El total de la población se denota como Y=.. i=1NSí.i{displaystyle Y= ¿Qué? y puede ser estimado por el estimador de Horvitz-Thompson, también llamado el π π {displaystyle pi}- Estimador. Este estimador se puede calcular utilizando el pwr- Estimador (es decir: p{displaystyle p}-expandido con el estimador de reemplazo, o "probabilidad con el estimador de reemplazo". Con la notación anterior, es: Y^ ^ pwr=1n.. i=1nSí.i.pi=.. i=1nSí.i.npi.. .. i=1nSí.i.π π i=.. i=1nwiSí.i.{fnMicrosoft Sans Serif} {fnMicroc} {1}{n}sum} - ¿Qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} - ¿Qué? {y_{i} {fnp}}approx sum _{i=1} {n}{n}{frac {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} - Sí. - Sí..

La diferencia estimada pwr- La estimación es dada por:

Var⁡ ⁡ ()Y^ ^ pwr)=nn− − 1.. i=1n()wiSí.i− − wSí.̄ ̄ )2{displaystyle operatorname {Var} ({hat {Y}_{pwr}={frac} {n}{n-1}sum ¿Por qué?
Donde wSí.̄ ̄ =.. i=1nwiSí.in{displaystyle {fnMicrosoft}=sum} - ¿Qué? {fn} {fn}} {fn}} {fn}}} {fn}}}}}}} {cH}}}}}}}} {fn}}}}} {cH}}} {}}}}}}}}}} {}}}}}} {}}}}}}} {}}}}}}}} {}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}.

The above formula was taken from Sarndal et al. (1992) (also presented in Cochran 1977), but was written differently. El lado izquierdo es cómo se escribió la varianza y el lado derecho es cómo hemos desarrollado la versión ponderada:

Var⁡ ⁡ ()Y^ ^ pwr)=1n1n− − 1.. i=1n()Sí.ipi− − Y^ ^ pwr)2=1n1n− − 1.. i=1n()nnSí.ipi− − nn.. i=1nwiSí.i)2=1n1n− − 1.. i=1n()nSí.iπ π i− − n.. i=1nwiSí.in)2=n2n1n− − 1.. i=1n()wiSí.i− − wSí.̄ ̄ )2=nn− − 1.. i=1n()wiSí.i− − wSí.̄ ̄ )2{displaystyle {begin{aligned}operatorname [Var] ({hat {Y} {text{pwr}} {frac}{f} {fn} {fn} {fn} {fn}} {fn}} {fn}}} {fn}}} {fn}} {f}}} {fnKf} {f}}f}}}}}}}}}}} {f}f}}}}f}f}fnf}}}f}f}f}}}f}f} {fnfn}}}}}}f}}}f}f}fnfnfnfnfnfnfn}}}fnfnfnfnfnf}}}}fnfnfnfnfnfnfnfnf}}}}}}}}}}}} {1}{n-1}sum ¿Por qué? {y_{i} {f} {f}} {f}} {f}} {f}} {f} {f} {f}}} {f}} {f}}} {f} {f}}} {f}}} {f} {f}}}} {f}}}}}} {f}}}}}}} {f}}}}}}}}}}}}} {f}}}}}}}}} {f} {f} {f}}}} {f}}} {f}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} { {Y} {fnMicrosoft Sans Serif} {1}{n}{frac} {1}{n-1}sum ¿Por qué? {n}{n}{frac} {y_{i} {f} {f}} {fnMic}} {f}} {f}} {f}} {f}}} {f}} {fnMic}}}}} {fnf}} {f}}} {f}}}} {fnf}}}}}} {f}}}}}}}}f}}}}}}\\\\f}f}\f}f}f}f}f}f}f}f}f}fnf}f}f}f}f}f}f}fnfnfnfnfnfnf}fnf}fnfnfnf}fnfnfnfnfnfnf}fnf}fnfnf}}fn {n} {n}sum} ¿Por qué? {1}{n}{frac} {1}{n-1}sum ¿Por qué? {y_{i}{i} {f}} {f}}} {f}} {f}}} {f}}} {f}}}} {f}}} {f}}}}} {f}}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {\\f}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ - No. ¿Qué? {fn} {fn} {fn}} {fn}} {fn}} {fn}} {fn}}} {fn}}} {fn}}} {fn}}} {fn}}} {fn}} {fn}}}}} {fn}}} {fn}}}}}} {f}}}}}}}}f}}}}}}} {f} {f} {f}f}f}f}}}f}f}f}fn}fn}f}}f}f}fn}}}fnfn}}fn}fnfn}fnfn}}}fnfnfn}f}fnfn}fn}fnfn}fnfn}}}}}}}}}}fn} {1}{n-1}sum ################################################################################################################################################################################################################################################################ {n}{n-1}sum ¿Por qué?

Y llegamos a la fórmula de arriba.

Un término alternativo, para cuando el muestreo tiene un tamaño de muestra aleatorio (como en el muestreo de Poisson), se presenta en Sarndal et al. (1992) como:

Var⁡ ⁡ ()Ȳ ̄ ^ ^ pwr (conocidoN))=1N2.. i=1n.. j=1n()Δ Δ .. ijSí... iSí... j){displaystyle operatorname {Var} {hat {bar {Y}}_{text{pwr (known }}N{text{}}}}}}}}={frac {1}{N^{2}}}}sum}}} {f}} {f}}}}} {f}}} {f}}}}}}}}}}}}}} {f}}}}}}}}} {f} {f}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f} {f} {f} {f} {f} {f}} {f}}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Por qué? {Delta }_{ij}{check {fnK} {fnMicrosoft Sans Serif}

Con Sí... i=Sí.iπ π i{fnMicrosoft} {fnMicrosoft}} {fnMicroc}} {y_{i}{i} {f}} {f}}} {f}} {f}}} {f}}} {f}}}} {f}}} {f}}}}} {f}}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {\\f}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ - Sí.. También, C()Ii,Ij)=π π ij− − π π iπ π j=Δ Δ ij{displaystyle C(I_{i},I_{j})=pi ¿Por qué? Delta. Donde π π ij{displaystyle pi _{ij}} es la probabilidad de seleccionar tanto i como j. Y Δ Δ .. ij=1− − π π iπ π jπ π ij{displaystyle {check {Delta ¿Qué? ¿Qué? ¿Qué?, y para i=j: Δ Δ .. ii=1− − π π iπ π iπ π i=1− − π π i{displaystyle {check {Delta }_{ii}=1-{fnMic {pi}pi} ¿Qué? ♪ {}=1-pi ¿Qué?.

Si la probabilidad de selección no está relacionada (es decir: О О iل ل j:C()Ii,Ij)=0{displaystyle forall ineq j:C(I_{i},I_{j}=0}), y al asumir la probabilidad de cada elemento es muy pequeña, entonces:

Var⁡ ⁡ ()Ȳ ̄ ^ ^ pwr (conocidoN))=1N2.. i=1n()wiSí.i)2{displaystyle operatorname {Var} {hat {bar {Y}}_{text{pwr (known }}N{text{}}}}}}}}={frac {1}{N^{2}}}}sum}}} {f}} {f}}}}} {f}}} {f}}}}}}}}}}}}}} {f}}}}}}}}} {f} {f}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f} {f} {f} {f} {f} {f}} {f}}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Qué?
Prueba

Asumimos que ()1− − π π i).. 0{displaystyle (1-pi _{i})approx 0} y eso

Var⁡ ⁡ ()Y^ ^ pwr (conocidoN))=1N2.. i=1n.. j=1n()Δ Δ .. ijSí... iSí... j)=1N2.. i=1n()Δ Δ .. iiSí... iSí... i)=1N2.. i=1n()()1− − π π i)Sí.iπ π iSí.iπ π i)=1N2.. i=1n()wiSí.i)2{displaystyle {begin{aligned}operatorname [Var] ({hat {Y}}_{text{pwr (known }N{text{)}}}}} {frac}}}}={frac {1}{N^{2}}sum ¿Por qué? {Delta }_{ij}{check {fnMicrosoft Sans Serif} {1}{N^{2}}sum ¿Por qué? {Delta - Sí. {y}_{i}{y}_{i}right)\\fnMicroc {1}{N^{2}}sum ¿Por qué? {y_{i}{i} {f}} {f}}} {f}} {f}}} {f}}} {f}}}} {f}}} {f}}}}} {f}}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {\\f}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ ¿Qué? {y_{i}{i} {f}} {f}}} {f}} {f}}} {f}}} {f}}}} {f}}} {f}}}}} {f}}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {\\f}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ ¿Por qué? {1}{N^{2}}sum ¿Por qué?

Varianza de la media ponderada (π-estimador para razón-media)

En la sección anterior se trataba de la estimación de la población como proporción de un total estimado de población (en inglés)Y^ ^ {displaystyle {hat {}}}) con un tamaño de población conocido (N{displaystyle N}), y la diferencia se estimó en ese contexto. Otro caso común es que el tamaño de la población en sí (N{displaystyle N}) es desconocido y se calcula utilizando la muestra (es decir: N^ ^ {displaystyle {hat {N}}}). La estimación de N{displaystyle N} se puede describir como la suma de pesos. Así que cuando wi=1π π i{displaystyle w_{i}={frac {1}{pi} {} {}} {}{i}} {} {}{i}}} {}}} {}} {}}} {}}}}} {}}} {}}} {} {}{} {} {}{}{} {} {} {}}} {}} {}}}}{i} {} {}} {} {}}}}}} {} {} {}}}} {}}}}}}}}} {}{}{}}{}}} {}} {} {} {}} {} {} {} {}{} {} {}} {}}}}}}} {}}}}}}} {}}}}}}} {} {} {} {}{}}}}}} {} {}}}}}}} {} {}}}}}}}} {} {}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}} {}}}}}}} nosotros N^ ^ =.. i=1nwiIi=.. i=1nIiπ π i=.. i=1n1.. i.{displaystyle {hat {fn}=sum} ¿Qué? - ¿Qué? {I_{i}{i} {f}} {f}} {f}}} {f}}} {f}}} {f}}}}} {f}}} {f}}}}}}}}} {f}}}} {f}}}} {f}}}}}}}}}}} {p}}}}}}}}}}}}}}}}}}}}} {p} {p}}}}}}}}}}}}}}}}}} {p} {p}}}}}}}}} {p}}}}}}}}}}}}}}}} {p} {p} {p} {p}}}} {p}}}}}}}}}}}}} {p}}}}}}}}}}} {p}}}}}}}}}}}}}}}}}}}}}}}}}} { - Sí. - ¿Qué? {1}_{i}. Al utilizar notación de secciones anteriores, la proporción que nos importa es la suma de Sí.i{displaystyle Y...s, y 1s. I.e.: R=Ȳ ̄ =.. i=1NSí.iπ π i.. i=1N1π π i=.. i=1NSí... i.. i=1N1.. i=.. i=1NwiSí.i.. i=1Nwi{displaystyle R={bar {Y}={frac {fnK} {fnK} {fnK}}} {fnK}} {fn}} {fnK}} {fnK}}} {fnK}}} {f}}}}}} {fnf}fnKfnKf}}}}} {f}f}f}f}f}fnf}fnfnfnf}fnKf}f}f}f}fnKf}fnKfnfnf}f}fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfn ¿Por qué? {y_{i}{i} {f}} {f}}} {f}} {f}}} {f}}} {f}}}} {f}}} {f}}}}} {f}}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {\\f}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}} {fnK}}}} {fnMicrosoft}}} {f}}}} {f}}}}}} {f}}}}}}} {f}}}}}}}}}}}} {f}}}}}}}}} {f}}}}}}}}} {f}}}}}} {f}}}}}}}}}} {f}}}}}}}}}}}}}}}}}} {f}}}}}} {f}}}}} {f}}}} {f}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Por qué? {1}{pi} - Sí. {cHFF} - ¿Qué? {y} {fn} {fnK}} {fnK}}} {f}}} {fn}} {fn}}} {fn}}}}}} {fn}}}}}} {fn}}} {f}}}} {f}}}}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}} {f}}}}}}} {f}}}}}}}}}}} {f}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} { - ¿Qué? {fnK} {fnK}}= {fnK} {fnK}}} {fn}} {fn}} {fnK}}}} {fn}}}}}}} {fnfn}}}}}}} {fnf}}} {fnfnfnfnf}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\fn\\fnfn\\fnfn\\fnfnfnfnfnfnfnfn\fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfn ¿Qué? ¿Qué?. Podemos estimarlo usando nuestra muestra con: R^ ^ =Ȳ ̄ ^ ^ =.. i=1NIiSí.iπ π i.. i=1NIi1π π i=.. i=1NSí... i... i=1N1.. i.=.. i=1NwiSí.i... i=1Nwi1i.=.. i=1nwiSí.i... i=1nwi1i.=Sí.̄ ̄ w{displaystyle {hat {fnh}={hat {fnfnh} {fnh} {fnfn}} {fnfnfnfnfnfnfnfnfnfnfnf}}fnfnfnfnfnfnfnfnfnfnfnfnh}fnfnfnfnfnfnfnfnfnh00fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnh}fnfnh}}fnfnfnfnfnfnfnfnfnfnfnfnfnfnh}}}fn {Y}={frac {fnK}} {fnK} {fnK}}} {fnK}} {f}} {fnK}} {f}}}}}} {fnK}} {f}}} {fnK}}} {f}}}}}}}} {fnf}f}f}f}fnfnfnfnfnfnfnf}f}f}f}fnfnf}fnfnfnfnfnf}fnfnfnfnfnfnKfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfn ¿Qué? {y_{i}{i} {f}} {f}}} {f}} {f}}} {f}}} {f}}}} {f}}} {f}}}}} {f}}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}} {\\f}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}} {fnMicrosoft Sans Serif}} {fnK}}}} {fnMicrosoft}}} {f}}}} {f}}}}}} {f}}}}}}} {f}}}}}}}}}}}} {f}}}}}}}}} {f}}}}}}}}} {f}}}}}} {f}}}}}}}}}} {f}}}}}}}}}}}}}}}}}} {f}}}}}} {f}}}}} {f}}}} {f}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Qué? {1}{pi} {fnK}}= {fnMicroc {fnMicroc} - ¿Qué? {y} {fn} {fnK} {fnK}} {fnK}}} {fn}} {fn}} {fn}}} {fn}}} {fn}}} {fn}}}} {f}}}} {f}}}}}}} {f}}}}}}}} {f}}}}}}}}}}}}}}}}}}} {f} {f}}}}}}}} {f}}}}}}}}}}} {f}}}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}} {f}}}}} {f}}}}} {f}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}} - ¿Qué? {fnK} {fnK}} {fnK} {fnK}} {f}}} {f}}}} {fnfn}} {fnK}}} {fn}}}}}}}} {f}} {fnf}}} {fnfnf}}}}}} {f}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\\\\\\\\\\\\\\\\fn\\fn\\fn\\\fn\\fn\\fn}}\\\fn}fn}}}\\fnfn}}}}}}}} - Sí. {fnMicroc {fnK}}= {fnMicroc {fnK} - Sí. - ¿Qué? {y}_{w}. A medida que pasamos de utilizar N a utilizar n, realmente sabemos que todas las variables indicadoras obtienen 1, así que simplemente podríamos escribir: Sí.̄ ̄ w=.. i=1nwiSí.i.. i=1nwi{fnMicrosoft {fnMicrosoft} {fnMicroc {fnMicrosoft} {fnMicrosoft} {f} {fn}} {fnMicroc} {fnMicrosoft} {fnK}}} {fnK} {f}fnKf}f}}f}f}f}fnfnf}}fnfnfnfnfnf}fnfnfnfnfnfnfnfnfnfnfnf}}fnfnfnfnKfnKfnfnfnh}}}}fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnh}}}}}fn ¿Qué? ¿Qué?. Esta será la estimación para valores específicos de y y w, pero las propiedades estadísticas vienen cuando incluye la variable indicador Sí.̄ ̄ w=.. i=1nwiSí.i... i=1nwi1i.{fnMicrosoft {fnMicrosoft {fnMicroc} {fnMicrosoft} {fnK}} {f}fnK} {f}fnK} {fnMicroc {fnK}}} {fnfnK}f}}fnKf}f}fnf}f}fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnKfnfnKfnfnfnf}}}}}}}fnfnfnKfnfnKfnh}}}fnfnfnfnfnfnfnfnfnKfnfnfnfnfnfnfnh}}}}}}}}} - Sí. ¿Qué?.

Esto se llama estimador de razón y es aproximadamente imparcial para R.

En este caso, la variabilidad de la razón depende de la variabilidad de las variables aleatorias tanto en el numerador como en el denominador, así como de su correlación. Dado que no existe una forma analítica cerrada para calcular esta varianza, se utilizan varios métodos para la estimación aproximada. Principalmente linealización de primer orden de la serie de Taylor, asintótica y bootstrap/jackknife. El método de linealización de Taylor podría dar lugar a una subestimación de la varianza para tamaños de muestra pequeños en general, pero eso depende de la complejidad de la estadística. Para la media ponderada, se supone que la varianza aproximada es relativamente precisa incluso para tamaños de muestra medianos. Porque cuando el muestreo tiene un tamaño de muestra aleatorio (como en el muestreo de Poisson), es como sigue:

V()Sí.̄ ̄ w)^ ^ =1().. i=1nwi)2.. i=1nwi2()Sí.i− − Sí.̄ ̄ w)2{fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {f} {fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\\fnMicrosoft {\fnMicrosoft {\\\fnMicrosoft {fnMicrosoft {\fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\\fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fn {fnK}}= {fnK} {fnK} {fnK}} {fnK}} {fn}} {fnK} {f}}}} {fn} {fnK} {f}}}}}}}} {f} {f}}}} {f}} {f}}}}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}} {f} {f}}} {f} {f}}}} {f} {f} {f} {f} {f} {f} {f} {f} {f} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Qué? ¿Qué? {y}_{2}}.

Observamos que si π π i.. pin{displaystyle pi ################################################################################################################################################################################################################################################################ P_{i}n}, entonces ya sea usando wi=1π π i{displaystyle w_{i}={frac {1}{pi} {} {}} {}{i}} {} {}{i}}} {}}} {}} {}}} {}}}}} {}}} {}}} {} {}{} {} {}{}{} {} {} {}}} {}} {}}}}{i} {} {}} {} {}}}}}} {} {} {}}}} {}}}}}}}}} {}{}{}}{}}} {}} {} {} {}} {} {} {} {}{} {} {}} {}}}}}}} {}}}}}}} {}}}}}}} {} {} {} {}{}}}}}} {} {}}}}}}} {} {}}}}}}}} {} {}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}} {}}}}}}} o wi=1pi{displaystyle w_{i}={frac {1}{p_{i}}} daría el mismo estimador, ya que multiplicarse wi{displaystyle ¿Qué? por algún factor llevaría al mismo estimador. También significa que si escalamos la suma de pesos para ser iguales a un tamaño de población conocido-de-antes N, el cálculo de la varianza se vería igual. Cuando todos los pesos son iguales unos a otros, esta fórmula se reduce al calculador de varianza sin prejuicios estándar.

Prueba

La linealización de Taylor establece que para un estimador de relación general de dos sumas (R^ ^ =Y^ ^ Z^ ^ {displaystyle {hat {}={f} {f} {f} {f}} {f}} {f}}} {f}}} {f}}} {f}}}} {f}}} {f}}}} {f}}}}} {f}}}} {f}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {), se pueden ampliar alrededor del verdadero valor R, y dar:

R^ ^ =Y^ ^ Z^ ^ =.. i=1nwiSí.i... i=1nwizi... R+1Z.. i=1n()Sí.i.π π i− − Rzi.π π i){displaystyle {hat {}={frac} {fnK} {fnK} {fnK}} {fnK}} {fnK}}} {fn}} {fnK}}} {fnfnK}}} {fnf}}} {f}}}}} {f}}}}} {fnfnfnfnfnfnfnf}}}}fnfnfnfnfnf}}}}}fnfnfnf}}fnfnfnfnfnf}}}}}}}}}}}}fnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnfnf}}}}}}}}}}}}fn - Sí. ¿Qué? R+{frac {1}{Z}sum ¿Por qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} ¿Qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} - Sí.

Y la varianza puede ser aproximada por:

V()R^ ^ )^ ^ =1Z^ ^ 2.. i=1n.. j=1n()Δ Δ .. ijSí.i− − R^ ^ ziπ π iSí.j− − R^ ^ zjπ π j)=1Z^ ^ 2[V()Y^ ^ )^ ^ +R^ ^ V()Z^ ^ )^ ^ − − 2R^ ^ C^ ^ ()Y^ ^ ,Z^ ^ )]{displaystyle {widehat {f}}={f} {f}{f} {f} {f} {f}} {f}}} {f}}} {f}}} {f}}}} {f}}}} {f}}}}} {f}}}}}}} {f}}}}}} {f}}}}}} {f} {f} {f}}}}}}}} {f} {f} {f}}} {f}}}}}}} {f}}}} {f}}}}}}} {f}}}}}}} {f} {f} {f}}}}} {f}}}}}} {f}}}}}f}}} {f}}}} {f}}}}}}}} {f}}}}}}}}}}}}}}}}}}} {Z}} {2}}}sum} ¿Por qué? {Delta }_{ij}{frac {y_{i}-{hat {R}z_{i} {f}} {f}} ¿Qué? {y_{j}-{hat {R}z_{j}{pi}}right)={frac {1}{hat {Z}} {fn}}left {fnMicrosoft}} {fnMicrosoft}}}}left {f} {fnMicrosoft}}}}}}}}}}}}}}left {f}}}}left {f}}}}}left {m}}}}}}}}}}}left {left {m}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {left {left {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {left {left {left {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {fnK}}} {f} {f} {fn} {fn}}}}}2{hat {f}}} {f}}} {f}} {f}}} {f}}}}} {f}}} {f}}} {f}}}}} {f}}}}}}}}}}}}}}}}}}}}}} { {}{hat {} {hat {}}} {hat {hat {}}}}derecha]
.

El término C^ ^ ()Y^ ^ ,Z^ ^ ){displaystyle {hat {} {hat {}}} {hat {f}}}} {f}} {f}} {f}} {fn}}}}} {f}} {fnK}}}} {f}}}} {f}} es la covariancia estimada entre la suma estimada de Y y la suma estimada de Z. Dado que esta es la covariancia de dos sumas de variables aleatorias, incluiría muchas combinaciones de covariancias que dependerán de las variables indicadoras. Si la probabilidad de selección no está relacionada (es decir: О О iل ل j:Δ Δ ij=C()Ii,Ij)=0{displaystyle forall ineq j:Delta _{ij}=C(I_{i},I_{j})=0}), este término todavía incluiría una suma de n covarianzas para cada elemento i entre Sí.i.=IiSí.i{displaystyle Sí. y zi.=Iizi{displaystyle ¿Qué?. Esto ayuda a ilustrar que esta fórmula incorpora el efecto de correlación entre y z en la variabilidad de los estimadores de relación.

Cuando se define zi=1{displaystyle z_{i}=1} lo anterior se convierte en:

V()R^ ^ )^ ^ =V()Sí.̄ ̄ w)^ ^ =1N^ ^ 2.. i=1n.. j=1n()Δ Δ .. ijSí.i− − Sí.̄ ̄ wπ π iSí.j− − Sí.̄ ̄ wπ π j).{displaystyle {widehat {f}}={f}}={f}}={f}}= {f}}= {f}}}= {f}fnK} {fnK}} {fnK}}} {f}}}= {f}}fnKf}}}} {f}}}}}}}}}}}}}}} {f}}}} {f}}}}}}}}} {f}}}}}}}} {f}}}}}}}} {f}}}}}}}}}}}}}}} {f}}}}}}} {f}}}}} {f}}}}}}}}}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}} {f} {1}{hat {N} {fn} {fn}}} {fn}}}} {fn}}}}}}}}}}}}} {fn}}} {fn}}}}} {fn}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Por qué? {Delta }_{ij}{frac {y_{i}-{bar {cHFF} {cHFF} {cHFF}} {cHFF}} {cH}}} {cH}}} {cH}}}} {cH}}} {cH}}}} {cH}}}}} {cH}}}}} {cH}}}}} {c}}}}}}}} {c}}}}}}}}}}}} {c}}}}}}}}}} {c}}}}}}}}}} {c}}}}} {c}}}}}}}}}}}}}}}}} {c}}}}} {c}} {c} {c}}}}}} {c}}}} {c}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {c}}}} ¿Qué? {y_{j}-{bar {y}} {f} {f}}derecho).}

Si la probabilidad de selección no está relacionada (es decir: О О iل ل j:Δ Δ ij=C()Ii,Ij)=0{displaystyle forall ineq j:Delta _{ij}=C(I_{i},I_{j})=0}), y al asumir la probabilidad de cada elemento es muy pequeña (es decir: ()1− − π π i).. 0{displaystyle (1-pi _{i})approx 0}), entonces el anterior se redujo a lo siguiente:

V()Sí.̄ ̄ w)^ ^ =1N^ ^ 2.. i=1n()()1− − π π i)Sí.i− − Sí.̄ ̄ wπ π i)2=1().. i=1nwi)2.. i=1nwi2()Sí.i− − Sí.̄ ̄ w)2.{fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {f} {fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {\\fnMicrosoft {\fnMicrosoft {\\\fnMicrosoft {fnMicrosoft {\fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\\fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {fnMicrosoft {\fn {y}_{y}}}={frac} {1}{hat {N} {fn} {fn}}} {fn}}}} {fn}}}}}}}}}}}}} {fn}}} {fn}}}}} {fn}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} ¿Por qué? {y_{i}-{bar {cHFF} {cHFF} {cHFF}} {cHFF}} {cH}}} {cH}}} {cH}}}} {cH}}} {cH}}}} {cH}}}}} {cH}}}}} {cH}}}}} {c}}}}}}}} {c}}}}}}}}}}}} {c}}}}}}}}}} {c}}}}}}}}}} {c}}}}} {c}}}}}}}}}}}}}}}}} {c}}}}} {c}} {c} {c}}}}}} {c}}}} {c}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {c}}}} ¿Por qué? {1}{(sum ¿Qué? ¿Qué?

Una re-creación similar de la prueba (hasta algunos errores al final) fue proporcionada por Thomas Lumley en cruzada.

Tenemos (al menos) dos versiones de varianza para la media ponderada: una con una estimación del tamaño de la población conocida y otra con una estimación del tamaño de la población desconocida. No existe un enfoque uniformemente mejor, pero la literatura presenta varios argumentos para preferir usar la versión de estimación de población (incluso cuando se conoce el tamaño de la población). Por ejemplo: si todos los valores de y son constantes, el estimador con tamaño de población desconocido dará el resultado correcto, mientras que el de tamaño de población conocido tendrá cierta variabilidad. Además, cuando el tamaño de la muestra en sí es aleatorio (por ejemplo, en el muestreo de Poisson), la versión con media poblacional desconocida se considera más estable. Por último, si la proporción de muestreo está negativamente correlacionada con los valores (es decir, menor probabilidad de muestrear una observación que es grande), entonces la versión de tamaño de población desconocido lo compensa ligeramente.

Validación de arranque

Se ha demostrado, por Gatz et al. (1995), que en comparación con los métodos de arranque, la siguiente (estimación de la varianza de la media de la relación utilizando la linealización de la serie de Taylor) es una estimación razonable del cuadrado del error estándar de la media (cuando se utiliza en el contexto de la medición de constituyentes químicos):

σ σ x̄ ̄ w2^ ^ =n()n− − 1)()nw̄ ̄ )2[.. ()wixi− − w̄ ̄ x̄ ̄ w)2− − 2x̄ ̄ w.. ()wi− − w̄ ̄ )()wixi− − w̄ ̄ x̄ ̄ w)+x̄ ̄ w2.. ()wi− − w̄ ̄ )2]{displaystyle {widehat {sigma ¿Qué? {fn} {fn} {fn} {fn} {fnfn}}} {fn}}} {fn}}} {fn} {fn} {fn} {fn} {fn}}}} {fn}}}}}}}}}}}m} {b} {fn} {fn} {fn} {fn} {fn}fn} {fn}b}fn}f}fn}}}f} {fn}fn}fn}fn}}}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}b} {b} {b}}}b} {b}}}}}}}}}}}}b} {b}}b}}}}}}}}}}}}}}}}}} {x}}_{2}-2{bar {fnh} {fn} {fn} {fn}} {fnfn} {fn} {fn}} {fn}} {fn}} {fn}}}} {fnfn}} {fn}}}} {f}}}}}}}} {b}}} {f}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {b}}}}} {b}}}} {b}}}} {b} {b}}}}} {b}}}}}}}}} {b} {b}} {b}}}}}}}}}}}}}}}}}}}}}}} {f}}}} {b}} {b}}}}}}}}}}}}}} {b}}} {b}}} {x}_{w})+{bar {fnMicrosoft Sans Serif}

Donde w̄ ̄ =.. win{displaystyle {bar}={frac} {cHFF} {fn}} {fn}}. Más simplificación conduce a

σ σ x̄ ̄ 2^ ^ =n()n− − 1)()nw̄ ̄ )2.. wi2()xi− − x̄ ̄ w)2{displaystyle {widehat {sigma _{bar {x}} {fn} {fn} {fn1} {fnfn}}}}}sum} {fn} {fn0}} {fn0}}} {fn0}}}}}}}}}}}}}}}}} {fn0}}} {fn0}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {s}}}}}}}}}}}}}}}}}}}}}}} {s}}}}}}}}}}}}}}}}}}} {s}}}}}}}}}}}}}}}}}} { ¿Qué? {x}_{w}} {2}}

Gatz et al. mencionar que la formulación anterior fue publicada por Endlich et al. (1988) al tratar la media ponderada como una combinación de un estimador total ponderado dividido por un estimador del tamaño de la población, con base en la formulación publicada por Cochran (1977), como una aproximación a la media de la razón. Sin embargo, Endlich et al. no pareció publicar esta derivación en su artículo (aunque mencionan que la usaron), y el libro de Cochran incluye una formulación ligeramente diferente. Aún así, es casi idéntica a las formulaciones descritas en las secciones anteriores.

Estimadores basados en replicación

Debido a que no existe una forma analítica cerrada para la varianza de la media ponderada, en la literatura se propuso confiar en métodos de replicación como Jackknife y Bootstrapping.

Otras notas

Para observaciones no relacionadas con diferencias σ σ i2{displaystyle sigma _{i}{2}, la diferencia de la media de la muestra ponderada es

σ σ x̄ ̄ 2=.. i=1nwi.2σ σ i2{displaystyle sigma _{bar {x}} {2}==== ################################################################################################################################################################################################################################################################ ¿Qué?

cuya raíz cuadrada σ σ x̄ ̄ {displaystyle sigma _{bar {x}} se puede llamar error estándar de la media ponderada (caso general).

En consecuencia, si todas las observaciones tienen igual diferencia, σ σ i2=σ σ 02{displaystyle sigma ¿Qué? ¿Qué?, el medio de muestra ponderada tendrá varianza

σ σ x̄ ̄ 2=σ σ 02.. i=1nwi.2,{displaystyle sigma _{bar {x}{2}=sigma ¿Qué? ¿Qué?

Donde 1/n≤ ≤ .. i=1nwi.2≤ ≤ 1{textstyle 1/nleq sum ¿Qué? 1}. La diferencia alcanza su valor máximo, σ σ 02{displaystyle sigma _{0}{2}, cuando todos los pesos excepto uno son cero. Su valor mínimo se encuentra cuando todos los pesos son iguales (es decir, medios no ponderados), en cuyo caso tenemos σ σ x̄ ̄ =σ σ 0/n{textstyle sigma _{bar {x}=sigma ¿Qué?, es decir, se degenera en el error estándar del medio, cuadrado.

Tenga en cuenta que como uno siempre puede transformar pesos no normalizados a pesos normalizados toda fórmula en esta sección puede adaptarse a pesos no normalizados reemplazando todos wi.=wi.. i=1nwi{displaystyle ¿Qué? {fnK} {fnMicrosoft} {fnK}} {fnMicrosoft}} {fnMicrosoft}} {fnK}}} {fnK}}} {fnK}} {fnK}} {f}}} {f}}}} {fnKf}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}} {f}}}}}}}}}}}} {f}}}} {f}}}}}}}}}}}}}}}}}} {f}}}}}}}} {f}}} {f}}}}}}}}}}} {b}}}} {f}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} { ¿Qué?.

Conceptos relacionados

Varianza muestral ponderada

Típicamente cuando se calcula un medio es importante saber la varianza y la desviación estándar sobre ese medio. Cuando una media ponderada μ μ Alternativa Alternativa {displaystyle mu ^{*} se utiliza, la varianza de la muestra ponderada es diferente de la varianza de la muestra no ponderada.

El parcial Variación de muestra ponderada σ σ ^ ^ w2{displaystyle {hat {sigma} }_{mathrm {w} {2} se define de forma similar a la normalidad parcial Variación de la muestra σ σ ^ ^ 2{displaystyle {hat {sigma} } {2}:

σ σ ^ ^ 2=.. i=1N()xi− − μ μ )2Nσ σ ^ ^ w2=.. i=1Nwi()xi− − μ μ Alternativa Alternativa )2.. i=1Nwi{displaystyle {begin{aligned}{hat {sigma}}{2} {frac {sum limits ################################################################################################################################################################################################################################################################ }_{mathrm {w} }{2} {frac {sum limits ¿Por qué? - ¿Qué?

Donde .. i=1Nwi=1{displaystyle sum ¿Qué? para pesos normalizados. Si los pesos son pesos de frecuencia (y por lo tanto son variables aleatorias), se puede demostrar que σ σ ^ ^ w2{displaystyle {hat {sigma} }_{mathrm {w} {2} es el estimador de probabilidad máxima σ σ 2{displaystyle sigma ^{2} iid observaciones gausianas.

Para muestras pequeñas, se acostumbra usar un estimador insesgado para la varianza de la población. En muestras normales no ponderadas, el N en el denominador (correspondiente al tamaño de la muestra) se cambia a N − 1 (consulte la corrección de Bessel). En la configuración ponderada, en realidad hay dos estimadores insesgados diferentes, uno para el caso de pesos de frecuencia y otro para el caso de pesos de confiabilidad.

Pesos de frecuencia

Si los pesos son pesos de frecuencia (donde un peso es igual al número de ocurrencias), entonces el estimador insesgado es:

s2=.. i=1Nwi()xi− − μ μ Alternativa Alternativa )2.. i=1Nwi− − 1{displaystyle s^{2} ={frac} {sum limits ¿Por qué? ¿Qué?

Esto aplica efectivamente la corrección de Bessel para ponderaciones de frecuencia.

Por ejemplo, si los valores {}2,2,4,5,5,5}{displaystyle ¿Qué? son extraídos de la misma distribución, entonces podemos tratar este conjunto como una muestra no ponderada, o podemos tratarlo como la muestra ponderada {}2,4,5}{displaystyle {2,4,5}} con pesos correspondientes {}2,1,3}{displaystyle {2,1,3}}Y tenemos el mismo resultado de cualquier manera.

Si el peso de la frecuencia {}wi}{displaystyle {f}} se normaliza a 1, entonces la expresión correcta después de que la corrección de Bessel se convierte

s2=.. i=1Nwi.. i=1Nwi− − 1.. i=1Nwi()xi− − μ μ Alternativa Alternativa )2{displaystyle s^{2} ={frac {be0} ¿Qué? - ¿Qué? ¿Por qué?

donde el número total de muestras es .. i=1Nwi{displaystyle sum ¿Qué? (no N{displaystyle N}). En todo caso, la información sobre el número total de muestras es necesaria para obtener una corrección imparcial, incluso si wi{displaystyle ¿Qué? tiene un significado diferente aparte del peso de frecuencia.

Tenga en cuenta que el estimador puede ser imparcial solo si los pesos no están estandarizados ni normalizados, estos procesos cambian la media y la varianza de los datos y, por lo tanto, conducen a una pérdida de la tasa base (el recuento de población, que es un requisito para la corrección de Bessel).

Pesos de confiabilidad

Si los pesos son en su lugar no aleatorios (pesos de fiabilidad), podemos determinar un factor de corrección para producir un estimador imparcial. Asumiendo que cada variable aleatoria se muestre de la misma distribución con media μ μ {displaystyle mu } y diferencia real σ σ efectivos2{displaystyle sigma _{actual} {2}}, teniendo expectativas que tenemos,

E⁡ ⁡ [σ σ ^ ^ 2]=.. i=1NE⁡ ⁡ [()xi− − μ μ )2]N=E⁡ ⁡ [()X− − E⁡ ⁡ [X])2]− − 1NE⁡ ⁡ [()X− − E⁡ ⁡ [X])2]=()N− − 1N)σ σ efectivos2E⁡ ⁡ [σ σ ^ ^ w2]=.. i=1NwiE⁡ ⁡ [()xi− − μ μ Alternativa Alternativa )2]V1=E⁡ ⁡ [()X− − E⁡ ⁡ [X])2]− − V2V12E⁡ ⁡ [()X− − E⁡ ⁡ [X])2]=()1− − V2V12)σ σ efectivos2{displaystyle {begin{aligned}operatorname {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} ################################################################################################################################################################################################################################################################ {E} {fn}\\\fn}\\fn}\\\\fnMicrosoft Sans Serif} [E] [(X-operatorname {E} [X])^{2}-{ frac {1}{N}fn} {E} [X-operatorname {E} [X])^{2}\\fnMicroc {N-1}{N}right)sigma _{text{actual} {2}\\\\\\fnMicrosoft Sans Serif} [{hat {sigma} {fnMicrosoft Sans Serif} ################################################################################################################################################################################################################################################################ {E} {f}}\\\fnh}\\fnh}\\\\\\\cH00}}\\\\\\fnK}\\\\\\cH00}\\cH00}\cH00}}\\cH00}}\\\\\\\cH00}\\\cH00}cH00}cH00}cH00}\\cH00}\cH00}}}\\\\\\\\\\\\cH00}\\cH00}cH00}cH00}cH00}cH00}cH00}cH00}\\cH00}\cH00}}}\\\ [X-operatorname {E} [X])^{2}-{frac [V_{2} {V_{1} {2}} [E] [(X-operatorname {E} [X])^{2}\fnMicroc {V_{2} {V_{1}}derecha)sigma ################################################################################################################################################################################################################################################################

Donde V1=.. i=1Nwi{displaystyle V_{1}=sum ¿Qué? y V2=.. i=1Nwi2{displaystyle V_{2}=sum ¿Qué?. Por lo tanto, el sesgo en nuestro estimador es ()1− − V2V12){displaystyle left(1-{frac [V_{2} {V_{1}}derecha], análogo al ()N− − 1N){displaystyle left({frac {N-1} {N}right)} sesgo en el estimador sin peso (también notar que V12/V2=Neff{displaystyle ~ V_{1} {2}/V_{2}=N_{eff} es el tamaño de muestra eficaz). Esto significa que para imparciales nuestro estimador necesitamos pre-divider por 1− − ()V2/V12){displaystyle 1-left(V_{2}/V_{1}{2}right)}, asegurando que el valor esperado de la diferencia estimada sea igual a la diferencia real de la distribución de muestreo.

La estimación imparcial final de la varianza de la muestra es:

sw2=σ σ ^ ^ w21− − ()V2/V12)=.. i=1Nwi()xi− − μ μ Alternativa Alternativa )2V1− − ()V2/V1),{fnMicroc {fnK} {fnK}f}\fnfnfn} {fnf} {fnf}fnf}fnfnfnfnfnf}fnfnf}fnfnfnfnfnfnfnfnfnK}fnfnK}fnfnfnfnK}fnfnfnfnK}fnfnfnfnfnfnfnfnfnfnfnfnKfnKfnKfnfnK}fnK}fnKfnfnKfnKfnfnKfnfnfnfnfnKfnfnK}}}fnK }_{mathrm {w} {2}}{1-(V_{2}/V_{1}}[4pt] {sum limits - ¿Por qué?

Donde E⁡ ⁡ [sw2]=σ σ efectivos2{displaystyle operatorname {E} {fn}=sigma _{text{actual}}} {2}}}}}}.

Los grados de libertad de la varianza de la muestra ponderada e imparcial varían en consecuencia desde N − 1 hasta 0.

La desviación estándar es simplemente la raíz cuadrada de la varianza anterior.

Como nota al margen, se han descrito otros enfoques para calcular la varianza de la muestra ponderada.

Covarianza de muestra ponderada

En una muestra ponderada, cada vector de fila xi{displaystyle mathbf {x} _{i} (Cada conjunto de observaciones individuales sobre cada una de las K variables aleatorias) se asigna un peso wi≥ ≥ 0{displaystyle w_{i}gq 0}.

Entonces el vector de peso medio μ μ Alternativa Alternativa {displaystyle mathbf {mu }} es dado por

μ μ Alternativa Alternativa =.. i=1Nwixi.. i=1Nwi.{displaystyle mathbf {mu ^{*} ={frac {sum ¿Qué? {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fn} {fnMicrosoft}} {fnMicrosoft Sans Serif} {fnMicrosoft}} {fnK} {f}}} {fnMicrosoft}}} {f}}} {f}}}}}} {f}}}}}}}} {f}}}}}}}} {f}}}}}}} {f}}}}} {f} {f}}}}}}}}}}}}} {f}}}}}}}} {f} {f}} {f}}} {f}}}}}} {f}}}}}f}}}}}f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} - Sí.

Y la matriz de covarianza ponderada viene dada por:

C=.. i=1Nwi()xi− − μ μ Alternativa Alternativa )T()xi− − μ μ Alternativa Alternativa )V1.{displaystyle mathbf {C} = {frac {fnMicroc} ¿Por qué?

Al igual que la varianza de la muestra ponderada, existen dos estimadores imparciales diferentes según el tipo de ponderación.

Pesos de frecuencia

Si los pesos son pesos de frecuencia, el imparciales estimación ponderada de la matriz de covariancia C{displaystyle textstyle mathbf {C}, con la corrección de Bessel, se da por:

C=.. i=1Nwi()xi− − μ μ Alternativa Alternativa )T()xi− − μ μ Alternativa Alternativa )V1− − 1.{displaystyle mathbf {C} = {frac {fnMicroc} ¿Por qué?

Tenga en cuenta que este estimador puede ser imparcial solo si los pesos no están estandarizados ni normalizados, estos procesos cambian la media y la varianza de los datos y, por lo tanto, conducen a una pérdida de la tasa base (el recuento de población, que es un requisito para la corrección de Bessel).

Pesos de confiabilidad

En el caso de pesos de confiabilidad, los pesos se normalizan:

V1=.. i=1Nwi=1.{displaystyle V_{1}=sum - Sí.

(Si no lo son, dividir los pesos por su suma para normalizar antes de calcular V1{displaystyle V_{1}:

wi.=wi.. i=1Nwi{displaystyle ¿Qué? {fnK} {fnMicrosoft} {fnK}} {fnMicrosoft}} {fnMicrosoft}} {fnK}}} {fnK}}} {fnK}} {fnK}} {f}}} {f}}}} {fnKf}}}}}} {f}}}} {f}}}}}}}}}}} {f}}}}}}}}} {f}}}}}}}}}}}} {f}}}} {f}}}}}}}}}}}}}}}}}} {f}}}}}}}} {f}}} {f}}}}}}}}}}} {b}}}} {f}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} { ¿Qué?

Entonces el vector de peso medio μ μ Alternativa Alternativa {displaystyle mathbf {mu }} se puede simplificar

μ μ Alternativa Alternativa =.. i=1Nwixi.{displaystyle mathbf {mu ^{*} = ¿Qué? {x} _{i}.}

y el imparciales estimación ponderada de la matriz de covariancia C{displaystyle mathbf {C} es:

C=.. i=1Nwi().. i=1Nwi)2− − .. i=1Nwi2.. i=1Nwi()xi− − μ μ Alternativa Alternativa )T()xi− − μ μ Alternativa Alternativa )=.. i=1Nwi()xi− − μ μ Alternativa Alternativa )T()xi− − μ μ Alternativa Alternativa )V1− − ()V2/V1).{displaystyle {begin{aligned}mathbf {C} {fnMicroc {fnMicroc} {fnMicroc} {fnMicroc} {f}} {fnMicroc} {fnMicroc} {fnK} {fnK} {f}} {fnMicroc} {fnMicroc}}} {f}}}}f} {f}f}f}f}f}f}fnKfnKf}f}f}f}f}f}fnKf}fnKf}f}f}f}f}f}f}fnKfnKfnKf}fnKfnKf}f}f}fnKf}f}f}fnKf}fnKf}fnKf}f}f}f}fnK ¿Por qué? ¿Por qué? ¿Qué? ¿Por qué? - ¿Por qué? {x} _{i}-mu ^{*}right)}{T}left(mathbf {x} _{i}-mu ^{*}right)}{V_{1}-(V_{2}/V_{1}}}}}end{aligned}}}}}}}}}}}

El razonamiento aquí es el mismo que en la sección anterior.

Puesto que estamos asumiendo que los pesos están normalizados, entonces V1=1{displaystyle V_{1}=1} y esto reduce a:

C=.. i=1Nwi()xi− − μ μ Alternativa Alternativa )T()xi− − μ μ Alternativa Alternativa )1− − V2.{displaystyle mathbf {C} = {frac {fnMicroc} ¿Por qué?

Si todos los pesos son iguales, es decir. wi/V1=1/N{displaystyle ¿Qué?, entonces la media ponderada y la covariancia reducen a la media de muestra no ponderada y la covariancia arriba.

Estimaciones con valores vectoriales

Lo anterior generaliza fácilmente el caso de tomar la media de estimaciones valoradas por vectores. Por ejemplo, las estimaciones de posición en un plano pueden tener menos certeza en una dirección que en otra. Como en el caso de escalar, la media ponderada de múltiples estimaciones puede proporcionar una estimación de probabilidad máxima. Simplemente reemplazamos la diferencia σ σ 2{displaystyle sigma ^{2} por la matriz de covariancia C{displaystyle mathbf {C} y la inversa aritmética por la matriz inversa (ambos denotados de la misma manera, a través de superscriptos); la matriz de peso entonces lee:

Wi=Ci− − 1.{displaystyle mathbf {W} _{i}=mathbf {C} _{i} {-1}

La media ponderada en este caso es:

x̄ ̄ =Cx̄ ̄ ().. i=1nWixi),{displaystyle {bar {Mathbf {x} }=Mathbf {C} _{bar {mathbf {x}. ¿Qué? ¿Qué?
Cx̄ ̄ =().. i=1nWi)− − 1,{displaystyle mathbf {C} _{bar {mathbf {x} }=left(sum) ¿Qué? ¿Qué?

Por ejemplo, considere la media ponderada del punto [1 0] con alta varianza en el segundo componente y [0 1] con alta varianza en el primer componente. Después

x1:=[10]⊤ ⊤ ,C1:=[100100]{displaystyle mathbf {x} {1}:={begin{bmatrix}1⁄0end{bmatrix}}{top }qquad mathbf {C} _{1}:={begin{bmatrix}1 {0}}}
x2:=[01]⊤ ⊤ ,C2:=[100001]{displaystyle mathbf {x} {2}:={begin{bmatrix}0 tarde1end{bmatrix}}{top }qquad mathbf {C} _{2}:={begin{bmatrix}100 correspond0 âTMa {bmatrix}}

entonces la media ponderada es:

x̄ ̄ =()C1− − 1+C2− − 1)− − 1()C1− − 1x1+C2− − 1x2)=[0.9901000.9901][11]=[0.99010.9901]{displaystyle {begin{aligned}{bar {mathbf {x} ♪♪♪♪♪ {C} {cH00}cH00}cH00} {C} _{2} {-1}derecha)}left(mathbf {C} _{1}mathbf {x} _{1}+mathbf {C} _{2}{-1}mathbf {x} _{2}right)[5pt] limit={begin{bmatrix}0.9901}0.9901end{bmatrix}{0} {0trix} {0} {0} {0}btrix} {0} {0} {0} {btrix}}}}} {} {btrix}}}{0}{0}=0}{0}trix}{0}=0}{0} {btrix}{0}{0}{0}=0}=0}=0}=0}=0}{0} {btrix}{0}{0} {btrix}{0}{0}=}=0}=0}=0} {btrix}=0}{0}=0}=0}=0}=0}}=0}==}=0}{0} {btrix} {btrix} {b

lo cual tiene sentido: la estimación [1 0] es "conforme" en el segundo componente y la estimación [0 1] cumple con el primer componente, por lo que la media ponderada es casi [1 1].

Contabilización de correlaciones

En el caso general, suponga que X=[x1,...... ,xn]T{displaystyle mathbf {X} =[x_{1},dotsx_{n} {T}, C{displaystyle mathbf {C} es la matriz de covariancia relativa a las cantidades xi{displaystyle x_{i}}, x̄ ̄ {displaystyle {bar {x}} es el medio común para ser estimado, y J{displaystyle mathbf {J} es una matriz de diseño igual a un vector de uno [1,...... ,1]T{displaystyle [1,dots1] (de longitud) n{displaystyle n}). El teorema Gauss-Markov establece que la estimación de la media que tiene la varianza mínima es dada por:

σ σ x̄ ̄ 2=()JTWJ)− − 1,{displaystyle sigma _{bar {x}}{2}=(mathbf {J} ^{T}mathbf {W}mathbf {J})} {1}

y

x̄ ̄ =σ σ x̄ ̄ 2()JTWX),{displaystyle {bar {x}=sigma _{bar {x}{2}(mathbf {J} }mathbf {W}mathbf {X})}

donde:

W=C− − 1.{displaystyle mathbf {W} =mathbf {C} ^{-1}

Disminución de la fuerza de las interacciones

Considere la serie de tiempo de una variable independiente x{displaystyle x} y una variable dependiente Sí.{displaystyle y}, con n{displaystyle n} observaciones muestreadas en tiempos discretos ti{displaystyle T_{i}. En muchas situaciones comunes, el valor Sí.{displaystyle y} a la vez ti{displaystyle T_{i} depende no sólo de xi{displaystyle x_{i}} pero también en sus valores anteriores. Comúnmente, la fuerza de esta dependencia disminuye a medida que aumenta la separación de las observaciones en el tiempo. Para modelar esta situación, se puede reemplazar la variable independiente por su media deslizante z{displaystyle z} para un tamaño de ventana m{displaystyle m}.

zk=.. i=1mwixk+1− − i.{displaystyle z_{k}=sum ¿Qué?

Pesos exponencialmente decrecientes

En el escenario descrito en la sección anterior, con más frecuencia la disminución de la fuerza de interacción obedece a una ley exponencial negativa. Si las observaciones se muestran en tiempos equidistas, entonces la disminución exponencial es equivalente a la disminución por una fracción constante <math alttext="{displaystyle 0<Delta 0.Δ Δ .1{displaystyle 0 realizadasDelta<img alt="0<Delta a cada paso del tiempo. Ajuste w=1− − Δ Δ {displaystyle w=1-Delta } podemos definir m{displaystyle m} pesos normalizados por

wi=wi− − 1V1,{displaystyle w_{i}={frac {w^{i-1} {V_{1}}}}}

Donde V1{displaystyle V_{1} es la suma de los pesos no normalizados. En este caso V1{displaystyle V_{1} es simplemente

V1=.. i=1mwi− − 1=1− − wm1− − w,{displaystyle V_{1}=sum ¿Qué? {1-w^{m}{1-w},}

acercamiento V1=1/()1− − w){displaystyle V_{1}=1/(1-w)} para grandes valores m{displaystyle m}.

La constante de humedad w{displaystyle w} debe corresponder a la disminución real de la fuerza de interacción. Si esto no puede ser determinado por consideraciones teóricas, entonces las siguientes propiedades de la disminución exponencial de pesos son útiles para hacer una elección adecuada: a paso ()1− − w)− − 1{displaystyle (1-w)^{-1}, el peso aproximadamente igual e− − 1()1− − w)=0.39()1− − w){displaystyle {e^{-1}(1-w)=0.39(1-w)}, el área de la cola el valor e− − 1{displaystyle e^{-1}, el área principal 1− − e− − 1=0.61{displaystyle {1-e^{-1}=0.61}. El área de cola a paso n{displaystyle n} es ≤ ≤ e− − n()1− − w){displaystyle leq {e^{-n(1-w)}}. Donde principalmente el más cercano n{displaystyle n} observaciones materia y el efecto de las observaciones restantes puede ser ignorado con seguridad, luego elegir w{displaystyle w} tal que el área de cola es suficientemente pequeña.

Promedios ponderados de funciones

El concepto de promedio ponderado se puede extender a las funciones. Los promedios ponderados de funciones juegan un papel importante en los sistemas de cálculo diferencial e integral ponderados.

Corregir la dispersión excesiva o insuficiente

Los medios ponderados se utilizan típicamente para encontrar el medio ponderado de datos históricos, en lugar de generar datos teóricamente. En este caso, habrá algún error en la varianza de cada punto de datos. Los errores típicamente experimentales pueden subestimarse debido a que el experimentador no tiene en cuenta todas las fuentes de error al calcular la diferencia de cada punto de datos. En este caso, la varianza de la media ponderada debe ser corregida para tener en cuenta el hecho de que χ χ 2{displaystyle chi ^{2} es demasiado grande. La corrección que debe hacerse es

σ σ ^ ^ x̄ ̄ 2=σ σ x̄ ̄ 2χ χ .. 2{displaystyle {hat {sigma} ♪♪♪ {x}{2}=sigma _{bar {x}}chi _{nu } {2}}}}}

Donde χ χ .. 2{displaystyle chi _{2}} es el reducido chi-squared:

χ χ .. 2=1()n− − 1).. i=1n()xi− − x̄ ̄ )2σ σ i2;{displaystyle chi _{nu }{2}={frac {1}{(n-1)}sum ¿Por qué? - ¿Qué?

La raíz cuadrada σ σ ^ ^ x̄ ̄ {displaystyle {hat {sigma} } {bar {x}} se puede llamar error estándar de la media ponderada (pesos de variación, escala corregida).

Cuando todas las diferencias de datos son iguales, σ σ i=σ σ 0{displaystyle sigma ¿Qué? ¿Qué?, cancelan en la varianza media ponderada, σ σ x̄ ̄ 2{displaystyle sigma _{bar {x}}{2}, que de nuevo reduce al error estándar de la media (squared), σ σ x̄ ̄ 2=σ σ 2/n{displaystyle sigma _{bar {x}{2}=sigma ^{2}/n}, formulado en términos de la desviación estándar de la muestra (cuadrado),

σ σ 2=.. i=1n()xi− − x̄ ̄ )2n− − 1.{displaystyle sigma ^{2}={frac {sum ¿Qué? {x})} {2} {n-1}}

Contenido relacionado

Función recursiva general

Mapeo de contracción

Función continua

Más resultados...
Tamaño del texto: