Ruido gaussiano blanco aditivo

Compartir Imprimir Citar
Modelo básico de ruido utilizado en la teoría de la información

Ruido gaussiano blanco aditivo (AWGN) es un modelo de ruido básico utilizado en la teoría de la información para imitar el efecto de muchos procesos aleatorios que ocurren en la naturaleza. Los modificadores denotan características específicas:

El ruido de banda ancha proviene de muchas fuentes naturales de ruido, como las vibraciones térmicas de los átomos en los conductores (denominado ruido térmico o ruido de Johnson-Nyquist), ruido de disparo, radiación de cuerpo negro de la tierra y otros objetos calientes, y de fuentes celestes como el Sol. El teorema del límite central de la teoría de la probabilidad indica que la suma de muchos procesos aleatorios tenderá a tener una distribución llamada Gaussiana o Normal.

AWGN se usa a menudo como un modelo de canal en el que el único impedimento para la comunicación es una adición lineal de banda ancha o ruido blanco con una densidad espectral constante (expresada como vatios por hercio de ancho de banda) y una distribución de amplitud gaussiana. El modelo no tiene en cuenta el desvanecimiento, la selectividad de frecuencia, la interferencia, la no linealidad o la dispersión. Sin embargo, produce modelos matemáticos simples y manejables que son útiles para comprender mejor el comportamiento subyacente de un sistema antes de considerar estos otros fenómenos.

El canal AWGN es un buen modelo para muchos enlaces de comunicación por satélite y en el espacio profundo. No es un buen modelo para la mayoría de los enlaces terrestres debido a los trayectos múltiples, el bloqueo del terreno, la interferencia, etc. Sin embargo, para el modelado de trayectos terrestres, AWGN se usa comúnmente para simular el ruido de fondo del canal en estudio, además del trayecto múltiple, el bloqueo del terreno, interferencias, ecos parásitos del suelo y autointerferencias que los sistemas de radio modernos encuentran en la operación terrestre.

Capacidad del canal

El canal del GTEN está representado por una serie de salidas Yi{displaystyle Y... en el índice de tiempo discreto i{displaystyle i}. Yi{displaystyle Y... es la suma de la entrada Xi{displaystyle X_{i} y ruido, Zi{displaystyle Z_{i}, donde Zi{displaystyle Z_{i} es independiente e idénticamente distribuido y extraído de una distribución normal cero-medio con varianza N{displaystyle N} (el ruido). El Zi{displaystyle Z_{i} are further assumed to not be correlated with the Xi{displaystyle X_{i}.

Zi♪ ♪ N()0,N){displaystyle Z_{i}sim {fn}(0,N),!}
Yi=Xi+Zi.{displaystyle Y...

La capacidad del canal es infinita a menos que el ruido N{displaystyle N} no es cero, y el Xi{displaystyle X_{i} están suficientemente limitadas. La restricción más común de la entrada es la llamada "poder" restricción, que requiere que para una palabra clave ()x1,x2,...... ,xk){displaystyle (x_{1},x_{2},dotsx_{k}} transmitido a través del canal, tenemos:

1k.. i=1kxi2≤ ≤ P,{displaystyle {frac {}{k}}sum ¿Qué? P,}

Donde P{displaystyle P} representa la potencia máxima del canal. Por lo tanto, la capacidad de canal para el canal con motor eléctrico es dada por:

C=maxf()x)S.T.E()X2)≤ ≤ PI()X;Y){displaystyle C=max _{f(x){ s.t.}Eleft(X^{2}right)leq P}I(X;Y)!}

Donde f()x){displaystyle f(x)} es la distribución de X{displaystyle X}. Ampliación I()X;Y){displaystyle I(X;Y)}, escribiendo en términos de la entropía diferencial:

I()X;Y)=h()Y)− − h()YSilencioX)=h()Y)− − h()X+ZSilencioX)=h()Y)− − h()ZSilencioX){displaystyle {begin{aligned}I(X;Y)=h(Y)-h(Y habitX) {begin{aligned}I(X+Z habitX) {y)=h(Z habitX)end{aligned},!}}

Pero... X{displaystyle X} y Z{displaystyle Z} son independientes, por lo tanto:

I()X;Y)=h()Y)− − h()Z){displaystyle I(X;Y)=h(Y)-h(Z),!}

Evaluar la entropía diferencial de un gaussiano da:

h()Z)=12log⁡ ⁡ ()2π π eN){displaystyle h(Z)={2}log(2pi eN),!}

Porque... X{displaystyle X} y Z{displaystyle Z} son independientes y su suma da Y{displaystyle Sí.:

E()Y2)=E()()X+Z)2)=E()X2)+2E()X)E()Z)+E()Z2)≤ ≤ P+N{displaystyle E(Y^{2})=E(X+Z)^{2})=E(X^{2})+2E(X)E(Z)+E(Z^{2})leq P+N,!

De este límite, inferimos de una propiedad de la entropía diferencial que

h()Y)≤ ≤ 12log⁡ ⁡ ()2π π e()P+N)){displaystyle h(Y)leq {2}log(2pi e(P+N),!}

Por lo tanto, la capacidad del canal viene dada por el límite más alto alcanzable en la información mutua:

I()X;Y)≤ ≤ 12log⁡ ⁡ ()2π π e()P+N))− − 12log⁡ ⁡ ()2π π eN){displaystyle I(X;Y)leq {1}{2}log(2pi e(P+N)-{frac {1}{2}log(2pi eN),!}

Donde I()X;Y){displaystyle I(X;Y)} se maximiza cuando:

X♪ ♪ N()0,P){displaystyle Xsim {mathcal {N}(0,P),!}

Así la capacidad del canal C{displaystyle C} para el canal del GTEN es dado por:

C=12log⁡ ⁡ ()1+PN){displaystyle C={frac {2}log left(1+{frac {P}{N}right),!}

Capacidad de canal y empaquetamiento de esferas

Supongamos que estamos enviando mensajes a través del canal con índice que va desde 1{displaystyle 1} a M{displaystyle M}, el número de mensajes diferentes posibles. Si codificamos el M{displaystyle M} mensajes a n{displaystyle n} bits, entonces definimos la tasa R{displaystyle R. como:

R=log⁡ ⁡ Mn{displaystyle R={frac {log M},!

Se dice que una tasa es alcanzable si hay una secuencia de códigos para que la probabilidad máxima de error tiende a cero como n{displaystyle n} se acerca al infinito. Capacidad C{displaystyle C} es la tasa más alta alcanzable.

Considere una palabra clave de longitud n{displaystyle n} enviado a través del canal AWGN con nivel de ruido N{displaystyle N}. Cuando se recibe, la varianza vectorial de la palabra clave es ahora N{displaystyle N}, y su media es la palabra clave enviada. El vector es muy probable que esté contenido en una esfera de radio n()N+ε ε ){displaystyle {sqrt {n}}} alrededor de la palabra clave enviada. Si decodificamos mediante la asignación de cada mensaje recibido en la palabra clave en el centro de esta esfera, entonces un error ocurre sólo cuando el vector recibido está fuera de esta esfera, que es muy poco probable.

Cada vector de codewords tiene una esfera asociada de vectores de codewords recibidos que se decodifican a ella y cada una de esas esferas debe mapear únicamente en una palabra clave. Debido a que estas esferas por lo tanto no deben interseccionar, nos enfrentamos al problema del embalaje de esferas. Cuantas distintas palabras clave podemos empacar en nuestras n{displaystyle n}-bit codeword vector? Los vectores recibidos tienen una energía máxima n()P+N){displaystyle n(P+N)} y por lo tanto debe ocupar una esfera de radio n()P+N){displaystyle {sqrt {n}}}. Cada esfera de la palabra clave tiene radio nN{displaystyle {sqrt {n}}. El volumen de un n- la esfera dimensional es directamente proporcional a rn{displaystyle r^{n}, por lo que el número máximo de esferas únicamente decodificables que se pueden empaquetar en nuestra esfera con el poder de transmisión P es:

()n()P+N))n2()nN)n2=2n2log⁡ ⁡ ()1+P/N){displaystyle {frac {(n(P+N)}{frac {fn} {fnK} {fnK}} {fnMicroc} {fnMicroc}} {fn} {fnK}}} {fnK}} {fnK}}}} {fnH00}}} {fn9}}} {fnH00}} {fnH00}}}}}}}} {fnN}}}}}}}} {fnNnNfn9}}}}}}}}}}}}}} {fnnnN\nnnnnnnnnnnnNf}}}}}}}}} {fnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnun}}}}}}}}}}} {fnnnnnnnnnnnnnnnnnn {fn} {fn}}=2} {fn} {fn}}}}=2} {fn} {fn} {fn} {fn} {fn}}}} {fn}}}}}}}}=2} {fn} {\fn}}}}}}}}}}}}}}}}}=2} {\\\\\\\\\\\\\c}}}}}}}}}}}}}}}}}}} {2}}}}}}}}}}}} {2}}}}}}}}} {2} {\\\\\\\\\\\\\\\\\\c}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {n}{2}log(1+P/N)},}

Con este argumento, la tasa R no puede ser más que 12log⁡ ⁡ ()1+P/N){displaystyle {frac {1}{2}log(1+P/N)}.

Alcanzabilidad

En esta sección, mostramos la posibilidad de alcanzar el límite superior de la tasa de la última sección.

Un libro de código, conocido tanto para el encoder como para el decodificador, se genera seleccionando palabras clave de longitud n, i.i.d. Gaussian con varianza P− − ε ε {displaystyle P-epsilon } y significa cero. Para la n grande, la varianza empírica del libro de códigos estará muy cerca de la varianza de su distribución, evitando así la violación de la limitación de poder probabilísticamente.

Los mensajes recibidos se descodifican en un mensaje en el libro de códigos que es único y común. Si no hay tal mensaje o si se viola la restricción de potencia, se declara un error de decodificación.

Vamos Xn()i){displaystyle X^{n}(i)} denota la palabra clave para el mensaje i{displaystyle i}, mientras Yn{displaystyle Y. es, como antes del vector recibido. Define los siguientes tres eventos:

  1. Evento U{displaystyle U}: el poder del mensaje recibido es mayor que P{displaystyle P}.
  2. Evento V{displaystyle V}: las palabras de código transmitidas y recibidas no son comunes.
  3. Evento Ej{displaystyle E_{j}: ()Xn()j),Yn){displaystyle (X^{n}(j),Y^{n}} está dentro Aε ε ()n){displaystyle A_{epsilon} {n]}, el conjunto típico donde iل ل j{displaystyle ineq j}, que es decir que la palabra clave incorrecta es comúnmente típica con el vector recibido.

Por lo tanto, ocurre un error si U{displaystyle U}, V{displaystyle V} o cualquiera de los Ei{displaystyle E_{i} ocurre. Por la ley de grandes números, P()U){displaystyle P(U)} va a cero a medida que se aproxima la infinidad, y por la propiedad de la Equipartición Asintotica lo mismo se aplica a P()V){displaystyle P(V)}. Por lo tanto, para un suficientemente grande n{displaystyle n}, ambos P()U){displaystyle P(U)} y P()V){displaystyle P(V)} son cada uno menos ε ε {displaystyle epsilon }. Desde Xn()i){displaystyle X^{n}(i)} y Xn()j){displaystyle X^{n}(j)} son independientes iل ل j{displaystyle ineq j}, tenemos eso Xn()i){displaystyle X^{n}(i)} y Yn{displaystyle Y. son también independientes. Por lo tanto, por el AEP conjunto, P()Ej)=2− − n()I()X;Y)− − 3ε ε ){displaystyle P(E_{j})=2^{-n(I(X;Y)-3epsilon)}}. Esto nos permite calcular Pe()n){displaystyle P_{e} {}} {fn}}, la probabilidad de error como sigue:

Pe()n)≤ ≤ P()U)+P()V)+.. jل ل iP()Ej)≤ ≤ ε ε +ε ε +.. jل ل i2− − n()I()X;Y)− − 3ε ε )≤ ≤ 2ε ε +()2nR− − 1)2− − n()I()X;Y)− − 3ε ε )≤ ≤ 2ε ε +()23nε ε )2− − n()I()X;Y)− − R)≤ ≤ 3ε ε ################################################################################################################################################################################################################################################################

Por lo tanto, como n enfoques infinito, Pe()n){displaystyle P_{e} {}} {fn}} va a cero y <math alttext="{displaystyle RR.I()X;Y)− − 3ε ε {displaystyle R realizadasI(X;Y)-3epsilon }<img alt="R. Por lo tanto, hay un código de tasa R arbitrariamente cercano a la capacidad derivada anteriormente.

Teorema de codificación recíproco

Aquí mostramos que las tasas por encima de la capacidad C=12log⁡ ⁡ ()1+PN){displaystyle C={frac {2}log(1+{frac {P}}}}} no son alcanzables.

Supongamos que la limitación de potencia está satisfecha para un libro de códigos, y supongamos además que los mensajes siguen una distribución uniforme. Vamos W{displaystyle W. ser los mensajes de entrada y W^ ^ {displaystyle {hat {}}} los mensajes de salida. Así pues, la información fluye como:

Wrestablecimiento restablecimiento X()n)()W)restablecimiento restablecimiento Y()n)restablecimiento restablecimiento W^ ^ {displaystyle Wlongrightarrow X^{(n)}(W)longrightarrow Y^{(n)}longrightarrow {fnK}

Haciendo uso de la desigualdad de Fano se obtiene:

H()WSilencioW^ ^ )≤ ≤ 1+nRPe()n)=nε ε n{displaystyle H(W detained{hat {W})leq 1+nRP_{e}{(n)}=nepsilon ¿Qué? Donde ε ε n→ → 0{displaystyle epsilon _{n}rightarrow 0} como Pe()n)→ → 0{displaystyle P_{e} { n)}rightarrow 0}

Vamos Xi{displaystyle X_{i} ser el mensaje codificado del índice de codewords i. Entonces:

nR=H()W)=I()W;W^ ^ )+H()WSilencioW^ ^ )≤ ≤ I()W;W^ ^ )+nε ε n≤ ≤ I()X()n);Y()n))+nε ε n=h()Y()n))− − h()Y()n)SilencioX()n))+nε ε n=h()Y()n))− − h()Z()n))+nε ε n≤ ≤ .. i=1nh()Yi)− − h()Z()n))+nε ε n≤ ≤ .. i=1nI()Xi;Yi)+nε ε n{fn} {fn}cH} {cH}} {cH}}} {cH}}n}n}n}n}n} {cH}}} {cH} {cH} {cH} {n}}}n}}n}nKnKn}nKnKn}nn}n}nKn}n}n}n}nnnKnKnKn}n}n}cH00cHcH00cH00cH00cH00cHcHcHcH00}cH00n}cH00n}cH00cHcH00cH00cH}cH00}cH00cH00cH00}cH00cH00}cH00}}}}}}cH ¿Qué?

Vamos Pi{displaystyle P_{i} ser el poder promedio de la palabra clave del índice i:

Pi=12nR.. wxi2()w){displaystyle ¿Por qué?

Donde la suma está sobre todos los mensajes de entrada w{displaystyle w}. Xi{displaystyle X_{i} y Zi{displaystyle Z_{i} son independientes, por lo tanto la expectativa del poder Yi{displaystyle Y... es, para el nivel de ruido N{displaystyle N}:

E()Yi2)=Pi+N{displaystyle E(Y_{i} {2}=P_{i}+N,!

Y, si Yi{displaystyle Y... se distribuye normalmente, tenemos que

h()Yi)≤ ≤ 12log⁡ ⁡ 2π π e()Pi+N){displaystyle h(Y_{i})leq {1}{2}log {2pi e}(P_{i}+N),!}

Por lo tanto,

nR≤ ≤ .. ()h()Yi)− − h()Zi))+nε ε n≤ ≤ .. ()12log⁡ ⁡ ()2π π e()Pi+N))− − 12log⁡ ⁡ ()2π π eN))+nε ε n=.. 12log⁡ ⁡ ()1+PiN)+nε ε n{displaystyle {begin{aligned}nRiéndoseleqsum (h(Y_{i})-h(Z_{i})+nepsilon _{n}\\ccccnccnccn}gn2}}log(2pini} {c] ################################################################################################################################################################################################################################################################ [P_{i} {N})+nepsilon ¿Qué?

Podemos aplicar la igualdad de Jensen log⁡ ⁡ ()1+x){displaystyle log(1+x)}, una función de cóncava (abajo) x, para conseguir:

1n.. i=1n12log⁡ ⁡ ()1+PiN)≤ ≤ 12log⁡ ⁡ ()1+1n.. i=1nPiN){displaystyle {frac {fn} {fnK}}}}}sum - ¿Qué? {1}{2}log left(1+{frac {fn}log left(1+{n}}sum} - ¿Qué? ¡Sí!

Debido a que cada palabra clave satisface individualmente la restricción de potencia, el promedio también satisface la restricción de potencia. Por lo tanto,

1n.. i=1nPiN{displaystyle {frac {fn} {fnK}}}}sum} - ¿Qué? {P_{i} {N},}

Que podemos aplicar para simplificar la desigualdad anterior y obtener:

12log⁡ ⁡ ()1+1n.. i=1nPiN)≤ ≤ 12log⁡ ⁡ ()1+PN){displaystyle {frac {1}{2}log left(1+{frac {1}{n}sum} - ¿Qué? [P_{i} {N}right)leq {frac {1}{2}log left(1+{frac {N}right),}}

Por lo tanto, debe ser que R≤ ≤ 12log⁡ ⁡ ()1+PN)+ε ε n{displaystyle Rleq {frac {1}{2}log left(1+{frac {fn}derecha)+epsilon _{n}. Por lo tanto, R debe ser inferior a un valor arbitrariamente cercano a la capacidad derivada anteriormente, como ε ε n→ → 0{displaystyle epsilon _{n}rightarrow 0}.

Efectos en el dominio del tiempo

Cero cruces de un ruidoso acogedor

En las comunicaciones de datos en serie, el modelo matemático AWGN se usa para modelar el error de sincronización causado por la fluctuación aleatoria (RJ).

El gráfico de la derecha muestra un ejemplo de errores de tiempo asociados con AWGN. La variable Δt representa la incertidumbre en el cruce por cero. A medida que aumenta la amplitud de la AWGN, la relación señal/ruido disminuye. Esto da como resultado una mayor incertidumbre Δt.

Cuando se ve afectado por AWGN, el número promedio de cruces por cero positivos o negativos por segundo en la salida de un filtro de paso de banda estrecho cuando la entrada es una onda sinusoidal es

cero cruces positivossegundo=cruces negativos cerosegundo{displaystyle {frac {texto{positivo cero {text{negative cero crossings}{text{second}}}}}
=f0SNR+1+B212f02SNR+1,{displaystyle quad =f_{0}{sqrt {frac {text{SNR}+1+{frac} {B^{2} {12f_{0}}} {{text{SNR}}}}}}}}}}}}}

dónde

f0 = la frecuencia central del filtro,
B = el ancho de banda del filtro,
SNR = la relación de potencia de señal a ruido en términos lineales.

Efectos en el dominio fasorial

AWGN contributions in the phasor domain

En los sistemas de comunicación modernos, no se puede ignorar el AWGN de banda limitada. Al modelar AWGN de banda limitada en el dominio fasorial, el análisis estadístico revela que las amplitudes de las contribuciones reales e imaginarias son variables independientes que siguen el modelo de distribución gaussiana. Cuando se combinan, la magnitud del fasor resultante es una variable aleatoria distribuida por Rayleigh, mientras que la fase se distribuye uniformemente de 0 a 2π.

El gráfico de la derecha muestra un ejemplo de cómo AWGN de banda limitada puede afectar una señal portadora coherente. La respuesta instantánea del vector de ruido no se puede predecir con precisión, sin embargo, su respuesta promediada en el tiempo se puede predecir estadísticamente. Como se muestra en el gráfico, predecimos con confianza que el fasor de ruido residirá aproximadamente el 38 % del tiempo dentro del círculo 1σ, aproximadamente el 86 % del tiempo dentro del círculo 2σ y aproximadamente el 98 % del tiempo dentro del círculo 3σ.