Teorema de codificación de canales ruidosos

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

En teoría de la información, el teorema de codificación del canal ruidoso (a veces teorema de Shannon o límite de Shannon) , establece que para cualquier grado dado de contaminación acústica de un canal de comunicación, es posible (en teoría) comunicar datos discretos (información digital) casi sin errores hasta una velocidad máxima computable a través del canal. Este resultado fue presentado por Claude Shannon en 1948 y se basó en parte en trabajos e ideas anteriores de Harry Nyquist y Ralph Hartley.

El límite de Shannon o la capacidad de Shannon de un canal de comunicación se refiere a la tasa máxima de datos sin errores que teóricamente se pueden transferir a través del canal si el enlace está sujeto a errores aleatorios de transmisión de datos, para un nivel de ruido particular. Fue descrita por primera vez por Shannon (1948) y poco después publicada en un libro de Shannon y Warren Weaver titulado La teoría matemática de la comunicación (1949). Esto fundó la disciplina moderna de la teoría de la información.

Descripción general

Enunciado por Claude Shannon en 1948, el teorema describe la máxima eficiencia posible de los métodos de corrección de errores frente a niveles de interferencia de ruido y corrupción de datos. El teorema de Shannon tiene una amplia gama de aplicaciones tanto en comunicaciones como en almacenamiento de datos. Este teorema es de importancia fundamental para el campo moderno de la teoría de la información. Shannon sólo dio un esbozo de la prueba. La primera prueba rigurosa para el caso discreto se da en (Feinstein 1954).

El teorema de Shannon establece que dado un canal ruidoso con capacidad de canal C y la información transmitida a un ritmo R, entonces si existen códigos que permiten que la probabilidad de error en el receptor se haga arbitrariamente pequeña. Esto significa que, teóricamente, es posible transmitir información casi sin errores a cualquier tipo por debajo de una tasa de limitación, C.

El contrario también es importante. Si , una probabilidad arbitrariamente pequeña de error no es alcanzable. Todos los códigos tendrán una probabilidad de error mayor que un cierto nivel mínimo positivo, y este nivel aumenta a medida que aumenta la tasa. Por lo tanto, no se puede garantizar que la información se transmita de forma fiable a través de un canal a tasas más allá de la capacidad del canal. El teorema no aborda la rara situación en la que la tasa y la capacidad son iguales.

La capacidad del canal se puede calcular a partir de las propiedades físicas de un canal; para un canal limitado por banda con ruido gaisiano, utilizando el teorema Shannon-Hartley.

Esquemas simples como "enviar el mensaje 3 veces y utilizar el mejor esquema de votación 2 de 3 si las copias difieren" son métodos de corrección de errores ineficientes, incapaces de garantizar asintóticamente que un bloque de datos pueda comunicarse sin errores. Técnicas avanzadas como los códigos Reed-Solomon y, más recientemente, los códigos de verificación de paridad de baja densidad (LDPC) y los códigos turbo, se acercan mucho más a alcanzar el límite teórico de Shannon, pero a un costo de alta complejidad computacional. Utilizando estos códigos altamente eficientes y con la potencia informática de los procesadores de señales digitales actuales, ahora es posible acercarse mucho al límite de Shannon. De hecho, se demostró que los códigos LDPC pueden alcanzar dentro de 0,0045 dB el límite de Shannon (para canales de ruido blanco gaussiano aditivo binario (AWGN), con longitudes de bloque muy largas).

Declaración matemática

Gráfico mostrando la proporción de la capacidad de un canal (Sí.-eje) que se puede utilizar para la carga útil basado en lo ruidoso que es el canal (probabilidad de volteretas de bits; x-eje).

El modelo matemático básico para un sistema de comunicación es el siguiente:

Un mensaje W se transmite a través de un canal ruidoso utilizando funciones de codificación y decodificación. Un codificador asigna W a una secuencia predefinida de símbolos de canal de longitud n. En su modelo más básico, el canal distorsiona cada uno de estos símbolos independientemente de los demás. La salida del canal (la secuencia recibida) se introduce en un decodificador que asigna la secuencia a una estimación del mensaje. En este contexto, la probabilidad de error se define como:

Teorema (Shannon, 1948):

1. Para cada canal discreto sin memoria, la capacidad del canal, definida en términos de información mutua como
tiene la siguiente propiedad. Para cualquier y , por lo suficientemente grande , existe un código de longitud y tasa y un algoritmo de decodificación, tal que la probabilidad máxima de error de bloque es .
2. Si una probabilidad de error de bits es aceptable, tasas hasta son alcanzables, donde
y es función binaria entropía
3. Para cualquier , tasas superiores a no son alcanzables.

(MacKay (2003), p. 162; cf. Gallager (1968), cap.5; Cover y Thomas (1991), p. 198; Shannon (1948) thm. 11)

Esquema de la prueba

Al igual que con otros resultados importantes en la teoría de la información, la prueba del teorema de codificación de canales ruidosos incluye un resultado de alcanzabilidad y un resultado inverso coincidente. Estos dos componentes sirven para limitar, en este caso, el conjunto de velocidades posibles a las que uno puede comunicarse a través de un canal ruidoso, y la comparación sirve para mostrar que estos límites son límites estrictos.

Los siguientes esquemas son sólo un conjunto de muchos estilos diferentes disponibles para estudiar en textos de teoría de la información.

Alcanzabilidad de canales discretos sin memoria

Esta prueba particular de alcanzabilidad sigue el estilo de las pruebas que utilizan la propiedad de equipartición asintótica (AEP). Se puede encontrar otro estilo en los textos de teoría de la información que utilizan exponentes de error.

Ambos tipos de pruebas utilizan un argumento de codificación aleatoria en el que el libro de códigos utilizado en un canal se construye aleatoriamente; esto sirve para simplificar el análisis y al mismo tiempo demostrar la existencia de un código que satisface una baja probabilidad de error deseada en cualquier dato. velocidad por debajo de la capacidad del canal.

Por un argumento relacionado con la AEP, dado un canal, longitud cadenas de símbolos fuente , y longitud cadenas de salidas de canales , podemos definir un conjunto típico by the following:

Decimos que dos secuencias y son típico si se encuentran en el conjunto común típico definido anteriormente.

Pasos

  1. Al estilo del argumento de codificación al azar, generamos aleatoriamente codewords de longitud n de una distribución de probabilidad Q.
  2. Este código se revela al remitente y receptor. También se supone que uno conoce la matriz de transición para el canal que se utiliza.
  3. Un mensaje W es elegido según la distribución uniforme en el conjunto de palabras clave. Eso es, .
  4. El mensaje W se envía a través del canal.
  5. El receptor recibe una secuencia según
  6. Enviando estas palabras clave a través del canal, recibimos , y decodificar a alguna secuencia de origen si existe exactamente 1 palabra clave que es comúnmente típica con Y. Si no hay códigos comunes, o si hay más de uno, se declara un error. Un error también ocurre si una palabra clave decodificada no coincide con la palabra clave original. Esto se llama típico juego.

La probabilidad de error de este esquema se divide en dos partes:

  1. En primer lugar, el error puede ocurrir si no se produce conjuntamente X secuencias se encuentran para una secuencia Y recibida
  2. Segundo, el error puede ocurrir si un error es incorrecto X secuencia es comúnmente típica con una secuencia Y recibida.
  • Por la aleatoriedad de la construcción de códigos, podemos asumir que la probabilidad promedio de error promediado sobre todos los códigos no depende del índice enviado. Así, sin pérdida de generalidad, podemos asumir W = 1.
  • Desde la articulación AEP, sabemos que la probabilidad de que no exista una X comúnmente típica va a 0 a medida que crece grande. Podemos vincular esta probabilidad de error por .
  • También desde el AEP conjunto, sabemos la probabilidad de que un particular y el resultantes W = 1 son comunes .

Define:

como el evento que mensaje es comúnmente típico con la secuencia recibida cuando el mensaje 1 es enviado.

Podemos observarlo como va al infinito, si para el canal, la probabilidad de error irá a 0.

Por último, dado que se ha demostrado que el libro de códigos promedio es "bueno", Sabemos que existe un libro de códigos cuyo rendimiento es mejor que el promedio y, por lo tanto, satisface nuestra necesidad de una probabilidad de error arbitrariamente baja en la comunicación a través del canal ruidoso.

Conversación débil para canales discretos sin memoria

Suponga un código Palabras clave. Deje que W sea dibujado uniformemente sobre este conjunto como un índice. Vamos. y sean las palabras clave transmitidas y recibidas, respectivamente.

  1. usando identidades que implican entropía e información mutua
  2. ya que X es una función de W
  3. por el uso de la desigualdad de Fano
  4. por el hecho de que la capacidad se maximice la información mutua.

El resultado de estas medidas es que . Como la longitud del bloque va al infinito, obtenemos está atado de 0 si R es mayor que C - podemos obtener tasas arbitrariamente bajas de error sólo si R es menos que C.

Conversación fuerte para canales discretos sin memoria

Un fuerte teorema inverso, demostrado por Wolfowitz en 1957, establece que,

para una constante positiva finita . Mientras que el débil revés afirma que la probabilidad de error está atada de cero como va a la infinidad, el fuerte revés afirma que el error va a 1. Así, es un umbral afilado entre comunicación perfectamente fiable y completamente inconfiable.

Teorema de codificación de canales para canales sin memoria no estacionarios

Asumimos que el canal no tiene memoria, pero sus probabilidades de transición cambian con el tiempo, de una manera conocida tanto en el transmisor como en el receptor.

Entonces la capacidad del canal está dada por

El máximo se alcanza en la capacidad de conseguir distribuciones para cada canal respectivo. Eso es, Donde es la capacidad del iT canal.

Esquema de la prueba

La demostración se desarrolla casi de la misma manera que la del teorema de codificación de canales. La viabilidad se deriva de la codificación aleatoria en la que cada símbolo se elige aleatoriamente de la capacidad de distribución para ese canal en particular. Los argumentos de tipicidad utilizan la definición de conjuntos típicos para fuentes no estacionarias definidas en el artículo sobre la propiedad de equipartición asintótica.

El tecnicismo de lim inf entra en juego cuando no converge.

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save