Canal simétrico binario
Un canal simétrico binario (o BSCp) es un modelo de canal de comunicaciones común utilizado en la teoría de la codificación y la teoría de la información. En este modelo, un transmisor desea enviar un bit (un cero o un uno), y el receptor recibirá un bit. El bit será "volteado" con una "probabilidad de cruce" de p, y por lo demás se recibe correctamente. Este modelo se puede aplicar a diversos canales de comunicación, como líneas telefónicas o almacenamiento en unidades de disco.
El teorema de codificación ruido-canal se aplica a BSCp, diciendo que la información se puede transmitir a cualquier velocidad hasta la capacidad del canal con error arbitrariomente bajo. La capacidad del canal es bits, dónde es la función binaria entropía. Los códigos incluyendo el código de Forney han sido diseñados para transmitir información de manera eficiente en todo el canal.
Definición
Un canal simétrico binario con probabilidad crossover , denotado por BSCp, es un canal con entrada binaria y salida binaria y probabilidad de error . Eso es, si es la variable al azar transmitida la variable recibida, entonces el canal se caracteriza por las probabilidades condicionales:
Se supone que . Si , entonces el receptor puede cambiar la salida (interpretar 1 cuando ve 0, y viceversa) y obtener un canal equivalente con probabilidad crossover .
Capacidad
La capacidad del canal simétrico binario, en bits, es:
Donde es la función binaria entropía, definida por:
Prueba La capacidad se define como la máxima información mutua entre entrada y salida para todas las distribuciones posibles de insumos : La información mutua puede reformularse como
donde el primer y segundo paso sigue de la definición de información mutua y entropía condicional respectivamente. La entropía en la salida para un símbolo de entrada dado y fijo () equivale a la función binaria entropía, que conduce a la tercera línea y esto puede ser más simplificado.
En la última línea, sólo el primer término depende de la distribución de entrada . La entropía de una variable binaria es a la mayoría de 1 bit, y la igualdad se alcanza si su distribución de probabilidad es uniforme. Por lo tanto, basta con exhibir una distribución de insumos que produce una distribución uniforme de probabilidad para la salida . Para ello, tenga en cuenta que es una propiedad de cualquier canal simétrico binario que una distribución uniforme de probabilidad de los resultados de entrada en una distribución uniforme de probabilidad de la salida. De ahí el valor será 1 cuando elijamos una distribución uniforme para . Concluimos que la capacidad de canal para nuestro canal simétrico binario es .
Teorema de codificación de canales ruidosos
El teorema de codificación ruidoso-canal de Shannon da un resultado sobre la tasa de información que se puede transmitir a través de un canal de comunicación con error arbitrariomente bajo. Estudiamos el caso particular .
El ruido que caracteriza es una variable aleatoria que consiste en bits aleatorios independientes (n se define a continuación) donde cada bit aleatorio es un con probabilidad y a con probabilidad . Indicamos esto escribiendo "".
Theorem—Para todos Todos , todo lo suficientemente grande (dependiendo de y ), y todo , existe un par de funciones de codificación y decodificación y respectivamente, tal que cada mensaje tiene la siguiente propiedad:
- .
Lo que este teorema realmente implica es, un mensaje cuando es elegido , codificado con una función de codificación aleatoria , y enviado a través de un ruido , hay una probabilidad muy alta de recuperar el mensaje original por decodificación, si o en efecto la tasa del canal está ligada por la cantidad indicada en el teorema. La probabilidad de decodificación de errores es exponencialmente pequeña.
Prueba
El teorema se puede probar directamente con un método probabilístico. Considerar una función de codificación que se selecciona al azar. Esto significa que para cada mensaje , el valor se selecciona al azar (con iguales probabilidades). Para una función de codificación dada , la función de decodificación se especifica como sigue: dado cualquier palabra clave recibida , encontramos el mensaje tal que la distancia Hamming es lo más pequeño posible (con lazos rotos arbitrariamente). () se llama una función de decodificación de probabilidad máxima.)
La prueba continúa mostrando que al menos una de esas opciones satisface la conclusión del teorema, por integración sobre las probabilidades. Suppose y están arreglados. Primero mostramos eso, para un fijo y elegido aleatoriamente, la probabilidad de fracaso el ruido es exponencialmente pequeño n. En este punto, la prueba funciona para un mensaje fijo . A continuación ampliamos este resultado para trabajar para todos los mensajes . Lo logramos eliminando la mitad de las palabras clave del código con el argumento de que la prueba de la probabilidad de decodificación de errores sostiene por lo menos la mitad de las palabras clave. Este último método se llama expurgación. Esto da el proceso total el nombre codificación al azar con expurgación.
Continuación de la prueba (sketch) Corrección y . Dado un mensaje fijo , necesitamos estimar el valor esperado de la probabilidad de la palabra clave recibida junto con el ruido no devuelve en decodificación. Es decir, necesitamos estimar: Vamos sea la palabra clave recibida. Para la palabra clave decodificada no ser igual al mensaje , uno de los siguientes eventos debe ocurrir:
- no miente dentro de la bola de Hamming de radio centrado en . Esta afección se utiliza principalmente para facilitar los cálculos.
- Hay otro mensaje tales que . En otras palabras, los errores debido al ruido llevan la palabra clave transmitida más cerca de otro mensaje codificado.
Podemos aplicar el límite de Chernoff para asegurar la no ocurrencia del primer evento; obtenemos:
Esto es exponencialmente pequeño para grande (reconozca eso se fija).
Para el segundo evento, observamos que la probabilidad de que es Donde es la bola de Hamming de radio centrado en vector y es su volumen. Usando la aproximación para estimar el número de palabras clave en la bola Hamming, tenemos . Por lo tanto, la probabilidad anterior equivale a . Ahora, usando el vínculo sindical, podemos atar la existencia de tal por que es , como desea la elección de .
Continuación de la prueba (detallada) Desde el análisis anterior, calculamos la probabilidad del evento de que la palabra clave decodificada más el ruido del canal no es el mismo que el mensaje original enviado. Presentaremos algunos símbolos aquí. Vamos denota la probabilidad de recibir la palabra clave dada la palabra clave fue enviado. Vamos denota Conseguimos la última desigualdad mediante nuestro análisis usando el Chernoff ligado arriba. Ahora tomando la expectativa de ambos lados tenemos,
seleccionando apropiadamente el valor . Desde el límite anterior cada uno Mensaje, tenemos
Ahora podemos cambiar el orden de la suma en la expectativa con respecto al mensaje y la elección de la función de codificación . Por lo tanto:
Por lo tanto, en conclusión, por método probabilístico, tenemos alguna función de codificación y una función de decodificación correspondiente tales que
En este punto, la prueba funciona para un mensaje fijo . Pero necesitamos asegurarnos de que el límite anterior se mantenga Todos los mensajes simultáneamente. Para eso, vamos a ordenar el mensajes por sus probabilidades de error de decodificación. Ahora al aplicar la desigualdad de Markov, podemos mostrar la probabilidad de decodificación de errores para el primero mensajes a la mayoría . Así, a fin de confirmar que la anterior obligación de mantener cada uno Mensaje Podríamos recortar el último mensajes de la orden orden ordenada. Esto esencialmente nos da otra función de codificación con función de decodificación correspondiente con una probabilidad de error de decodificación con la misma tarifa. Tomando ser igual a vinculamos la probabilidad de error de decodificación a . Este proceso de expurgación completa la prueba.
Converso del teorema de capacidad de Shannon
El contrario del teorema de capacidad establece esencialmente que es la mejor tarifa que se puede lograr sobre un canal simétrico binario. Formalmente el teorema declara:
Theorem—Si entonces lo siguiente es cierto para cada función de codificación y decodificación : y : respectivamente: [ .
La intuición detrás de la prueba es sin embargo mostrar el número de errores para crecer rápidamente a medida que la tasa crece más allá de la capacidad del canal. La idea es que el remitente genera mensajes de dimensión , mientras el canal introduce errores de transmisión. Cuando la capacidad del canal es , el número de errores es típicamente para un código de longitud de bloque . El número máximo de mensajes es . La salida del canal por otro lado tiene valores posibles. Si hay alguna confusión entre dos mensajes, es probable que . Por lo tanto, tendríamos , un caso que nos gustaría evitar mantener la probabilidad de decodificación de error exponencialmente pequeña.
Códigos
Muy recientemente, se ha trabajado mucho y también se está haciendo para diseñar códigos de corrección de errores explícitos para lograr las capacidades de varios canales de comunicación estándar. La motivación detrás del diseño de dichos códigos es relacionar la tasa del código con la fracción de errores que puede corregir.
El enfoque detrás del diseño de códigos que satisfacen las capacidades de canal o el canal de borrado binario han sido corregir un menor número de errores con una alta probabilidad, y lograr la mayor tasa posible. El teorema de Shannon nos da la mejor tasa que se podría lograr con un , pero no nos da una idea de ningún código explícito que logre. De hecho, estos códigos se construyen normalmente para corregir sólo una pequeña fracción de errores con una alta probabilidad, pero lograr una muy buena tasa. El primer código de este tipo se debió a George D. Forney en 1966. El código es un código concatenado concatenando dos tipos diferentes de códigos.
Código de Forney
Forney construyó un código concatenado para lograr la capacidad del teorema de codificación ruidoso-canal . En su código,
- El código exterior es un código de longitud de bloque y tasa sobre el terreno , y . Además, tenemos un algoritmo de decodificación para que puede corregir fracción de los peores errores de caso y se ejecuta en tiempo.
- El código interno es un código de longitud de bloque , dimensión , y una tasa de . Además, tenemos un algoritmo de decodificación para con una probabilidad de error de decodificación sobre y corre tiempo.
Para el código exterior , un código Reed-Solomon habría sido el primer código en tener en cuenta. Sin embargo, veríamos que la construcción de dicho código no puede hacerse en el tiempo polinomio. Por eso se utiliza un código lineal binario .
Para el código interno encontramos un código lineal buscando exhaustivamente el código lineal de longitud de bloque y dimensión , cuyo índice cumple la capacidad de , por el teorema de codificación ruidoso-canal.
La tasa que casi conoce capacidad. Observamos además que la codificación y decodificación de se puede hacer en el tiempo polinomio con respecto a . De hecho, la codificación toma tiempo . Además, el algoritmo de decodificación descrito toma tiempo mientras ; y .
Probabilidad de error de decodificación
Un algoritmo de decodificación natural para es:
- Assume
- Ejecutar on
Tenga en cuenta que cada bloque de código para se considera un símbolo para . Ahora desde la probabilidad de error en cualquier índice para es en la mayoría y los errores en son independientes, el número esperado de errores es en la mayoría por linearidad de expectativa. Ahora la aplicación de Chernoff límite, tenemos la probabilidad de error de más que errores que se producen . Desde el código exterior puede corregir a la mayoría errores, esta es la probabilidad de decodificación de errores . Esto cuando se expresa en términos asintoticos, nos da una probabilidad de error . Así, la probabilidad de error de decodificación alcanzada es exponencialmente pequeño como el teorema de codificación ruidoso-canal.
Hemos dado una técnica general para construir . Para descripciones más detalladas en y Por favor lea las siguientes referencias. Recientemente se han construido algunos otros códigos para lograr las capacidades. Los códigos LDPC han sido considerados con este propósito para su tiempo de decodificación más rápido.
Aplicaciones
El canal simétrico binario puede modelar una unidad de disco utilizada para el almacenamiento de memoria: la entrada del canal representa un bit que se escribe en el disco y la salida corresponde al bit que se lee más tarde. El error puede deberse a que la magnetización cambia, el ruido de fondo o el cabezal de escritura comete un error. Otros objetos que el canal simétrico binario puede modelar incluyen una línea de comunicación telefónica o de radio o una división celular, a partir de la cual las células hijas contienen información de ADN de su célula madre.
Los teóricos suelen utilizar este canal porque es uno de los canales ruidosos más sencillos de analizar. Muchos problemas de la teoría de la comunicación se pueden reducir a un BSC. Por el contrario, ser capaz de transmitir de manera efectiva sobre el BSC puede dar lugar a soluciones para canales más complicados.
Contenido relacionado
Circuito Integrado de Aplicacion Especifica
NTFS
Lockheed L-1011 TriStar