Canal simétrico binario

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Un canal simétrico binario (o BSCp) es un modelo de canal de comunicaciones común utilizado en la teoría de la codificación y la teoría de la información. En este modelo, un transmisor desea enviar un bit (un cero o un uno), y el receptor recibirá un bit. El bit será "volteado" con una "probabilidad de cruce" de p, y por lo demás se recibe correctamente. Este modelo se puede aplicar a diversos canales de comunicación, como líneas telefónicas o almacenamiento en unidades de disco.

El teorema de codificación ruido-canal se aplica a BSCp, diciendo que la información se puede transmitir a cualquier velocidad hasta la capacidad del canal con error arbitrariomente bajo. La capacidad del canal es bits, dónde es la función binaria entropía. Los códigos incluyendo el código de Forney han sido diseñados para transmitir información de manera eficiente en todo el canal.

Definición

Binary symmetric channel
El canal binario simétrico ve cada bit de un mensaje transmitido correctamente con probabilidad 1–p y incorrectamente con probabilidad p, debido al ruido a través del medio de transmisión.

Un canal simétrico binario con probabilidad crossover , denotado por BSCp, es un canal con entrada binaria y salida binaria y probabilidad de error . Eso es, si es la variable al azar transmitida la variable recibida, entonces el canal se caracteriza por las probabilidades condicionales:

Se supone que . Si , entonces el receptor puede cambiar la salida (interpretar 1 cuando ve 0, y viceversa) y obtener un canal equivalente con probabilidad crossover .

Capacidad

La capacidad del canal simétrico binario, en bits, es:

Donde es la función binaria entropía, definida por:

Teorema de codificación de canales ruidosos

El teorema de codificación ruidoso-canal de Shannon da un resultado sobre la tasa de información que se puede transmitir a través de un canal de comunicación con error arbitrariomente bajo. Estudiamos el caso particular .

El ruido que caracteriza es una variable aleatoria que consiste en bits aleatorios independientes (n se define a continuación) donde cada bit aleatorio es un con probabilidad y a con probabilidad . Indicamos esto escribiendo "".

TheoremPara todos Todos , todo lo suficientemente grande (dependiendo de y ), y todo , existe un par de funciones de codificación y decodificación y respectivamente, tal que cada mensaje tiene la siguiente propiedad:

.

Lo que este teorema realmente implica es, un mensaje cuando es elegido , codificado con una función de codificación aleatoria , y enviado a través de un ruido , hay una probabilidad muy alta de recuperar el mensaje original por decodificación, si o en efecto la tasa del canal está ligada por la cantidad indicada en el teorema. La probabilidad de decodificación de errores es exponencialmente pequeña.

Prueba

El teorema se puede probar directamente con un método probabilístico. Considerar una función de codificación que se selecciona al azar. Esto significa que para cada mensaje , el valor se selecciona al azar (con iguales probabilidades). Para una función de codificación dada , la función de decodificación se especifica como sigue: dado cualquier palabra clave recibida , encontramos el mensaje tal que la distancia Hamming es lo más pequeño posible (con lazos rotos arbitrariamente). () se llama una función de decodificación de probabilidad máxima.)

La prueba continúa mostrando que al menos una de esas opciones satisface la conclusión del teorema, por integración sobre las probabilidades. Suppose y están arreglados. Primero mostramos eso, para un fijo y elegido aleatoriamente, la probabilidad de fracaso el ruido es exponencialmente pequeño n. En este punto, la prueba funciona para un mensaje fijo . A continuación ampliamos este resultado para trabajar para todos los mensajes . Lo logramos eliminando la mitad de las palabras clave del código con el argumento de que la prueba de la probabilidad de decodificación de errores sostiene por lo menos la mitad de las palabras clave. Este último método se llama expurgación. Esto da el proceso total el nombre codificación al azar con expurgación.

Converso del teorema de capacidad de Shannon

El contrario del teorema de capacidad establece esencialmente que es la mejor tarifa que se puede lograr sobre un canal simétrico binario. Formalmente el teorema declara:

TheoremSi entonces lo siguiente es cierto para cada función de codificación y decodificación : y : respectivamente: [ .

La intuición detrás de la prueba es sin embargo mostrar el número de errores para crecer rápidamente a medida que la tasa crece más allá de la capacidad del canal. La idea es que el remitente genera mensajes de dimensión , mientras el canal introduce errores de transmisión. Cuando la capacidad del canal es , el número de errores es típicamente para un código de longitud de bloque . El número máximo de mensajes es . La salida del canal por otro lado tiene valores posibles. Si hay alguna confusión entre dos mensajes, es probable que . Por lo tanto, tendríamos , un caso que nos gustaría evitar mantener la probabilidad de decodificación de error exponencialmente pequeña.

Códigos

Muy recientemente, se ha trabajado mucho y también se está haciendo para diseñar códigos de corrección de errores explícitos para lograr las capacidades de varios canales de comunicación estándar. La motivación detrás del diseño de dichos códigos es relacionar la tasa del código con la fracción de errores que puede corregir.

El enfoque detrás del diseño de códigos que satisfacen las capacidades de canal o el canal de borrado binario han sido corregir un menor número de errores con una alta probabilidad, y lograr la mayor tasa posible. El teorema de Shannon nos da la mejor tasa que se podría lograr con un , pero no nos da una idea de ningún código explícito que logre. De hecho, estos códigos se construyen normalmente para corregir sólo una pequeña fracción de errores con una alta probabilidad, pero lograr una muy buena tasa. El primer código de este tipo se debió a George D. Forney en 1966. El código es un código concatenado concatenando dos tipos diferentes de códigos.

Código de Forney

Forney construyó un código concatenado para lograr la capacidad del teorema de codificación ruidoso-canal . En su código,

  • El código exterior es un código de longitud de bloque y tasa sobre el terreno , y . Además, tenemos un algoritmo de decodificación para que puede corregir fracción de los peores errores de caso y se ejecuta en tiempo.
  • El código interno es un código de longitud de bloque , dimensión , y una tasa de . Además, tenemos un algoritmo de decodificación para con una probabilidad de error de decodificación sobre y corre tiempo.

Para el código exterior , un código Reed-Solomon habría sido el primer código en tener en cuenta. Sin embargo, veríamos que la construcción de dicho código no puede hacerse en el tiempo polinomio. Por eso se utiliza un código lineal binario .

Para el código interno encontramos un código lineal buscando exhaustivamente el código lineal de longitud de bloque y dimensión , cuyo índice cumple la capacidad de , por el teorema de codificación ruidoso-canal.

La tasa que casi conoce capacidad. Observamos además que la codificación y decodificación de se puede hacer en el tiempo polinomio con respecto a . De hecho, la codificación toma tiempo . Además, el algoritmo de decodificación descrito toma tiempo mientras ; y .

Probabilidad de error de decodificación

Un algoritmo de decodificación natural para es:

  • Assume
  • Ejecutar on

Tenga en cuenta que cada bloque de código para se considera un símbolo para . Ahora desde la probabilidad de error en cualquier índice para es en la mayoría y los errores en son independientes, el número esperado de errores es en la mayoría por linearidad de expectativa. Ahora la aplicación de Chernoff límite, tenemos la probabilidad de error de más que errores que se producen . Desde el código exterior puede corregir a la mayoría errores, esta es la probabilidad de decodificación de errores . Esto cuando se expresa en términos asintoticos, nos da una probabilidad de error . Así, la probabilidad de error de decodificación alcanzada es exponencialmente pequeño como el teorema de codificación ruidoso-canal.

Hemos dado una técnica general para construir . Para descripciones más detalladas en y Por favor lea las siguientes referencias. Recientemente se han construido algunos otros códigos para lograr las capacidades. Los códigos LDPC han sido considerados con este propósito para su tiempo de decodificación más rápido.

Aplicaciones

El canal simétrico binario puede modelar una unidad de disco utilizada para el almacenamiento de memoria: la entrada del canal representa un bit que se escribe en el disco y la salida corresponde al bit que se lee más tarde. El error puede deberse a que la magnetización cambia, el ruido de fondo o el cabezal de escritura comete un error. Otros objetos que el canal simétrico binario puede modelar incluyen una línea de comunicación telefónica o de radio o una división celular, a partir de la cual las células hijas contienen información de ADN de su célula madre.

Los teóricos suelen utilizar este canal porque es uno de los canales ruidosos más sencillos de analizar. Muchos problemas de la teoría de la comunicación se pueden reducir a un BSC. Por el contrario, ser capaz de transmitir de manera efectiva sobre el BSC puede dar lugar a soluciones para canales más complicados.

Contenido relacionado

Circuito Integrado de Aplicacion Especifica

Un circuito integrado de aplicación específica es un chip de circuito integrado personalizado para un uso particular, en lugar de estar destinado a un uso...

NTFS

Lockheed L-1011 TriStar

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save