Teoría de la información

AjustarCompartirImprimirCitar

La teoría de la información es el estudio científico de la cuantificación, el almacenamiento y la comunicación de la información digital. El campo fue establecido fundamentalmente por los trabajos de Harry Nyquist y Ralph Hartley, en la década de 1920, y Claude Shannon en la década de 1940. El campo se encuentra en la intersección de la teoría de la probabilidad, la estadística, la informática, la mecánica estadística, la ingeniería de la información y la ingeniería eléctrica.

Una medida clave en la teoría de la información es la entropía. La entropía cuantifica la cantidad de incertidumbre involucrada en el valor de una variable aleatoria o el resultado de un proceso aleatorio. Por ejemplo, identificar el resultado de un lanzamiento de moneda justo (con dos resultados igualmente probables) proporciona menos información (menor entropía) que especificar el resultado de una tirada de dados (con seis resultados igualmente probables). Algunas otras medidas importantes en la teoría de la información son la información mutua, la capacidad del canal, los exponentes de error y la entropía relativa. Los subcampos importantes de la teoría de la información incluyen la codificación de fuentes, la teoría de la complejidad algorítmica, la teoría de la información algorítmica y la seguridad teórica de la información.

Las aplicaciones de los temas fundamentales de la teoría de la información incluyen la codificación de fuentes/compresión de datos (p. ej., para archivos ZIP) y la codificación de canales/detección y corrección de errores (p. ej., para DSL). Su impacto ha sido crucial para el éxito de las misiones Voyager al espacio exterior, la invención del disco compacto, la viabilidad de los teléfonos móviles y el desarrollo de Internet. La teoría también ha encontrado aplicaciones en otras áreas, incluida la inferencia estadística, la criptografía, la neurobiología, la percepción, la lingüística, la evolución y función de los códigos moleculares (bioinformática), física térmica, dinámica molecular, computación cuántica, agujeros negros, recuperación de información, recopilación de inteligencia., detección de plagio,reconocimiento de patrones, detección de anomalías e incluso creación de arte.

Visión de conjunto

La teoría de la información estudia la transmisión, el procesamiento, la extracción y la utilización de la información. De manera abstracta, la información puede ser pensada como la resolución de la incertidumbre. En el caso de la comunicación de información a través de un canal ruidoso, este concepto abstracto fue formalizado en 1948 por Claude Shannon en un artículo titulado A Mathematical Theory of Communication., en el que la información se concibe como un conjunto de posibles mensajes, y el objetivo es enviar estos mensajes a través de un canal ruidoso y hacer que el receptor reconstruya el mensaje con baja probabilidad de error, a pesar del ruido del canal. El resultado principal de Shannon, el teorema de codificación de canales ruidosos, mostró que, en el límite de muchos usos de canales, la tasa de información que se puede lograr asintóticamente es igual a la capacidad del canal, una cantidad que depende simplemente de las estadísticas del canal sobre el cual se transmiten los mensajes. se envían.

La teoría de la codificación se ocupa de encontrar métodos explícitos, llamados códigos, para aumentar la eficiencia y reducir la tasa de error de la comunicación de datos a través de canales ruidosos hasta cerca de la capacidad del canal. Estos códigos se pueden subdividir aproximadamente en técnicas de compresión de datos (codificación de fuente) y corrección de errores (codificación de canal). En este último caso, se necesitaron muchos años para encontrar los métodos que el trabajo de Shannon demostró que eran posibles.

Una tercera clase de códigos de teoría de la información son los algoritmos criptográficos (tanto códigos como cifrados). Los conceptos, métodos y resultados de la teoría de la codificación y la teoría de la información se utilizan ampliamente en criptografía y criptoanálisis. Consulte el artículo prohibición (unidad) para una aplicación histórica.

Antecedentes históricos

El evento histórico que estableció la disciplina de la teoría de la información y la trajo a la atención mundial inmediata fue la publicación del artículo clásico de Claude E. Shannon "A Mathematical Theory of Communication" en el Bell System Technical Journal en julio y octubre de 1948.

Antes de este documento, se habían desarrollado ideas limitadas de teoría de la información en Bell Labs, todas asumiendo implícitamente eventos de igual probabilidad. El artículo de Harry Nyquist de 1924, Ciertos factores que afectan a la velocidad del telégrafo, contiene una sección teórica que cuantifica la "inteligencia" y la "velocidad de la línea" a la que puede ser transmitida por un sistema de comunicación, dando la relación W = K log m (recordando la constante de Boltzmann), donde W es la velocidad de transmisión de inteligencia, m es el número de niveles de voltaje diferentes para elegir en cada paso de tiempo y K es una constante. Documento de Ralph Hartley de 1928, Transmisión de información, utiliza la palabra información como una cantidad medible, lo que refleja la capacidad del receptor para distinguir una secuencia de símbolos de cualquier otra, cuantificando así la información como H = log S = n log S, donde S es el número de símbolos posibles y n el número de símbolos en una transmisión. La unidad de información era, por tanto, el dígito decimal, que desde entonces se ha denominado en ocasiones hartley en su honor como unidad, escala o medida de información. Alan Turing en 1940 usó ideas similares como parte del análisis estadístico de la ruptura de los cifrados Enigma de la Segunda Guerra Mundial alemana.

Gran parte de las matemáticas detrás de la teoría de la información con eventos de diferentes probabilidades fueron desarrolladas para el campo de la termodinámica por Ludwig Boltzmann y J. Willard Gibbs. Las conexiones entre la entropía teórica de la información y la entropía termodinámica, incluidas las importantes contribuciones de Rolf Landauer en la década de 1960, se exploran en Entropía en termodinámica y teoría de la información.

En el artículo revolucionario e innovador de Shannon, cuyo trabajo se completó sustancialmente en Bell Labs a fines de 1944, Shannon introdujo por primera vez el modelo cualitativo y cuantitativo de la comunicación como un proceso estadístico subyacente a la teoría de la información, comenzando con la afirmación:"El problema fundamental de la comunicación es el de reproducir en un punto, ya sea de forma exacta o aproximada, un mensaje seleccionado en otro punto".

Con él llegaron las ideas de

  • la entropía y redundancia de la información de una fuente, y su relevancia a través del teorema de codificación de la fuente;
  • la información mutua y la capacidad del canal de un canal ruidoso, incluida la promesa de una comunicación perfecta sin pérdidas dada por el teorema de codificación del canal ruidoso;
  • el resultado práctico de la ley de Shannon-Hartley para la capacidad del canal de un canal gaussiano; así como
  • el bit: una nueva forma de ver la unidad de información más fundamental.

Cantidades de información

La teoría de la información se basa en la teoría de la probabilidad y la estadística. La teoría de la información a menudo se ocupa de las medidas de información de las distribuciones asociadas con variables aleatorias. Cantidades importantes de información son la entropía, una medida de información en una sola variable aleatoria, y la información mutua, una medida de información en común entre dos variables aleatorias. La primera cantidad es una propiedad de la distribución de probabilidad de una variable aleatoria y establece un límite en la velocidad a la que se pueden comprimir de manera confiable los datos generados por muestras independientes con la distribución dada. Esta última es una propiedad de la distribución conjunta de dos variables aleatorias y es la tasa máxima de comunicación confiable a través de un canal ruidoso en el límite de longitudes de bloque largas, cuando las estadísticas del canal están determinadas por la distribución conjunta.

La elección de la base logarítmica en las siguientes fórmulas determina la unidad de entropía de información que se utiliza. Una unidad común de información es el bit, basado en el logaritmo binario. Otras unidades incluyen el nat, que se basa en el logaritmo natural, y el dígito decimal, que se basa en el logaritmo común.

En lo que sigue, una expresión de la forma p log p se considera por convención igual a cero siempre que p = 0. Esto se justifica porque lim _{prightarrow 0+}plog p=0para cualquier base logarítmica.

Entropía de una fuente de información

Con base en la función de masa de probabilidad de cada símbolo fuente que se va a comunicar, la entropía de Shannon H, en unidades de bits (por símbolo), viene dada por{displaystyle H=-sum_{i}p_{i}log_{2}(p_{i})}

donde p i es la probabilidad de ocurrencia del i -ésimo valor posible del símbolo fuente. Esta ecuación da la entropía en unidades de "bits" (por símbolo) porque usa un logaritmo de base 2, y esta medida de entropía de base 2 a veces se ha llamado shannon en su honor. La entropía también se calcula comúnmente usando el logaritmo natural (base e, donde e es el número de Euler), lo que produce una medida de entropía en nats por símbolo y, a veces, simplifica el análisis al evitar la necesidad de incluir constantes adicionales en las fórmulas. También son posibles otras bases, pero se usan con menos frecuencia. Por ejemplo, un logaritmo de base 2 = 256producirá una medida en bytes por símbolo, y un logaritmo de base 10 producirá una medida en dígitos decimales (o hartleys) por símbolo.

Intuitivamente, la entropía H X de una variable aleatoria discreta X es una medida de la cantidad de incertidumbre asociada con el valor de X cuando solo se conoce su distribución.

La entropía de una fuente que emite una secuencia de N símbolos independientes e idénticamente distribuidos (iid) es NH bits (por mensaje de N símbolos). Si los símbolos de datos de origen están distribuidos de manera idéntica pero no son independientes, la entropía de un mensaje de longitud N será menor que NH.

Si uno transmite 1000 bits (0 y 1), y el receptor conoce el valor de cada uno de estos bits (tiene un valor específico con certeza) antes de la transmisión, está claro que no se transmite información. Sin embargo, si cada bit tiene la misma probabilidad de ser 0 o 1 de forma independiente, se habrán transmitido 1000 shannons de información (más a menudo llamados bits). Entre estos dos extremos, la información se puede cuantificar de la siguiente manera. Si matemáticas {X}es el conjunto de todos los mensajes { x 1,..., x n } que X podría ser, y p (x) es la probabilidad de algunos xen mathbb {X}, entonces la entropía, H, de X se define:H(X)=mathbb {E} _{X}[I(x)]=-sum _{xin mathbb {X} }p(x)log p(x).

(Aquí, I (x) es la autoinformación, que es la contribución de entropía de un mensaje individual y { estilo de visualización  mathbb {E} _ {X}}es el valor esperado). Una propiedad de la entropía es que se maximiza cuando todos los mensajes en el espacio de mensajes son equiprobables p (x) = 1/ norte; es decir, más impredecible, en cuyo caso H (X) = log n.

El caso especial de entropía de información para una variable aleatoria con dos resultados es la función de entropía binaria, normalmente llevada al logarítmico base 2, teniendo así el shannon (Sh) como unidad:H_{mathrm {b} }(p)=-plog _{2}p-(1-p)log _{2}(1-p).

Entropía conjunta

La entropía conjunta de dos variables aleatorias discretas X e Y es simplemente la entropía de su emparejamiento: (X, Y). Esto implica que si X e Y son independientes, entonces su entropía conjunta es la suma de sus entropías individuales.

Por ejemplo, si (X, Y) representa la posición de una pieza de ajedrez, X la fila y Y la columna, entonces la entropía conjunta de la fila de la pieza y la columna de la pieza será la entropía de la posición de la pieza. pedazo.H(X,Y)=mathbb {E} _{X,Y}[-log p(x,y)]=-sum _{x,y}p(x,y)log p(x,y),

A pesar de una notación similar, la entropía conjunta no debe confundirse con la entropía cruzada.

Entropía condicional (equivocación)

La entropía condicional o la incertidumbre condicional de X dada la variable aleatoria Y (también llamada equívoco de X sobre Y) es la entropía condicional promedio sobre Y:{displaystyle H(X|Y)=mathbb {E}_{Y}[H(X|y)]=-sum_{yin Y}p(y)sum_{xin X }p(x|y)log p(x|y)=-sum _{x,y}p(x,y)log p(x|y).}

Debido a que la entropía puede estar condicionada a una variable aleatoria o a que esa variable aleatoria tenga un cierto valor, se debe tener cuidado de no confundir estas dos definiciones de entropía condicional, la primera de las cuales es de uso más común. Una propiedad básica de esta forma de entropía condicional es que:H(X|Y)=H(X,Y)-H(Y).,

Información mutua (transinformación)

La información mutua mide la cantidad de información que se puede obtener sobre una variable aleatoria al observar otra. Es importante en la comunicación donde se puede utilizar para maximizar la cantidad de información compartida entre las señales enviadas y recibidas. La información mutua de X relativa a Y viene dada por:I(X;Y)=mathbb {E} _{X,Y}[SI(x,y)]=sum _{x,y}p(x,y)log {frac {p(x),y)}{p(x),p(y)}}

donde SI (Información mutua específica) es la información mutua puntual.

Una propiedad básica de la información mutua es queI(X;Y)=H(X)-H(X|Y).,

Es decir, conociendo Y, podemos ahorrar un promedio de I (X; Y) bits al codificar X en comparación con no conocer Y.

La información mutua es simétrica:I(X;Y)=I(Y;X)=H(X)+H(Y)-H(X,Y).,

La información mutua se puede expresar como la divergencia promedio de Kullback-Leibler (ganancia de información) entre la distribución de probabilidad posterior de X dado el valor de Y y la distribución previa en X:I(X;Y)=mathbb {E} _{p(y)}[D_{mathrm {KL} }(p(X|Y=y)|p(X))].

En otras palabras, esta es una medida de cuánto, en promedio, cambiará la distribución de probabilidad en X si se nos da el valor de Y. Esto a menudo se vuelve a calcular como la divergencia del producto de las distribuciones marginales a la distribución conjunta real:I(X;Y)=D_{mathrm {KL} }(p(X,Y)|p(X)p(Y)).

La información mutua está estrechamente relacionada con la prueba de razón de verosimilitud logarítmica en el contexto de las tablas de contingencia y la distribución multinomial y con la prueba χ de Pearson: la información mutua puede considerarse una estadística para evaluar la independencia entre un par de variables, y tiene un distribución asintótica.

Divergencia Kullback-Leibler (ganancia de información)

La divergencia de Kullback-Leibler (o divergencia de información, ganancia de información o entropía relativa) es una forma de comparar dos distribuciones: una distribución de probabilidad "verdadera" p(X)y una distribución de probabilidad arbitraria { estilo de visualización q (X)}. Si comprimimos los datos de una manera que asume que { estilo de visualización q (X)}es la distribución subyacente a algunos datos, cuando en realidad p(X)es la distribución correcta, la divergencia de Kullback-Leibler es el número de bits adicionales promedio por dato necesarios para la compresión. Así se defineD_{mathrm {KL} }(p(X)|q(X))=sum _{xin X}-p(x)log {q(x)},-,sum _{xin X}-p(x)log {p(x)}=sum_{xin X}p(x)log {frac {p(x)}{q(x) }}.

Aunque a veces se usa como una "métrica de distancia", la divergencia KL no es una verdadera métrica, ya que no es simétrica y no satisface la desigualdad del triángulo (lo que la convierte en semicuasimétrica).

Otra interpretación de la divergencia KL es la "sorpresa innecesaria" introducida por un prior de la verdad: supongamos que un número X está a punto de ser extraído aleatoriamente de un conjunto discreto con distribución de probabilidad p(x). Si Alice conoce la verdadera distribución p(x), mientras que Bob cree (tiene una previa) que la distribución es q(x), entonces Bob se sorprenderá más que Alice, en promedio, al ver el valor de X. La divergencia KL es el valor esperado (objetivo) de la sorpresa (subjetiva) de Bob menos la sorpresa de Alice, medida en bits si el logaritmo está en base 2. De esta manera, la medida en que la previa de Bob es "incorrecta" se puede cuantificar en términos de cuán "innecesariamente sorprendido" se espera que lo haga.

Otras cantidades

Otras cantidades teóricas de información importantes incluyen la entropía de Rényi (una generalización de la entropía), la entropía diferencial (una generalización de cantidades de información a distribuciones continuas) y la información mutua condicional.

Teoría de la codificación

La teoría de la codificación es una de las aplicaciones más importantes y directas de la teoría de la información. Se puede subdividir en teoría de codificación de fuente y teoría de codificación de canal. Utilizando una descripción estadística de los datos, la teoría de la información cuantifica el número de bits necesarios para describir los datos, que es la entropía de la información de la fuente.

  • Compresión de datos (codificación fuente): Hay dos formulaciones para el problema de compresión:
    • compresión de datos sin pérdidas: los datos deben reconstruirse exactamente;
    • Compresión de datos con pérdida: asigna los bits necesarios para reconstruir los datos, dentro de un nivel de fidelidad específico medido por una función de distorsión. Este subconjunto de la teoría de la información se denomina teoría de distorsión de velocidad.
  • Códigos de corrección de errores (codificación de canales): mientras que la compresión de datos elimina la mayor cantidad de redundancia posible, un código de corrección de errores agrega el tipo correcto de redundancia (es decir, corrección de errores) necesaria para transmitir los datos de manera eficiente y fiel a través de un canal ruidoso.

Esta división de la teoría de la codificación en compresión y transmisión está justificada por los teoremas de transmisión de información o los teoremas de separación fuente-canal que justifican el uso de bits como moneda universal para la información en muchos contextos. Sin embargo, estos teoremas solo se cumplen en la situación en la que un usuario transmisor desea comunicarse con un usuario receptor. En escenarios con más de un transmisor (el canal de acceso múltiple), más de un receptor (el canal de transmisión) o "ayudantes" intermediarios (el canal de retransmisión) o redes más generales, la compresión seguida de transmisión puede no ser óptima. La teoría de la información de red se refiere a estos modelos de comunicación multiagente.

Teoría de la fuente

Cualquier proceso que genera mensajes sucesivos puede ser considerado una fuente de información. Una fuente sin memoria es aquella en la que cada mensaje es una variable aleatoria independiente distribuida idénticamente, mientras que las propiedades de ergodicidad y estacionariedad imponen restricciones menos restrictivas. Todas estas fuentes son estocásticas. Estos términos están bien estudiados por derecho propio fuera de la teoría de la información.

Velocidad

La tasa de información es la entropía promedio por símbolo. Para fuentes sin memoria, esto es simplemente la entropía de cada símbolo, mientras que, en el caso de un proceso estocástico estacionario, esr=lim _{nto infty }H(X_{n}|X_{n-1},X_{n-2},X_{n-3},ldots);

es decir, la entropía condicional de un símbolo dados todos los símbolos anteriores generados. Para el caso más general de un proceso que no es necesariamente estacionario, la tasa promedio esr=lim _{nto infty }{frac {1}{n}}H(X_{1},X_{2},dots X_{n});

es decir, el límite de la entropía conjunta por símbolo. Para fuentes estacionarias, estas dos expresiones dan el mismo resultado.

La tasa de información se define como{displaystyle r=lim _{nto infty }{frac {1}{n}}I(X_{1},X_{2},dots X_{n};Y_{1},Y_ {2},puntos Y_{n});}

Es común en la teoría de la información hablar de la "tasa" o "entropía" de un lenguaje. Esto es apropiado, por ejemplo, cuando la fuente de información es la prosa en inglés. La tasa de una fuente de información está relacionada con su redundancia y qué tan bien se puede comprimir, el tema de la codificación de la fuente.

Capacidad del canal

Las comunicaciones a través de un canal son la principal motivación de la teoría de la información. Sin embargo, los canales a menudo no logran producir una reconstrucción exacta de una señal; el ruido, los períodos de silencio y otras formas de corrupción de la señal a menudo degradan la calidad.

Considere el proceso de comunicaciones a través de un canal discreto. Un modelo simple del proceso se muestra a continuación:{displaystyle {xrightarrow[{text{Mensaje}}]{W}}{begin{array}{|c|  }hline {text{Codificador}}\f_{n}\hline end{array}}{xrightarrow[{mathrm {Codificado atop secuencia} }]{X^{n}}}{ begin{matriz}{|c|  }hline {text{Channel}}\p(y|x)\hline end{array}}{xrightarrow[{mathrm {Recibido sobre la secuencia} }]{Y^{n}} }{begin{matriz}{|c|  }hline {text{Decodificador}}\g_{n}\hline end{array}}{xrightarrow[{mathrm {Estimado sobre el mensaje} }]{hat {W}}}}

Aquí X representa el espacio de mensajes transmitidos e Y el espacio de mensajes recibidos durante una unidad de tiempo sobre nuestro canal. Sea p (y | x) la función de distribución de probabilidad condicional de Y dada X. Consideraremos p (y | x) como una propiedad fija inherente de nuestro canal de comunicaciones (que representa la naturaleza del ruido de nuestro canal). Entonces la distribución conjunta de X e Y está completamente determinada por nuestro canal y por nuestra elección de f (x), la distribución marginal de los mensajes que elegimos enviar por el canal. Bajo estas restricciones, nos gustaría maximizar la tasa de información, o la señal, que podemos comunicar a través del canal. La medida adecuada para esto es la información mutua, y esta información mutua máxima se denomina capacidad del canal y viene dada por:C=max _{f}I(X;Y).!

Esta capacidad tiene la siguiente propiedad relacionada con la comunicación a la velocidad de información R (donde R suele ser bits por símbolo). Para cualquier tasa de información R < C y error de codificación ε > 0, para N suficientemente grande, existe un código de longitud N y tasa ≥ R y un algoritmo de decodificación, tal que la probabilidad máxima de error de bloque es ≤ ε; es decir, siempre es posible transmitir con un error de bloque arbitrariamente pequeño. Además, para cualquier tasa R > C, es imposible transmitir con un error de bloque arbitrariamente pequeño.

La codificación de canales se ocupa de encontrar códigos casi óptimos que puedan usarse para transmitir datos a través de un canal ruidoso con un pequeño error de codificación a una velocidad cercana a la capacidad del canal.

Capacidad de modelos de canales particulares

  • Un canal de comunicaciones analógico de tiempo continuo sujeto a ruido gaussiano; consulte el teorema de Shannon-Hartley.
  • Un canal simétrico binario (BSC) con probabilidad de cruce p es un canal de entrada binaria, salida binaria que invierte el bit de entrada con probabilidad p. El BSC tiene una capacidad de 1 − H b (p) bits por uso de canal, donde H b es la función de entropía binaria al logaritmo en base 2:

Canal simétrico binario.svg

  • Un canal de borrado binario (BEC) con probabilidad de borrado p es una entrada binaria, un canal de salida ternario. Las posibles salidas de canal son 0, 1 y un tercer símbolo 'e' llamado borrado. El borrado representa la pérdida completa de información sobre un bit de entrada. La capacidad del BEC es de 1 − p bits por uso de canal.

Canal de borrado binario.svg

Canales con memoria e información dirigida

En la práctica, muchos canales tienen memoria. Es decir, en el momento en que iel canal viene dado por la probabilidad condicional {displaystyle P(y_{i}|x_{i},x_{i-1},x_{1-2},...,x_{1},y_{i-1},y_{1-2 },...,y_{1}).}. A menudo es más cómodo usar la notación { estilo de visualización x^{i}=(x_{i},x_{i-1},x_{1-2},...,x_{1})}y el canal se convierte en {displaystyle P(y_{i}|x^{i},y^{i-1}).}. En tal caso la capacidad viene dada por la tasa de información mutua cuando no hay retroalimentación disponible y la tasa de información Dirigida en el caso de que haya o no retroalimentación (si no hay retroalimentación la información dirigida es igual a la información mutua).

Aplicaciones a otros campos

Usos de la inteligencia y aplicaciones del secreto

Los conceptos de la teoría de la información se aplican a la criptografía y el criptoanálisis. La unidad de información de Turing, la prohibición, se utilizó en el proyecto Ultra, rompiendo el código de máquina alemán Enigma y acelerando el final de la Segunda Guerra Mundial en Europa. El propio Shannon definió un concepto importante que ahora se llama distancia de unicidad. Basado en la redundancia del texto sin formato, intenta brindar una cantidad mínima de texto cifrado necesaria para garantizar una capacidad de descifrado única.

La teoría de la información nos lleva a creer que es mucho más difícil guardar secretos de lo que parece a primera vista. Un ataque de fuerza bruta puede romper sistemas basados ​​en algoritmos de clave asimétrica o en los métodos más utilizados de algoritmos de clave simétrica (a veces llamados algoritmos de clave secreta), como cifrados de bloque. La seguridad de todos estos métodos actualmente proviene de la suposición de que ningún ataque conocido puede romperlos en una cantidad de tiempo práctica.

La seguridad teórica de la información se refiere a métodos como el one-time pad que no son vulnerables a este tipo de ataques de fuerza bruta. En tales casos, la información mutua condicional positiva entre el texto sin formato y el texto cifrado (condicionada en la clave) puede garantizar una transmisión adecuada, mientras que la información mutua incondicional entre el texto sin formato y el texto cifrado sigue siendo cero, lo que da como resultado comunicaciones absolutamente seguras. En otras palabras, un intruso no sería capaz de mejorar su suposición del texto sin formato obteniendo conocimiento del texto cifrado pero no de la clave. Sin embargo, como en cualquier otro sistema criptográfico, se debe tener cuidado para aplicar correctamente incluso los métodos teóricamente seguros de la información; el proyecto Venona pudo descifrar las libretas de un solo uso de la Unión Soviética debido a la reutilización incorrecta del material clave.

Generación de números pseudoaleatorios

Los generadores de números pseudoaleatorios están ampliamente disponibles en bibliotecas de lenguajes informáticos y programas de aplicación. Son, casi universalmente, inadecuados para el uso criptográfico, ya que no eluden la naturaleza determinista del software y los equipos informáticos modernos. Una clase de generadores de números aleatorios mejorados se denomina generadores de números pseudoaleatorios criptográficamente seguros, pero incluso ellos requieren semillas aleatorias externas al software para funcionar según lo previsto. Estos se pueden obtener a través de extractores, si se hace con cuidado. La medida de aleatoriedad suficiente en extractores es min-entropía, un valor relacionado con la entropía de Shannon a través de la entropía de Rényi; La entropía de Rényi también se utiliza para evaluar la aleatoriedad en los sistemas criptográficos. Aunque relacionado,

Exploración sísmica

Una de las primeras aplicaciones comerciales de la teoría de la información fue en el campo de la exploración sísmica de petróleo. El trabajo en este campo permitió despojar y separar el ruido no deseado de la señal sísmica deseada. La teoría de la información y el procesamiento de señales digitales ofrecen una mejora importante de la resolución y la claridad de la imagen con respecto a los métodos analógicos anteriores.

Semiótica

Los semióticos Doede Nauta y Winfried Nöth consideraron que Charles Sanders Peirce había creado una teoría de la información en sus trabajos sobre semiótica. Nauta definió la teoría semiótica de la información como el estudio de "los procesos internos de codificación, filtrado y procesamiento de la información".

Semióticos como Umberto Eco y Ferruccio Rossi-Landi han utilizado conceptos de la teoría de la información como la redundancia y el control del código para explicar la ideología como una forma de transmisión de mensajes mediante la cual una clase social dominante emite su mensaje mediante signos que muestran un alto grado de Redundancia tal que solo se decodifica un mensaje entre una selección de mensajes en competencia.

Aplicaciones misceláneas

La teoría de la información también tiene aplicaciones en los juegos de azar, los agujeros negros y la bioinformática.

Contenido relacionado

NP (complejidad)

ABC (lenguaje de programación)

ABC es un lenguaje de programación imperativo de propósito general y un entorno de desarrollo integrado desarrollado en Centrum Wiskunde &amp; Informatica...

Mach (núcleo)

Más resultados...