Entropía conjunta

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Un diagrama de Venn engañoso que muestra relaciones aditivas y subtractivas entre diversas medidas de información asociadas con variables correlativas X y Y. El área contenida por ambos círculos es la entropía conjunta H(X,Y). El círculo a la izquierda (rojo y violeta) es la entropía individual H(X), siendo el rojo la entropía condicional H(X habitY). El círculo a la derecha (azul y violeta) es H(Y), siendo el azul H(Y eternaX). El violeta es la información mutua I(X;Y).

En teoría de la información, la entropía conjunta es una medida de la incertidumbre asociada con un conjunto de variables.

Definición

La entropía conjunta Shannon (en bits) de dos variables discretas al azar y con imágenes y se define como

()Eq.1)

Donde y son valores particulares y , respectivamente, es la probabilidad conjunta de que estos valores ocurran juntos, y se define a ser 0 si .

Para más de dos variables aleatorias esto se expande a

()Eq.2)

Donde son valores particulares , respectivamente, es la probabilidad de que estos valores ocurran juntos, y se define a ser 0 si .

Propiedades

No negatividad

La entropía conjunta de un conjunto de variables aleatorias es un número no negativo.

Entropías mayores que las individuales

La entropía conjunta de un conjunto de variables es mayor o igual al máximo de todas las entropías individuales de las variables en el conjunto.

Menor o igual a la suma de entropías individuales

La entropía conjunta de un conjunto de variables es inferior o igual a la suma de las entropías individuales de las variables en el conjunto. Este es un ejemplo de subadditividad. Esta desigualdad es una igualdad si y sólo si y son estadísticamente independientes.

Relaciones con otras medidas de entropía

La entropía conjunta se utiliza en la definición de entropía condicional.

,

y

En la teoría de la información cuántica, la entropía articular se generaliza en la entropía cuántica conjunta.

Entropía diferencial conjunta

Definición

La definición anterior es para variables discretas al azar y tan válidas en el caso de variables continuas al azar. La versión continua de la entropía articular discreta se llama entropía diferencial (o continua). Vamos. y ser una variable aleatoria continua con una función de densidad de probabilidad articular . La entropía articular diferencial se define como

()Eq.3)

Para más de dos variables aleatorias continuas la definición se generaliza para:

()Eq.4)

La integral se hace cargo del apoyo de . Es posible que la integral no exista en cuyo caso decimos que la entropía diferencial no se define.

Propiedades

Como en el caso discreto, la entropía diferencial conjunta de un conjunto de variables aleatorias es menor o igual que la suma de las entropías de las variables aleatorias individuales:

La siguiente regla de cadena es válida para dos variables aleatorias:

En el caso de más de dos variables aleatorias, esto generaliza:

La entropía diferencial conjunta también se utiliza en la definición de la información mutua entre variables aleatorias continuas:

Contenido relacionado

La brújula política

The Political Compass es un sitio web que utiliza respuestas a un conjunto de 62 proposiciones para calificar la ideología política en un espectro político...

Modelo nórdico

El modelo nórdico comprende las políticas económicas y sociales, así como las prácticas culturales típicas comunes a los países nórdicos (Dinamarca...

Emprendedor político

Un emprendedor político es un líder de otro sector, que se introduce en la política para generar cambios en políticas públicas o abanderar causas poco...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save