Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Descargar
¡Más rápido que el navegador!
 

Entropía condicional

Índice Entropía condicional

La entropía condicional es una extensión del concepto de entropía de la información a procesos donde intervienen varias variables aleatorias no necesariamente independientes.

3 relaciones: Azar, Entropía (información), Independencia (probabilidad).

Azar

El azar es una casualidad presente, teóricamente, en diversos fenómenos que se caracterizan por causas complejas, no lineales y sobre todo que no parecen ser predictibles en todos sus detalles.

¡Nuevo!!: Entropía condicional y Azar · Ver más »

Entropía (información)

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

¡Nuevo!!: Entropía condicional y Entropía (información) · Ver más »

Independencia (probabilidad)

En teoría de probabilidades, se dice que dos sucesos aleatorios son independientes entre sí cuando la probabilidad de cada uno de ellos no está influida porque el otro suceso ocurra o no, es decir, cuando ambos sucesos no están relacionados.

¡Nuevo!!: Entropía condicional e Independencia (probabilidad) · Ver más »

Redirecciona aquí:

Entropia condicional.

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »