Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Gratis
¡Más rápido que el navegador!
 

Información mutua

Índice Información mutua

En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación o ganancia de información de dos variables aleatorias es una cantidad que mide la dependencia estadística entre ambas variables.

24 relaciones: Bicondicional, Bit, Cantidad, Claude Shannon, Coeficiente de correlación de Pearson, Continuo, Distribución conjunta, Distribución marginal, Divergencia de Kullback-Leibler, Entropía, Entropía (información), Esperanza (matemática), Integral múltiple, Logaritmo, Matemáticas, Número real, Prueba χ² de Pearson, Punto de información mutua, Robert Fano, Teoría de la información, Teoría de la probabilidad, Una teoría matemática de la comunicación, Unidad de medida, Variable aleatoria.

Bicondicional

En algunos contextos en matemáticas y lógica, un bicondicional (equivalencia o doble implicación, en ocasiones abreviado en español como si y solo si) es un operador lógico binario, es decir, una función \leftrightarrow: B \times B \rightarrow B, siendo B cualquier conjunto con |B|.

¡Nuevo!!: Información mutua y Bicondicional · Ver más »

Bit

En informática o teoría de la información, el bit corresponde a un dígito del sistema de numeración binario y representa la unidad mínima de información.

¡Nuevo!!: Información mutua y Bit · Ver más »

Cantidad

Una cantidad (del vocablo latino quantĭtas, -ātis, y este del griego ποσότης —posótēs— que se refiere a ‘cuánto’ o ‘cuán grande’ en términos de grandeza, extensión, cantidad, magnitud y tamaño) es un valor, componente o número, susceptible de aumento o disminución, que se obtiene de una medida u operación de uno o varios entes que pueden ser medidos de manera exacta o aproximada.

¡Nuevo!!: Información mutua y Cantidad · Ver más »

Claude Shannon

Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información».

¡Nuevo!!: Información mutua y Claude Shannon · Ver más »

Coeficiente de correlación de Pearson

En estadística, el coeficiente de correlación de Pearson es una medida de dependencia lineal entre dos variables aleatorias cuantitativas.

¡Nuevo!!: Información mutua y Coeficiente de correlación de Pearson · Ver más »

Continuo

La palabra continuo (sin tilde) proviene del latín continŭus.

¡Nuevo!!: Información mutua y Continuo · Ver más »

Distribución conjunta

En probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta de X e Y es la distribución de probabilidad de la intersección de eventos de X e Y, esto es, de los eventos X e Y ocurriendo de forma simultánea.

¡Nuevo!!: Información mutua y Distribución conjunta · Ver más »

Distribución marginal

En teoría de probabilidades, la distribución marginal es la distribución de probabilidad de un subconjunto de variables aleatorias de un conjunto de variables aleatorias.

¡Nuevo!!: Información mutua y Distribución marginal · Ver más »

Divergencia de Kullback-Leibler

En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL) (también conocida como divergencia de la información, ganancia de la información, entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica.

¡Nuevo!!: Información mutua y Divergencia de Kullback-Leibler · Ver más »

Entropía

En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio.

¡Nuevo!!: Información mutua y Entropía · Ver más »

Entropía (información)

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

¡Nuevo!!: Información mutua y Entropía (información) · Ver más »

Esperanza (matemática)

En matemática, concretamente en la rama de estadística, la esperanza (denominada asimismo valor esperado, media poblacional o media) de una variable aleatoria X, es el número \mathbb o \text que formaliza la idea de valor medio de un fenómeno aleatorio.

¡Nuevo!!: Información mutua y Esperanza (matemática) · Ver más »

Integral múltiple

En matemáticas, específicamente en cálculo multivariable, una integral múltiple es un tipo de integral definida de una función de varias variables, por ejemplo, f(x,y) o f(x,y,z).

¡Nuevo!!: Información mutua e Integral múltiple · Ver más »

Logaritmo

Sin descripción.

¡Nuevo!!: Información mutua y Logaritmo · Ver más »

Matemáticas

Las matemáticas, o también la matemática, La palabra «matemáticas» no está en el Diccionario de la Real Academia Española.

¡Nuevo!!: Información mutua y Matemáticas · Ver más »

Número real

En matemáticas, el conjunto de los números reales (denotado por R o por ℝ) incluye tanto los números racionales (positivos, negativos y el cero) como los números irracionales; y en otro enfoque, a los trascendentes y a los algebraicos.

¡Nuevo!!: Información mutua y Número real · Ver más »

Prueba χ² de Pearson

La prueba χ² de Pearson se considera una prueba no paramétrica que mide la discrepancia entre una distribución observada y otra teórica (bondad de ajuste), indicando en qué medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hipótesis.

¡Nuevo!!: Información mutua y Prueba χ² de Pearson · Ver más »

Punto de información mutua

El Punto de Información Mutua (PIM) o Información Mutua Puntual, (IMP) (en inglés, Pointwise mutual information (PMI)),Kenneth Ward Church and Patrick Hanks (March 1990).

¡Nuevo!!: Información mutua y Punto de información mutua · Ver más »

Robert Fano

Roberto Mario "Robert" Fano (11 de noviembre de 1917-13 de julio de 2016) fue un informático italoestadounidense, profesor de ingeniería eléctrica y de ciencias de la computación en el Instituto de Tecnología de Massachusetts.

¡Nuevo!!: Información mutua y Robert Fano · Ver más »

Teoría de la información

La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.

¡Nuevo!!: Información mutua y Teoría de la información · Ver más »

Teoría de la probabilidad

La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos aleatorios y estocásticos.

¡Nuevo!!: Información mutua y Teoría de la probabilidad · Ver más »

Una teoría matemática de la comunicación

Una teoría matemática de la comunicación es un importante e influyente artículo ideado por Claude Elwood Shannon en 1948, conocido por ser «el padre de la teoría de la información».

¡Nuevo!!: Información mutua y Una teoría matemática de la comunicación · Ver más »

Unidad de medida

Una unidad de medida es una cantidad de una determinada magnitud física, definida y adoptada por convención o por ley.

¡Nuevo!!: Información mutua y Unidad de medida · Ver más »

Variable aleatoria

En probabilidad y estadística, una variable aleatoria es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio.

¡Nuevo!!: Información mutua y Variable aleatoria · Ver más »

Redirecciona aquí:

Informacion mutua.

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »