8 relaciones: Bit, Distribución de probabilidad, Entropía, Entropía cruzada, Modelación del lenguaje, Procesamiento de lenguajes naturales, Teoría de la información, Variable aleatoria.
Bit
En informática o teoría de la información, el bit corresponde a un dígito del sistema de numeración binario y representa la unidad mínima de información.
¡Nuevo!!: Perplejidad y Bit · Ver más »
Distribución de probabilidad
En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable, la probabilidad de que dicho suceso ocurra.
¡Nuevo!!: Perplejidad y Distribución de probabilidad · Ver más »
Entropía
En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio.
¡Nuevo!!: Perplejidad y Entropía · Ver más »
Entropía cruzada
En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide el número medio de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada q, más que en la verdadera distribución p. La entropía cruzada para dos distribuciones p y q sobre el mismo espacio de probabilidad se define como sigue: donde H(p) es la entropía de p, y D_(p || q) es la divergencia de Kullback-Leibler entre q y p (también conocida como entropía relativa).
¡Nuevo!!: Perplejidad y Entropía cruzada · Ver más »
Modelación del lenguaje
Un modelo estadístico de lenguaje asigna una probabilidad a una secuencia de m palabras P(w_1,\ldots,w_m) mediante una distribución de probabilidad.
¡Nuevo!!: Perplejidad y Modelación del lenguaje · Ver más »
Procesamiento de lenguajes naturales
El procesamiento de(l) lenguaje natural o de lengua(je)s naturales, abreviado PLN (o NLP por sus siglas en inglés), es un campo de las ciencias de la computación, de la inteligencia artificial y de la lingüística que estudia las interacciones entre las computadoras y el lenguaje humano, así como los detalles computacionales de las lenguas naturales.
¡Nuevo!!: Perplejidad y Procesamiento de lenguajes naturales · Ver más »
Teoría de la información
La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.
¡Nuevo!!: Perplejidad y Teoría de la información · Ver más »
Variable aleatoria
En probabilidad y estadística, una variable aleatoria es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio.
¡Nuevo!!: Perplejidad y Variable aleatoria · Ver más »