Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Gratis
¡Más rápido que el navegador!
 

Entropía (información)

Índice Entropía (información)

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

47 relaciones: Algoritmo de Huffman, Bit, Cadena de caracteres, Cantidad, Capacidad de canal, Código morse, Ciclo de Carnot, Cifrado (criptografía), Claude Shannon, Constante de Boltzmann, Criptoanálisis, Deflación (algoritmo), Distancia de unicidad, Distribución de probabilidad, Energía de Gibbs, Energía mecánica, Entropía, Entropía condicional, Entropía cruzada, Entropía de Rényi, Entropía de Tsallis, Fuente de información, Idioma español, Incertidumbre (metrología), Información mutua, Linealidad, Logaritmo neperiano, LZW, Mecánica estadística, Neguentropía, Perplejidad, Probabilidad condicionada, Proceso estocástico, Ratio de entropía, Ruido (comunicación), Segundo principio de la termodinámica, Seguridad entrópica, Seguridad informática, Signos de puntuación, Teoría de la información, Teorema de Bayes, Termodinámica, Una teoría matemática de la comunicación, Universidad Politécnica de Madrid, Variable (programación), Variable aleatoria, 1948.

Algoritmo de Huffman

El algoritmo de Huffman es un algoritmo para la construcción de códigos de Huffman, desarrollado por David A. Huffman en 1952 y descrito en A Method for the Construction of Minimum-Redundancy Codes.

¡Nuevo!!: Entropía (información) y Algoritmo de Huffman · Ver más »

Bit

En informática o teoría de la información, el bit corresponde a un dígito del sistema de numeración binario y representa la unidad mínima de información.

¡Nuevo!!: Entropía (información) y Bit · Ver más »

Cadena de caracteres

En programación, una cadena de caracteres, palabras, ristra de caracteres o frase (string, en inglés) es una secuencia ordenada (de longitud arbitraria, aunque finita) de elementos que pertenecen a un cierto lenguaje formal o alfabeto análogas a una fórmula o a una oración.

¡Nuevo!!: Entropía (información) y Cadena de caracteres · Ver más »

Cantidad

Una cantidad (del vocablo latino quantĭtas, -ātis, y este del griego ποσότης —posótēs— que se refiere a ‘cuánto’ o ‘cuán grande’ en términos de grandeza, extensión, cantidad, magnitud y tamaño) es un valor, componente o número, susceptible de aumento o disminución, que se obtiene de una medida u operación de uno o varios entes que pueden ser medidos de manera exacta o aproximada.

¡Nuevo!!: Entropía (información) y Cantidad · Ver más »

Capacidad de canal

En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad máxima de información que /s (bps).

¡Nuevo!!: Entropía (información) y Capacidad de canal · Ver más »

Código morse

El código morse, también conocido como alfabeto morse o clave morse es un sistema de representación de letras y números mediante señales emitidas de forma intermitente.

¡Nuevo!!: Entropía (información) y Código morse · Ver más »

Ciclo de Carnot

El ciclo de Carnot es un ciclo termodinámico que se produce en un equipo o máquina cuando trabaja absorbiendo una cantidad de calor Q1 de una fuente de mayor temperatura y cediendo un calor Q2 a la de menor temperatura produciendo un trabajo sobre el exterior.

¡Nuevo!!: Entropía (información) y Ciclo de Carnot · Ver más »

Cifrado (criptografía)

En criptografía, el cifrado es el proceso de codificación de la información.

¡Nuevo!!: Entropía (información) y Cifrado (criptografía) · Ver más »

Claude Shannon

Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información».

¡Nuevo!!: Entropía (información) y Claude Shannon · Ver más »

Constante de Boltzmann

La constante de Boltzmann es la constante física que relaciona temperatura absoluta y energía.

¡Nuevo!!: Entropía (información) y Constante de Boltzmann · Ver más »

Criptoanálisis

El criptoanálisis (del griego kryptós, 'escondido' y analýein, 'desatar') es la parte de la criptología que se dedica al estudio de sistemas criptográficos con el fin de encontrar debilidades en los sistemas y romper su seguridad sin el conocimiento de información secreta.

¡Nuevo!!: Entropía (información) y Criptoanálisis · Ver más »

Deflación (algoritmo)

En informática, el algoritmo deflación, en inglés denominado DEFLATE, es un algoritmo de compresión de datos sin pérdidas que usa una combinación del algoritmo LZ77 y la codificación Huffman.

¡Nuevo!!: Entropía (información) y Deflación (algoritmo) · Ver más »

Distancia de unicidad

Para un cifrador la distancia de unicidad, también llamada punto de unicidad, es el valor mínimo de caracteres del texto cifrado que se necesitan para reducir a una el número de claves posibles y, por tanto, romper el cifrado.

¡Nuevo!!: Entropía (información) y Distancia de unicidad · Ver más »

Distribución de probabilidad

En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable, la probabilidad de que dicho suceso ocurra.

¡Nuevo!!: Entropía (información) y Distribución de probabilidad · Ver más »

Energía de Gibbs

En termodinámica, la energía de Gibbs o función de Gibbs (nombre recomendado por IUPAC frente a energía libre de Gibbs; también conocida como entalpía libre para distinguirla de la energía libre de Helmholtz) es un potencial termodinámico que se puede usar para calcular el máximo de trabajo reversible que puede realizarse mediante un sistema termodinámico a una temperatura y presión constantes (isotérmica, isobárica).

¡Nuevo!!: Entropía (información) y Energía de Gibbs · Ver más »

Energía mecánica

La energía mecánica de un cuerpo o de un sistema físico es la suma de su energía cinética y la energía potencial.

¡Nuevo!!: Entropía (información) y Energía mecánica · Ver más »

Entropía

En termodinámica, la entropía (simbolizada como S) es una magnitud física para un sistema termodinámico en equilibrio.

¡Nuevo!!: Entropía (información) y Entropía · Ver más »

Entropía condicional

La entropía condicional es una extensión del concepto de entropía de la información a procesos donde intervienen varias variables aleatorias no necesariamente independientes.

¡Nuevo!!: Entropía (información) y Entropía condicional · Ver más »

Entropía cruzada

En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide el número medio de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada q, más que en la verdadera distribución p. La entropía cruzada para dos distribuciones p y q sobre el mismo espacio de probabilidad se define como sigue: donde H(p) es la entropía de p, y D_(p || q) es la divergencia de Kullback-Leibler entre q y p (también conocida como entropía relativa).

¡Nuevo!!: Entropía (información) y Entropía cruzada · Ver más »

Entropía de Rényi

En teoría de la información, la entropía de Rényi generaliza la entropía de Hartley, la entropía de Shannon, la entropía de colisión y la entropía min.

¡Nuevo!!: Entropía (información) y Entropía de Rényi · Ver más »

Entropía de Tsallis

En física, la entropía de Tsallis es una generalización de la entropía estándar de Boltzmann.

¡Nuevo!!: Entropía (información) y Entropía de Tsallis · Ver más »

Fuente de información

Se denominan fuentes de información, en teoría de la información y telecomunicación, a cualquier origen de información susceptible de ser representado mediante una señal analógica y/o digital.

¡Nuevo!!: Entropía (información) y Fuente de información · Ver más »

Idioma español

El español o castellano es una lengua romance procedente del latín hablado, perteneciente a la familia de lenguas indoeuropeas.

¡Nuevo!!: Entropía (información) e Idioma español · Ver más »

Incertidumbre (metrología)

Incertidumbre, en metrología, es una cota superior del valor de la corrección residual de la medida.

¡Nuevo!!: Entropía (información) e Incertidumbre (metrología) · Ver más »

Información mutua

En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación o ganancia de información de dos variables aleatorias es una cantidad que mide la dependencia estadística entre ambas variables.

¡Nuevo!!: Entropía (información) e Información mutua · Ver más »

Linealidad

En matemáticas, la linealidad se refiere a una propiedad abstracta definida tanto entre funciones como en espacios de cierto tipo, por la cual un objeto asociado a la suma de objetos puede ser expresado en términos de la suma de objetos asociados.

¡Nuevo!!: Entropía (información) y Linealidad · Ver más »

Logaritmo neperiano

El término logaritmo neperiano suele referirse informalmente al logaritmo natural, aunque esencialmente son conceptos distintos.

¡Nuevo!!: Entropía (información) y Logaritmo neperiano · Ver más »

LZW

El algoritmo de Lempel Ziv y Welch, o abreviadamente como mejor se le conoce Algoritmo LZW, es un algoritmo de compresión sin pérdida basado en diccionario, desarrollado por Terry Welch en 1984 bastante tiempo después que fuera publicado el algoritmo LZ78 del que es una versión mejorada, que a su vez era una mejora sustancialmente distinta del algoritmo LZ77.

¡Nuevo!!: Entropía (información) y LZW · Ver más »

Mecánica estadística

La mecánica estadística es una rama de la física que mediante la teoría de la probabilidad es capaz de deducir el comportamiento de los sistemas físicos macroscópicos constituidos por una cantidad estadísticamente significativa de componentes equivalentes a partir de ciertas hipótesis sobre los elementos o partículas que los conforman y sus interacciones mutuas.

¡Nuevo!!: Entropía (información) y Mecánica estadística · Ver más »

Neguentropía

La neguentropía, negentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida.

¡Nuevo!!: Entropía (información) y Neguentropía · Ver más »

Perplejidad

La perplejidad es una medida de cómo de bien una distribución de probabilidad o modelo de probabilidad predice una muestra.

¡Nuevo!!: Entropía (información) y Perplejidad · Ver más »

Probabilidad condicionada

Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B) o P(A/B), y se lee «la probabilidad de A dado B».

¡Nuevo!!: Entropía (información) y Probabilidad condicionada · Ver más »

Proceso estocástico

En la teoría de la probabilidad, un proceso estocástico es un concepto matemático que sirve para representar magnitudes aleatorias que varían con el tiempo o para caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable, generalmente el tiempo.

¡Nuevo!!: Entropía (información) y Proceso estocástico · Ver más »

Ratio de entropía

La ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa de crecimiento de la entropía de la secuencia con el crecimiento de n. La tasa de entropía de un proceso estocástico \ viene definida por la ecuación: siempre que dicho límite exista.

¡Nuevo!!: Entropía (información) y Ratio de entropía · Ver más »

Ruido (comunicación)

En comunicación, se denomina ruido a toda señal no deseada que se mezcla con la señal útil que se quiere transmitir.

¡Nuevo!!: Entropía (información) y Ruido (comunicación) · Ver más »

Segundo principio de la termodinámica

El segundo principio de la termodinámica también conocido como segunda ley de la termodinámica, mas en español (como en francés), a diferencia del inglés —por ejemplo, second law of thermodynamics—, se usa el término «principio» para designar leyes naturales que no pueden demostrarse explícitamente, sin embargo se pueden medir y cuantificar observando los resultados que producen.

¡Nuevo!!: Entropía (información) y Segundo principio de la termodinámica · Ver más »

Seguridad entrópica

La seguridad entrópica es una definición de seguridad utilizada en el campo de la criptografía.

¡Nuevo!!: Entropía (información) y Seguridad entrópica · Ver más »

Seguridad informática

La seguridad informática, también conocida como ciberseguridad, es el área relacionada con la informática y la telemática que se enfoca en la protección de la infraestructura computacional y todo lo vinculado con la misma, y especialmente la información contenida en una computadora o circulante a través de las redes de computadoras.

¡Nuevo!!: Entropía (información) y Seguridad informática · Ver más »

Signos de puntuación

Los signos de puntuación son todos aquellos signos ortográficos que, en un texto escrito, delimitan las frases, enunciados nominales, verbales y oracionales, establecen la jerarquía sintáctico-lógica de las proposiciones para conseguir estructurar el texto, ordenan las ideas y las jerarquizan en principales y secundarias.

¡Nuevo!!: Entropía (información) y Signos de puntuación · Ver más »

Teoría de la información

La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.

¡Nuevo!!: Entropía (información) y Teoría de la información · Ver más »

Teorema de Bayes

El teorema de Bayes, en la teoría de la probabilidad, es una proposición planteada por el matemático inglés Thomas Bayes (1702-1761) y publicada póstumamente en 1763, que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de solo A. En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir, por ejemplo, que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza.

¡Nuevo!!: Entropía (información) y Teorema de Bayes · Ver más »

Termodinámica

La termodinámica es la rama de la física que describe los estados de equilibrio termodinámico a nivel macroscópico.

¡Nuevo!!: Entropía (información) y Termodinámica · Ver más »

Una teoría matemática de la comunicación

Una teoría matemática de la comunicación es un importante e influyente artículo ideado por Claude Elwood Shannon en 1948, conocido por ser «el padre de la teoría de la información».

¡Nuevo!!: Entropía (información) y Una teoría matemática de la comunicación · Ver más »

Universidad Politécnica de Madrid

La Universidad Politécnica de Madrid (UPM) es una universidad pública con sede en la Ciudad Universitaria de Madrid (España) y con instalaciones en varias ubicaciones de Madrid (Ciudad Universitaria, Campus Sur en Puente de Vallecas, entre otras) y Boadilla del Monte.

¡Nuevo!!: Entropía (información) y Universidad Politécnica de Madrid · Ver más »

Variable (programación)

En programación, una variable está formada por un espacio en el sistema de almacenaje (memoria principal de un ordenador) y un nombre simbólico (un identificador) que está asociado a dicho espacio.

¡Nuevo!!: Entropía (información) y Variable (programación) · Ver más »

Variable aleatoria

En probabilidad y estadística, una variable aleatoria es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio.

¡Nuevo!!: Entropía (información) y Variable aleatoria · Ver más »

1948

1948 fue un año bisiesto comenzado en jueves según el calendario gregoriano.

¡Nuevo!!: Entropía (información) y 1948 · Ver más »

Redirecciona aquí:

Entropia (informacion), Entropia (información), Entropia de Shannon, Entropía (informacion), Entropía de Shannon, Entropía de la información.

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »