Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Gratis
¡Más rápido que el navegador!
 

Entropía de Rényi

Índice Entropía de Rényi

En teoría de la información, la entropía de Rényi generaliza la entropía de Hartley, la entropía de Shannon, la entropía de colisión y la entropía min.

33 relaciones: Alfréd Rényi, Índice de diversidad, Índice de entropía generalizada, Cardinalidad, Ciencia computacional teórica, Computación cuántica, Desigualdad de Jensen, Dimensión fractal, Distribución de probabilidad, Divergencia de Kullback-Leibler, Ecología, Entrelazamiento cuántico, Entropía (información), Entropía condicional, Entropía de Tsallis, Espacios Lp, Espín, Estadística, Familia exponencial, Función automórfica, Función de Hartley, Función Schur-convexa, Grupo modular, Información mutua, Modelo de Heisenberg, Mohammad H. Ansari, Subgrupo, Teoría de la comunicación, Teoría de la información, Teorema de fluctuación-disipación, Variable aleatoria, Variable discreta y variable continua, Variables aleatorias independientes e idénticamente distribuidas.

Alfréd Rényi

Alfréd Rényi (Budapest, 20 de marzo de 1921–1 de febrero de 1970) fue un matemático húngaro que hizo importantes contribuciones a la teoría de combinatoria y de teoría de grafos sobre grafos aleatorios.

¡Nuevo!!: Entropía de Rényi y Alfréd Rényi · Ver más »

Índice de diversidad

Un índice de diversidad es una medida cuantitativa que refleja cuántos tipos diferentes (por ejemplo, especies) hay en un conjunto de datos (por ejemplo, una comunidad).

¡Nuevo!!: Entropía de Rényi y Índice de diversidad · Ver más »

Índice de entropía generalizada

El índice de entropía generalizada se ha propuesto como medida de la desigualdad de ingresos en una población.

¡Nuevo!!: Entropía de Rényi y Índice de entropía generalizada · Ver más »

Cardinalidad

En matemáticas, la cardinalidad de un conjunto es la medida del "número de elementos en el conjunto".

¡Nuevo!!: Entropía de Rényi y Cardinalidad · Ver más »

Ciencia computacional teórica

Las ciencias de la computación teórica o ciencias de la informática teórica (TCS) es una división o un subconjunto de las ciencias de la computación y las matemáticas que se enfoca en aspectos más abstractos o matemáticos de la computación.

¡Nuevo!!: Entropía de Rényi y Ciencia computacional teórica · Ver más »

Computación cuántica

La computación cuántica o informática cuántica es un paradigma de computación distinto al de la informática clásica.

¡Nuevo!!: Entropía de Rényi y Computación cuántica · Ver más »

Desigualdad de Jensen

En matemáticas, la desigualdad de Jensen para funciones convexas relaciona el valor que asigna a una integral con la integral de esa misma función permutando, por así decirlo, la función y la integral.

¡Nuevo!!: Entropía de Rényi y Desigualdad de Jensen · Ver más »

Dimensión fractal

En geometría de fractales, la dimensión fractal, \scriptstyle D es un número real que generaliza el concepto de dimensión ordinaria para objetos geométricos que no admiten espacio tangente.

¡Nuevo!!: Entropía de Rényi y Dimensión fractal · Ver más »

Distribución de probabilidad

En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable, la probabilidad de que dicho suceso ocurra.

¡Nuevo!!: Entropía de Rényi y Distribución de probabilidad · Ver más »

Divergencia de Kullback-Leibler

En teoría de la probabilidad y teoría de la información, la divergencia de Kullback-Leibler (KL) (también conocida como divergencia de la información, ganancia de la información, entropía relativa o KLIC por sus siglas en inglés) es una medida no simétrica de la similitud o diferencia entre dos funciones de distribución de probabilidad P y Q. KL mide el número esperado de extra bits requeridos en muestras de código de P cuando se usa un código basado en Q, en lugar de un código basado en P. Generalmente P representa la "verdadera" distribución de los datos, observaciones, o cualquier distribución teórica.

¡Nuevo!!: Entropía de Rényi y Divergencia de Kullback-Leibler · Ver más »

Ecología

La ecología es la rama de la biología que estudia las relaciones de los diferentes seres vivos entre sí y su relación con el entorno: «la biología de los ecosistemas».

¡Nuevo!!: Entropía de Rényi y Ecología · Ver más »

Entrelazamiento cuántico

El entrelazamiento cuántico (Quantenverschränkung, originariamente en alemán) es una propiedad predicha en 1935 por Einstein, Podolsky y Rosen (en lo sucesivo EPR) en su formulación de la llamada paradoja EPR.

¡Nuevo!!: Entropía de Rényi y Entrelazamiento cuántico · Ver más »

Entropía (información)

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

¡Nuevo!!: Entropía de Rényi y Entropía (información) · Ver más »

Entropía condicional

La entropía condicional es una extensión del concepto de entropía de la información a procesos donde intervienen varias variables aleatorias no necesariamente independientes.

¡Nuevo!!: Entropía de Rényi y Entropía condicional · Ver más »

Entropía de Tsallis

En física, la entropía de Tsallis es una generalización de la entropía estándar de Boltzmann.

¡Nuevo!!: Entropía de Rényi y Entropía de Tsallis · Ver más »

Espacios Lp

Los espacios L^p son los espacios vectoriales normados más importantes en el contexto de la teoría de la medida y de la integral de Lebesgue.

¡Nuevo!!: Entropía de Rényi y Espacios Lp · Ver más »

Espín

El espín (del inglés spin 'giro, girar') es una propiedad física de las partículas elementales por la cual tienen un momento angular intrínseco de valor fijo.

¡Nuevo!!: Entropía de Rényi y Espín · Ver más »

Estadística

La estadística (la forma femenina del término alemán statistik, derivado a su vez del italiano statista, «hombre de Estado») es la disciplina que estudia la variabilidad, así como el proceso aleatorio que la genera siguiendo las leyes de la probabilidad.

¡Nuevo!!: Entropía de Rényi y Estadística · Ver más »

Familia exponencial

En probabilidad y estadística, la familia exponencial es una clase de distribuciones de probabilidad cuya formulación matemática puede expresarse de la manera que se especifica debajo.

¡Nuevo!!: Entropía de Rényi y Familia exponencial · Ver más »

Función automórfica

Una función automórfica, en matemáticas, es una función en un espacio que es invariante bajo la acción de algún grupo; en otras palabras, una función en el espacio cociente.

¡Nuevo!!: Entropía de Rényi y Función automórfica · Ver más »

Función de Hartley

La función de Hartley es una medida de la incertidumbre, introducida por Ralph Hartley en 1928.

¡Nuevo!!: Entropía de Rényi y Función de Hartley · Ver más »

Función Schur-convexa

En matemáticas, una función de Schur-convexa, también conocida como S-convex, función isotónica y función de preservación de orden es una función f: \mathbb^d\rightarrow \mathbb para todo x,y\in \mathbb^d tal que x está mayorizado por y, uno tiene eso f(x)\le f(y).

¡Nuevo!!: Entropía de Rényi y Función Schur-convexa · Ver más »

Grupo modular

En matemáticas, el grupo modular es el grupo lineal especial proyectivo de matrices de orden con coeficientes enteros y determinante 1.

¡Nuevo!!: Entropía de Rényi y Grupo modular · Ver más »

Información mutua

En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación o ganancia de información de dos variables aleatorias es una cantidad que mide la dependencia estadística entre ambas variables.

¡Nuevo!!: Entropía de Rényi e Información mutua · Ver más »

Modelo de Heisenberg

El modelo de Heisenberg es un modelo de mecánica estadística usado en el estudio de puntos críticos y transiciones de fase en sistemas magnéticos, en los que los espines se tratan de manera mecano-cuántica.

¡Nuevo!!: Entropía de Rényi y Modelo de Heisenberg · Ver más »

Mohammad H. Ansari

Mohammad H. Ansari es un físico teórico canadiense especialista en física cuántica.

¡Nuevo!!: Entropía de Rényi y Mohammad H. Ansari · Ver más »

Subgrupo

En álgebra, dado un grupo G con una operación binaria *, se dice que un subconjunto no vacío H de G es un subgrupo de G si H también forma un grupo bajo la operación *. O de otro modo, H es un subgrupo de G si la restricción de * a H satisface los axiomas de grupo.

¡Nuevo!!: Entropía de Rényi y Subgrupo · Ver más »

Teoría de la comunicación

La teoría de la comunicación estudia la capacidad que tienen algunos seres vivos de relacionarse con otros intercambiando información.

¡Nuevo!!: Entropía de Rényi y Teoría de la comunicación · Ver más »

Teoría de la información

La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.

¡Nuevo!!: Entropía de Rényi y Teoría de la información · Ver más »

Teorema de fluctuación-disipación

El teorema de fluctuación-disipación (FDT por sus siglas en inglés) o relación de fluctuación-disipación (FDR) es una potente herramienta en física estadística para predecir el comportamiento de sistemas que obedecen un balance detallado.

¡Nuevo!!: Entropía de Rényi y Teorema de fluctuación-disipación · Ver más »

Variable aleatoria

En probabilidad y estadística, una variable aleatoria es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio.

¡Nuevo!!: Entropía de Rényi y Variable aleatoria · Ver más »

Variable discreta y variable continua

Una variable discreta es una variable que no puede tomar algunos valores dentro de un mínimo conjunto numerable, quiere decir, no acepta cualquier valor, únicamente aquellos que pertenecen al conjunto,otra manera de explicar este tipo de variables es como aquella que puede tomar únicamente un número de valores finito.

¡Nuevo!!: Entropía de Rényi y Variable discreta y variable continua · Ver más »

Variables aleatorias independientes e idénticamente distribuidas

En teoría de probabilidad y estadística, un conjunto de variables aleatorias se consideran independientes e idénticamente distribuidas (i.i.d., iid o IID) si cada variable aleatoria tiene la misma distribución de probabilidad y todas son mutuamente independientes.

¡Nuevo!!: Entropía de Rényi y Variables aleatorias independientes e idénticamente distribuidas · Ver más »

Redirecciona aquí:

Entropia de Renyi, Entropias de Renyi, Entropía de Renyi, Entropías de Renyi, Entropías de Rényi.

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »