Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Gratis
¡Más rápido que el navegador!
 

Teoría de la información

Índice Teoría de la información

La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.

63 relaciones: Alan Turing, Andréi Kolmogórov, Andréi Márkov, ARPANET, Automatic Repeat Request, Bit, Bit de redundancia, Canal de comunicación, Caos, Capacidad de canal, Código (comunicación), Código de corrección de errores, Código prefijo, Código unívocamente descodificable, Códigos de bloque, Códigos lineales, Claude Shannon, Compresión de audio, Compresión de datos, Computadora, Corrección de errores hacia adelante, Correo electrónico, Criptografía, Detección y corrección de errores, Distancia de Hamming, Entropía (información), Estados Unidos, Familia de protocolos de internet, Formato de compresión ZIP, Fuente de información, Grabación óptica analógica, Idioma inglés, Información, Información mutua, Internet, Medio de comunicación, MP3, MPEG-4 Parte 14, Neguentropía, Parada y espera, Paradoja de Freedman, Paridad, Paridad horizontal y vertical, Proceso de Márkov, Protocolo de comunicaciones, Radio (receptor), Ralph Hartley, Rechazo múltiple, Repetición selectiva, Ruido (comunicación), ..., Segunda Guerra Mundial, Sistema binario, Sistema complejo, Teléfono, Teletipo, Televisión, Teoría algorítmica de la información, Teoría de la información integrada, Teoría de la probabilidad, Teorema de muestreo de Nyquist-Shannon, Verificación de redundancia cíclica, Warren Weaver, 1948. Expandir índice (13 más) »

Alan Turing

Alan Mathison Turing (Paddington, Londres; 23 de junio de 1912-Wilmslow, Cheshire; 7 de junio de 1954) fue un matemático, lógico, informático teórico, criptógrafo, filósofo y biólogo teórico británico.

¡Nuevo!!: Teoría de la información y Alan Turing · Ver más »

Andréi Kolmogórov

Andréi Nikoláyevich Kolmogórov (en ruso: Андре́й Никола́евич Колмого́ров; Tambov, 25 de abril de 1903-Moscú, 20 de octubre de 1987) fue un matemático ruso que realizó aportes de primera línea en los contenidos de teoría de la probabilidad y de topología.

¡Nuevo!!: Teoría de la información y Andréi Kolmogórov · Ver más »

Andréi Márkov

Andréi Andréyevich Márkov (Андре́й Андре́евич Ма́рков; Riazán, 14 de junio de 1856 — San Petersburgo, 20 de julio de 1922) fue un matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades.

¡Nuevo!!: Teoría de la información y Andréi Márkov · Ver más »

ARPANET

ARPANET fue una red de computadoras creada por encargo del Departamento de Defensa de los Estados Unidos (DOD) para utilizarla como medio de comunicación entre las diferentes instituciones académicas y estatales.

¡Nuevo!!: Teoría de la información y ARPANET · Ver más »

Automatic Repeat Request

ARQ (del inglés Automatic Repeat-reQuest) son protocolos utilizados para el control de errores en la transmisión de datos, garantizando la integridad de los mismos.

¡Nuevo!!: Teoría de la información y Automatic Repeat Request · Ver más »

Bit

En informática o teoría de la información, el bit corresponde a un dígito del sistema de numeración binario y representa la unidad mínima de información.

¡Nuevo!!: Teoría de la información y Bit · Ver más »

Bit de redundancia

El bit de redundancia es un bit (o conjunto de ellos) que, a veces, se introducen deliberadamente en la transmisión o grabación de información sin ser parte de ésta, pero que sirven para detectar posibles errores.

¡Nuevo!!: Teoría de la información y Bit de redundancia · Ver más »

Canal de comunicación

Un canal es un medio de comunicación por el que pasan las señales portadoras de información que pretenden intercambiar emisor y receptor.

¡Nuevo!!: Teoría de la información y Canal de comunicación · Ver más »

Caos

El caos (palabra que deriva del griego, Χάος Kháos o cháos) habitualmente se refiere a lo impredecible.

¡Nuevo!!: Teoría de la información y Caos · Ver más »

Capacidad de canal

En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad máxima de información que /s (bps).

¡Nuevo!!: Teoría de la información y Capacidad de canal · Ver más »

Código (comunicación)

En la comunicación, el código es un conjunto de elementos que se combinan siguiendo ciertas reglas y que son semánticamente interpretables, lo cual permite intercambiar información.

¡Nuevo!!: Teoría de la información y Código (comunicación) · Ver más »

Código de corrección de errores

Código de corrección de errores, código autocorrector o código de autochequeo (Error-Correcting Code, ECC) sirve para garantizar la integridad de los datos.

¡Nuevo!!: Teoría de la información y Código de corrección de errores · Ver más »

Código prefijo

Un código prefijo es un código, generalmente un código de longitud variable, con la "propiedad de prefijo": ninguna palabra de código es prefijo de cualquier otra palabra de código del conjunto.

¡Nuevo!!: Teoría de la información y Código prefijo · Ver más »

Código unívocamente descodificable

Un código unívocamente descodificable es un tipo de código no-singular si cualquier secuencia finita de signos del alfabeto usado por el código es la imagen de, a lo sumo, un mensaje, es decir, la función de codificación E es una función inyectiva.

¡Nuevo!!: Teoría de la información y Código unívocamente descodificable · Ver más »

Códigos de bloque

Los códigos de bloque son técnicas utilizadas para transformar un conjunto de datos binarios "N" en otro un poco más largo "K" donde se agregan unos bits de más para dar redundancia al código saliente K, donde (K>N).

¡Nuevo!!: Teoría de la información y Códigos de bloque · Ver más »

Códigos lineales

En teoría de la codificación, un código lineal es un código de corrección de errores para los que cualquier combinación lineal de palabras de código es también una palabra de código.

¡Nuevo!!: Teoría de la información y Códigos lineales · Ver más »

Claude Shannon

Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información».

¡Nuevo!!: Teoría de la información y Claude Shannon · Ver más »

Compresión de audio

La compresión de audio es una forma de compresión de datos, específicamente en la reducción del tamaño de los archivos de audio.

¡Nuevo!!: Teoría de la información y Compresión de audio · Ver más »

Compresión de datos

En ciencias de la computación, la compresión de datos es la reducción del volumen de datos tratables para representar una determinada información empleando una menor cantidad de espacio.

¡Nuevo!!: Teoría de la información y Compresión de datos · Ver más »

Computadora

Computadora, computador u ordenador es una máquina electrónica digital programable que ejecuta una serie de comandos para procesar los datos de entrada, obteniendo convenientemente información que posteriormente se envía a las unidades de salida.

¡Nuevo!!: Teoría de la información y Computadora · Ver más »

Corrección de errores hacia adelante

En telecomunicaciones, teoría de la información y teoría de la codificación, la corrección de errores hacia adelante (en inglés, forward error correction o FEC) o codificación de canal es una técnica utilizada para controlar los errores en la transmisión de datos a través de canales de comunicación poco fiables o ruidosos.

¡Nuevo!!: Teoría de la información y Corrección de errores hacia adelante · Ver más »

Correo electrónico

El correo electrónico —también llamado simplemente correo— (en inglés: electronic mail, normalmente abreviado e-mail o email),En ciertas partes de mundo francófono el témino e-mail compite con su homólogo simplificado mail o con la palabra de origen quebequés "courriel", más extendida en Quebec, que equivaldría a correl en español, usándose de forma común también mail en este idioma.

¡Nuevo!!: Teoría de la información y Correo electrónico · Ver más »

Criptografía

La criptografía (del griego κρύπτos (kryptós), «secreto», y γραφή (graphé), «grafo» o «escritura», literalmente «escritura secreta») se ha definido, tradicionalmente, como el ámbito de la criptología que se ocupa de las técnicas de cifrado o codificado destinadas a alterar las representaciones lingüísticas de ciertos mensajes con el fin de hacerlos ininteligibles a receptores no autorizados.

¡Nuevo!!: Teoría de la información y Criptografía · Ver más »

Detección y corrección de errores

En matemáticas, informática y teoría de la información, la detección y corrección de errores es una importante práctica para el mantenimiento e integridad de los datos a través de diferentes procedimientos y dispositivos como medios de almacenamiento confiables.

¡Nuevo!!: Teoría de la información y Detección y corrección de errores · Ver más »

Distancia de Hamming

En teoría de la información se denomina distancia de Hamming a la efectividad de los códigos de bloque y depende de la diferencia entre una palabra de código válida y otra.

¡Nuevo!!: Teoría de la información y Distancia de Hamming · Ver más »

Entropía (información)

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.

¡Nuevo!!: Teoría de la información y Entropía (información) · Ver más »

Estados Unidos

«EUA», «US», «USA» y «United States» redirigen aquí.

¡Nuevo!!: Teoría de la información y Estados Unidos · Ver más »

Familia de protocolos de internet

La familia de protocolos de internet o pila de protocolos de Internet es un conjunto constituido por los protocolos de red clave que componen la arquitectura de internet y que permiten la comunicación efectiva y la transmisión de datos entre computadoras.

¡Nuevo!!: Teoría de la información y Familia de protocolos de internet · Ver más »

Formato de compresión ZIP

En informática, ZIP o zip es un formato de compresión sin pérdida, muy utilizado para la compresión de datos como documentos, imágenes o programas.

¡Nuevo!!: Teoría de la información y Formato de compresión ZIP · Ver más »

Fuente de información

Se denominan fuentes de información, en teoría de la información y telecomunicación, a cualquier origen de información susceptible de ser representado mediante una señal analógica y/o digital.

¡Nuevo!!: Teoría de la información y Fuente de información · Ver más »

Grabación óptica analógica

Grabación óptica analógica es uno de los tres sistemas de grabación analógica de sonido.

¡Nuevo!!: Teoría de la información y Grabación óptica analógica · Ver más »

Idioma inglés

El idioma inglés (English) es una lengua germánica occidental perteneciente a la familia de lenguas indoeuropeas, que surgió en los reinos anglosajones de Inglaterra.

¡Nuevo!!: Teoría de la información e Idioma inglés · Ver más »

Información

Información es el nombre por el que se conoce un conjunto organizado de datos procesados que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.

¡Nuevo!!: Teoría de la información e Información · Ver más »

Información mutua

En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación o ganancia de información de dos variables aleatorias es una cantidad que mide la dependencia estadística entre ambas variables.

¡Nuevo!!: Teoría de la información e Información mutua · Ver más »

Internet

Internet es un conjunto descentralizado de redes de comunicaciones interconectadas, que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen constituyen una red lógica única de alcance mundial.

¡Nuevo!!: Teoría de la información e Internet · Ver más »

Medio de comunicación

Un medio de comunicación es un instrumento o forma de contenido por el cual se realiza el proceso de comunicación.

¡Nuevo!!: Teoría de la información y Medio de comunicación · Ver más »

MP3

MPEG-1 Audio Layer III o MPEG-2 Audio Layer III, más comúnmente conocido como MP3, es un formato de compresión de audio digital que usa un algoritmo con pérdida para conseguir un menor tamaño de archivo.

¡Nuevo!!: Teoría de la información y MP3 · Ver más »

MPEG-4 Parte 14

MPEG-4 Parte 14 (no confundir con reproductor MP4) es un formato contenedor especificado como parte del estándar internacional MPEG-4 de ISO/IEC.

¡Nuevo!!: Teoría de la información y MPEG-4 Parte 14 · Ver más »

Neguentropía

La neguentropía, negentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida.

¡Nuevo!!: Teoría de la información y Neguentropía · Ver más »

Parada y espera

El método de Parada y espera (Stop-and-wait) es un tipo de protocolo ARQ para el control de errores en la comunicación entre dos hosts basado en el envío de tramas o paquetes, de modo que una vez se envía un paquete no se envía el siguiente paquete hasta que no se recibe el correspondiente ACK (confirmación de la recepción) y en caso de recibir un NACK (rechazo de la recepción) se reenvía el paquete anterior.

¡Nuevo!!: Teoría de la información y Parada y espera · Ver más »

Paradoja de Freedman

En estadística, la paradoja de Freedman, en honor a David Freedman, describe un problema en la selección de un modelo mediante el cual las variables de predicción que no tienen ningún poder explicativo pueden aparecer artificialmente importantes.

¡Nuevo!!: Teoría de la información y Paradoja de Freedman · Ver más »

Paridad

El término paridad puede referirse, en esta enciclopedia.

¡Nuevo!!: Teoría de la información y Paridad · Ver más »

Paridad horizontal y vertical

La paridad horizontal y vertical es utilizada en algunos códigos de bloque para una combinación de chequeo de (LRC / VRC) para detectar errores.

¡Nuevo!!: Teoría de la información y Paridad horizontal y vertical · Ver más »

Proceso de Márkov

En la teoría de la probabilidad y en estadística, un proceso de Márkov, llamado así por el matemático ruso Andréi Márkov, es un fenómeno aleatorio dependiente del tiempo para el cual se cumple una propiedad específica: la propiedad de Márkov.

¡Nuevo!!: Teoría de la información y Proceso de Márkov · Ver más »

Protocolo de comunicaciones

En informática y telecomunicación, un protocolo de comunicaciones es un sistema de reglas que permiten que dos o más entidades (computadoras, teléfonos celulares, etc.) de un sistema de comunicación se comuniquen entre ellas para transmitir información por medio de cualquier tipo de variación de una magnitud física.

¡Nuevo!!: Teoría de la información y Protocolo de comunicaciones · Ver más »

Radio (receptor)

Un receptor de radio, o simplemente una radio, es un dispositivo electrónico que permite la recuperación de las señales vocales o de cualquier otro tipo, transmitidas por un emisor de radio mediante ondas electromagnéticas.

¡Nuevo!!: Teoría de la información y Radio (receptor) · Ver más »

Ralph Hartley

Ralph Vinton Lyon Hartley (30 de noviembre de 1888 - 1 de mayo de 1970) fue un ingeniero estadounidense, investigador pionero en el campo de la electrónica.

¡Nuevo!!: Teoría de la información y Ralph Hartley · Ver más »

Rechazo múltiple

Rechazo múltiple es un tipo de respuesta ARQ en la cual no se dejan de enviar paquetes hasta que se recibe un NACK.

¡Nuevo!!: Teoría de la información y Rechazo múltiple · Ver más »

Repetición selectiva

La repetición selectiva (del inglés Selective Repeat) es un tipo de respuesta usado en control de errores.

¡Nuevo!!: Teoría de la información y Repetición selectiva · Ver más »

Ruido (comunicación)

En comunicación, se denomina ruido a toda señal no deseada que se mezcla con la señal útil que se quiere transmitir.

¡Nuevo!!: Teoría de la información y Ruido (comunicación) · Ver más »

Segunda Guerra Mundial

La Segunda Guerra Mundial (también escrito II Guerra Mundial) fue un conflicto militar global que se desarrolló entre 1939 y 1945.

¡Nuevo!!: Teoría de la información y Segunda Guerra Mundial · Ver más »

Sistema binario

El sistema binario, también llamado sistema diádico en ciencias de la computación, es un sistema de numeración en el que los números son representados utilizando únicamente dos cifras: 0 (cero) y 1 (uno).

¡Nuevo!!: Teoría de la información y Sistema binario · Ver más »

Sistema complejo

Un sistema complejo está compuesto por varias partes interconectadas o entrelazadas cuyos vínculos crean información adicional no visible ante el observador como resultado de las interacciones entre elementos.

¡Nuevo!!: Teoría de la información y Sistema complejo · Ver más »

Teléfono

El teléfono es un dispositivo de telecomunicación creado para transmitir señales acústicas a distancia por medio de señales eléctricas.

¡Nuevo!!: Teoría de la información y Teléfono · Ver más »

Teletipo

Un teletipo (del francés Télétype™), TTY (acrónimo de la forma inglesa teletype) o télex (del inglés telex) es un dispositivo telegráfico de transmisión de datos, ya obsoleto, utilizado durante el para enviar y recibir mensajes mecanografiados punto a punto a través de un canal de comunicación simple, a menudo un par de cables de telégrafo.

¡Nuevo!!: Teoría de la información y Teletipo · Ver más »

Televisión

La televisión es un sistema para la transmisión y recepción de imágenes y sonidos a distancia que simulan movimientos, que emplea un mecanismo de difusión.

¡Nuevo!!: Teoría de la información y Televisión · Ver más »

Teoría algorítmica de la información

La teoría algorítmica de la información, es una teoría científica de las ciencias de la computación, que en contraste con la clásica teoría de la información, se basa en la complejidad de Kolmogórov para la determinación del contenido de la información.

¡Nuevo!!: Teoría de la información y Teoría algorítmica de la información · Ver más »

Teoría de la información integrada

La teoría de la información integrada (en inglés, Integrated information theory, IIT) es una hipótesis científica y marco teórico pensado para explicar por qué ciertos sistemas (como el cerebro humano) son conscientes, propuesta originalmente en 2004 por el neurocientífico Giulio Tononi.

¡Nuevo!!: Teoría de la información y Teoría de la información integrada · Ver más »

Teoría de la probabilidad

La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos aleatorios y estocásticos.

¡Nuevo!!: Teoría de la información y Teoría de la probabilidad · Ver más »

Teorema de muestreo de Nyquist-Shannon

El teorema de muestreo de Nyquist-Shannon, también conocido como teorema de muestreo de Whittaker-Nyquist-Kotelnikov-Shannon o bien teorema de Nyquist, es un teorema fundamental de la teoría de la información, de especial interés en las telecomunicaciones.

¡Nuevo!!: Teoría de la información y Teorema de muestreo de Nyquist-Shannon · Ver más »

Verificación de redundancia cíclica

La verificación por redundancia cíclica (CRC) es un código de detección de errores usado frecuentemente en redes digitales y en dispositivos de almacenamiento para detectar cambios accidentales en los datos.

¡Nuevo!!: Teoría de la información y Verificación de redundancia cíclica · Ver más »

Warren Weaver

Warren Weaver (Reedsburg, Wisconsin, Estados Unidos, 1894 - New Milford, 1978) fue un biólogo e informatólogo estadounidense.

¡Nuevo!!: Teoría de la información y Warren Weaver · Ver más »

1948

1948 fue un año bisiesto comenzado en jueves según el calendario gregoriano.

¡Nuevo!!: Teoría de la información y 1948 · Ver más »

Redirecciona aquí:

Teoria de informacion, Teoria de información, Teoria de la Informacion, Teoria de la Información, Teoria de la informacion, Teoria de la información, Teoría de informacion, Teoría de información, Teoría de la Informacion, Teoría de la Información, Teoría de la informacion, Teoría matemática de la comunicación, Teoría matemática de la información.

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »