Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Instalar
¡Más rápido que el navegador!
 

Claude Shannon

Índice Claude Shannon

Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información».

65 relaciones: Abraham Lempel, Ajedrez por computadora, Analizador diferencial, Álgebra de Boole, Base de datos, Bell Labs, Biblioteca, Biblioteconomía, Biographical Memoirs of Fellows of the Royal Society, Blaise Pascal, Canal de comunicación, Capacidad de canal, Centro de documentación, Circuito, Circuito de conmutación, Circuito digital, Computadora, Computadora analógica, Criptoanálisis, Criptografía, Documentación, Electrónica, Electricidad, Estados Unidos, Filosofía de las matemáticas, George Robert Stibitz, Harry Nyquist, Herman Goldstine, Ingeniería, Ingeniería eléctrica, Instituto de Tecnología de Massachusetts, Inteligencia artificial, John Bardeen, John von Neumann, Lógica, Libreta de un solo uso, Maestría, Matemáticas, Matemático, Minivac 601, Número de Shannon, Nueva York, Primer teorema de Shannon, Radio (medio de comunicación), Relé, Señal digital, Segunda Guerra Mundial, Segundo teorema de Shannon, Shannon (unidad), Sociedad Estadounidense de Ingenieros Civiles, ..., Teléfono, Telégrafo, Telecomunicación, Televisión, Teoría de la comunicación de los sistemas secretos, Teoría de la información, Teorema de Shannon-Hartley, Thomas Alva Edison, Transistor, Una teoría matemática de la comunicación, Universidad de Míchigan, Vannevar Bush, Walter Houser Brattain, Warren Weaver, William Bradford Shockley. Expandir índice (15 más) »

Abraham Lempel

Abraham Lempel (Leópolis, 10 de febrero de 1936-4 de febrero de 2023) fue un científico de la computación israelí de origen polacoucraniano; fue uno de los padres de la familia LZ de algoritmos de compresión sin pérdidas de datos.

¡Nuevo!!: Claude Shannon y Abraham Lempel · Ver más »

Ajedrez por computadora

En el empezó a difundirse la idea de crear una máquina capaz de jugar al ajedrez.

¡Nuevo!!: Claude Shannon y Ajedrez por computadora · Ver más »

Analizador diferencial

El Analizador diferencial (en inglés, Differential analyser) fue un computador analógico mecánico diseñado para solucionar ecuaciones diferenciales por integración, usando mecanismos de ruedas y discos para realizar la integración.

¡Nuevo!!: Claude Shannon y Analizador diferencial · Ver más »

Álgebra de Boole

En matemáticas, electrónica digital e informática, el álgebra de Boole, también llamada álgebra booleana, es una estructura algebraica que esquematiza operaciones lógicas.

¡Nuevo!!: Claude Shannon y Álgebra de Boole · Ver más »

Base de datos

Una base de datos (del inglés: database) se encarga no solo de almacenar datos, sino también de conectarlos entre sí en una unidad lógica.

¡Nuevo!!: Claude Shannon y Base de datos · Ver más »

Bell Labs

Nokia Bell Labs (anteriormente llamados AT&T Bell Laboratories, Bell Telephone Laboratories y Bell Labs) es una compañía estadounidense de investigación y desarrollo científico, actualmente propiedad de la empresa finlandesa Nokia.

¡Nuevo!!: Claude Shannon y Bell Labs · Ver más »

Biblioteca

Una biblioteca puede definirse, desde un punto de vista estrictamente etimológico, como el lugar donde se guardan libros.

¡Nuevo!!: Claude Shannon y Biblioteca · Ver más »

Biblioteconomía

La biblioteconomía o bibliotecología es un campo interdisciplinario y multidisciplinario que aplica las prácticas, perspectivas y herramientas de gestión, la tecnología de la información, la educación, la recopilación, organización, preservación y difusión de los recursos de información y la economía política de información a las bibliotecas.

¡Nuevo!!: Claude Shannon y Biblioteconomía · Ver más »

Biographical Memoirs of Fellows of the Royal Society

La Biographical Memoirs of Fellows of the Royal Society (Memorias biográficas de los Miembros de la Real Sociedad) es una revista académica sobre la historia de la ciencia publicado semestralmente por la Royal Society.

¡Nuevo!!: Claude Shannon y Biographical Memoirs of Fellows of the Royal Society · Ver más »

Blaise Pascal

Blaise Pascal (Clermont-Ferrand, 19 de junio de 1623 -París, 19 de agosto de 1662) fue un matemático, físico, filósofo, teólogo católico y apologista francés.

¡Nuevo!!: Claude Shannon y Blaise Pascal · Ver más »

Canal de comunicación

Un canal es un medio de comunicación por el que pasan las señales portadoras de información que pretenden intercambiar emisor y receptor.

¡Nuevo!!: Claude Shannon y Canal de comunicación · Ver más »

Capacidad de canal

En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad máxima de información que /s (bps).

¡Nuevo!!: Claude Shannon y Capacidad de canal · Ver más »

Centro de documentación

El centro de documentación o centro documental es una unidad de información que reúne, gestiona y difunde la documentación de un área del conocimiento determinado o la producida por un organismo o institución a la que se circunscribe.

¡Nuevo!!: Claude Shannon y Centro de documentación · Ver más »

Circuito

Un circuito es una interconexión de componentes eléctricos (como baterías, resistores, inductores, condensadores, interruptores, transistores, entre otros) que transportan la corriente eléctrica a través de una trayectoria cerrada.

¡Nuevo!!: Claude Shannon y Circuito · Ver más »

Circuito de conmutación

*.

¡Nuevo!!: Claude Shannon y Circuito de conmutación · Ver más »

Circuito digital

Un circuito digital (también, circuito lógico) es aquel que maneja la información en forma binaria, es decir, con valores de "1" y "0".

¡Nuevo!!: Claude Shannon y Circuito digital · Ver más »

Computadora

Computadora, computador u ordenador es una máquina electrónica digital programable que ejecuta una serie de comandos para procesar los datos de entrada, obteniendo convenientemente información que posteriormente se envía a las unidades de salida.

¡Nuevo!!: Claude Shannon y Computadora · Ver más »

Computadora analógica

Se denomina computadora analógica, computador analógico u ordenador analógico a un tipo de ordenador que utiliza dispositivos electrónicos o mecánicos para modelar el problema que se resuelve, utilizando un tipo de representación de cantidad física para expresar los valores que conforman el resultado.

¡Nuevo!!: Claude Shannon y Computadora analógica · Ver más »

Criptoanálisis

El criptoanálisis (del griego kryptós, 'escondido' y analýein, 'desatar') es la parte de la criptología que se dedica al estudio de sistemas criptográficos con el fin de encontrar debilidades en los sistemas y romper su seguridad sin el conocimiento de información secreta.

¡Nuevo!!: Claude Shannon y Criptoanálisis · Ver más »

Criptografía

La criptografía (del griego κρύπτos (kryptós), «secreto», y γραφή (graphé), «grafo» o «escritura», literalmente «escritura secreta») se ha definido, tradicionalmente, como el ámbito de la criptología que se ocupa de las técnicas de cifrado o codificado destinadas a alterar las representaciones lingüísticas de ciertos mensajes con el fin de hacerlos ininteligibles a receptores no autorizados.

¡Nuevo!!: Claude Shannon y Criptografía · Ver más »

Documentación

La documentación es la ciencia que consiste en documentar, y se encuentra identificada por el procesamiento de información que otorgará datos específicos sobre un tema determinado; de acuerdo a esto puede identificarse como una técnica instrumental y auxiliar, para lograr informar a numerosas personas sobre un tema en específico.

¡Nuevo!!: Claude Shannon y Documentación · Ver más »

Electrónica

La electrónica es una rama de la física aplicada que comprende la física, la ingeniería, la tecnología y las aplicaciones que tratan con la emisión, el flujo y el control de los electrones u otras partículas cargadas eléctricamente— en el vacío y la materia.

¡Nuevo!!: Claude Shannon y Electrónica · Ver más »

Electricidad

La electricidad (del griego ήλεκτρον élektron, cuyo significado es ‘ámbar’) es el conjunto de fenómenos físicos relacionados con la presencia y flujo de cargas eléctricas.

¡Nuevo!!: Claude Shannon y Electricidad · Ver más »

Estados Unidos

«EUA», «US», «USA» y «United States» redirigen aquí.

¡Nuevo!!: Claude Shannon y Estados Unidos · Ver más »

Filosofía de las matemáticas

La filosofía de las matemáticas es un área de la filosofía teórica que trata de comprender y explicar los requisitos, el objeto, el método y la naturaleza de las matemáticas.

¡Nuevo!!: Claude Shannon y Filosofía de las matemáticas · Ver más »

George Robert Stibitz

George R. Stibitz (York, Pensilvania, 20 de abril de 1904 – † 31 de enero de 1995), fue un científico estadounidense conocido mayoritariamente por sus trabajos realizados en los años 30 y 40 sobre el desarrollo de circuitos digitales lógicos, usando relés electromecánicos como conmutadores.

¡Nuevo!!: Claude Shannon y George Robert Stibitz · Ver más »

Harry Nyquist

Harry Nyquist (pron.) (Stora Kil, Suecia, 7 de febrero de 1889 - Harlingen, EE. UU.,4 de abril de 1976) fue un físico e ingeniero sueco-estadounidense y contribuyente de la Teoría de la información.

¡Nuevo!!: Claude Shannon y Harry Nyquist · Ver más »

Herman Goldstine

Herman Heine Goldstine (13 de septiembre de 1913 – 16 de junio de 2004), matemático, informático y administrador científico, quien fue uno de los principales desarrolladores de ENIAC, el primer computador electrónico digital de propósito general.

¡Nuevo!!: Claude Shannon y Herman Goldstine · Ver más »

Ingeniería

La ingeniería ("ingenio", del latín ingenium, "engendrar, producir", y sufijo -ería (conjunto); "estudio y aplicación de tecnología") es el uso de principios científicos para diseñar y construir máquinas, estructuras y otros entes, incluyendo puentes, túneles, caminos, vehículos, edificios, sistemas y procesos.

¡Nuevo!!: Claude Shannon e Ingeniería · Ver más »

Ingeniería eléctrica

La ingeniería eléctrica es el campo de la ingeniería que se ocupa del estudio y la aplicación de la electricidad, electromagnetismo, electromecánica y la electrónica a sistemas eléctricos de potencia.

¡Nuevo!!: Claude Shannon e Ingeniería eléctrica · Ver más »

Instituto de Tecnología de Massachusetts

El Instituto de Tecnología de Massachusetts (MIT por las iniciales de su nombre en inglés, Massachusetts Institute of Technology) es una universidad privada localizada en Cambridge, Massachusetts (Estados Unidos) considerada por numerosos rankings como una de las mejores y más prestigiosas universidades a nivel mundial, manteniendo durante diez años consecutivos el título de la mejor universidad del mundo según la clasificación mundial de universidades QS.

¡Nuevo!!: Claude Shannon e Instituto de Tecnología de Massachusetts · Ver más »

Inteligencia artificial

La inteligencia artificial (IA), en el contexto de las ciencias de la computación, es una disciplina y un conjunto de capacidades cognoscitivas e intelectuales expresadas por sistemas informáticos o combinaciones de algoritmos cuyo propósito es la creación de máquinas que imiten la inteligencia humana para realizar tareas, y que pueden mejorar conforme recopilen información.

¡Nuevo!!: Claude Shannon e Inteligencia artificial · Ver más »

John Bardeen

John Bardeen (Madison, 23 de mayo de 1908-Boston, 30 de enero de 1991) fue un ingeniero eléctrico y físico estadounidense galardonado con los Premios Nobel de Física de los años 1956 y 1972, convirtiéndose junto a Marie Curie, Linus Pauling, Frederick Sanger y Barry Sharpless en las únicas personas galardonadas dos veces con el Premio Nobel.

¡Nuevo!!: Claude Shannon y John Bardeen · Ver más »

John von Neumann

John von Neumann (registrado al nacer como Neumann János Lajos; Budapest, Imperio austrohúngaro, 28 de diciembre de 1903-Washington D. C., Estados Unidos, 8 de febrero de 1957) fue un matemático húngaroestadounidense que realizó contribuciones fundamentales en física cuántica, análisis funcional, teoría de conjuntos, teoría de juegos, ciencias de la computación, economía, análisis numérico, cibernética, hidrodinámica, estadística y muchos otros campos.

¡Nuevo!!: Claude Shannon y John von Neumann · Ver más »

Lógica

La lógica es una rama de la filosofía de carácter interdisciplinario, entendida como la ciencia formal que estudia los principios de la demostración y la inferencia válida, las falacias, las paradojas y la noción de verdad.

¡Nuevo!!: Claude Shannon y Lógica · Ver más »

Libreta de un solo uso

En criptografía, la libreta de uso único, también llamado libreta de un solo uso (del inglés one-time pad), es un tipo de algoritmos de cifrado por el que el texto en claro se combina con una clave aleatoria o «libreta» igual de larga que el texto en claro y que sólo se utiliza una vez.

¡Nuevo!!: Claude Shannon y Libreta de un solo uso · Ver más »

Maestría

La maestría, también magíster (del latín, magister) o máster (del inglés, master), es un título académico de posgrado otorgado por una universidad pública o privada o un centro de educación superior homologado.

¡Nuevo!!: Claude Shannon y Maestría · Ver más »

Matemáticas

Las matemáticas, o también la matemática, La palabra «matemáticas» no está en el Diccionario de la Real Academia Española.

¡Nuevo!!: Claude Shannon y Matemáticas · Ver más »

Matemático

Un matemático (del latín mathēmāticus, y este a su vez del griego μαθηματικός mathēmatikós) es una persona cuya área primaria de estudio e investigación es la matemática, es decir que contribuye con nuevo conocimiento en este campo de estudio.

¡Nuevo!!: Claude Shannon y Matemático · Ver más »

Minivac 601

Kit Minivac 601 Digital Computer era una computadora digital electromecánica creada como un proyecto personal por el Dr.

¡Nuevo!!: Claude Shannon y Minivac 601 · Ver más »

Número de Shannon

El número de Shannon, 10120, es una estimación de la complejidad del árbol de juego del ajedrez.

¡Nuevo!!: Claude Shannon y Número de Shannon · Ver más »

Nueva York

Nueva York (New York), oficialmente New York City o por las siglas NYC, es la ciudad más poblada de los Estados Unidos y una de las más pobladas del mundo, con un área urbana de 24 millones de habitantes.

¡Nuevo!!: Claude Shannon y Nueva York · Ver más »

Primer teorema de Shannon

En teoría de la información, el teorema de codificación de fuentes, primer teorema de Shannon o, menos utilizado, teorema de codificación sin ruido es un teorema enunciado por Claude Shannon en 1948 que establece el límite teórico para la compresión de una fuente de datos,.

¡Nuevo!!: Claude Shannon y Primer teorema de Shannon · Ver más »

Radio (medio de comunicación)

La radio (entendida como radiofonía o radiodifusión, términos no estrictamente sinónimos) es un medio de comunicación que se basa en el envío de señales de audio a través de ondas de radio, si bien el término se usa también para otras formas de envío de audio a distancia como la radio por Internet.

¡Nuevo!!: Claude Shannon y Radio (medio de comunicación) · Ver más »

Relé

El relevador o relé (relais ‘relevo’) es un dispositivo electromagnético.

¡Nuevo!!: Claude Shannon y Relé · Ver más »

Señal digital

La señal digital es un tipo de señal en que cada signo que codifica el contenido de la misma puede ser analizado en término de algunas magnitudes que representan valores discretos, en lugar de valores dentro de un cierto rango.

¡Nuevo!!: Claude Shannon y Señal digital · Ver más »

Segunda Guerra Mundial

La Segunda Guerra Mundial (también escrito II Guerra Mundial) fue un conflicto militar global que se desarrolló entre 1939 y 1945.

¡Nuevo!!: Claude Shannon y Segunda Guerra Mundial · Ver más »

Segundo teorema de Shannon

En teoría de la información, el segundo teorema de Shannon denominado también de «teorema de codificación de canal», o simplemente teorema de Shannon, es un teorema, matemático enunciado por Claude Shannon, que muestra que es posible transmitir datos discretos (información digital) casi sin errores sobre un mismo canal ruidoso, a un régimen máximo computable.

¡Nuevo!!: Claude Shannon y Segundo teorema de Shannon · Ver más »

Shannon (unidad)

El shannon (símbolo: Sh), más comúnmente conocido como bit, es una unidad de información y de entropía definida por el estándar IEC 80000-13.

¡Nuevo!!: Claude Shannon y Shannon (unidad) · Ver más »

Sociedad Estadounidense de Ingenieros Civiles

La Sociedad Estadounidense de Ingenieros Civiles (en inglés American Society of Civil Engineers, conocido por sus siglas ASCE) es un colegio profesional fundado en 1852 que representa a ingenieros civiles de todo el mundo.

¡Nuevo!!: Claude Shannon y Sociedad Estadounidense de Ingenieros Civiles · Ver más »

Teléfono

El teléfono es un dispositivo de telecomunicación creado para transmitir señales acústicas a distancia por medio de señales eléctricas.

¡Nuevo!!: Claude Shannon y Teléfono · Ver más »

Telégrafo

El telégrafo es un aparato o dispositivo que emplea señales eléctricas para la transmisión de mensajes de texto codificados, como con el código Morse, mediante líneas alámbricas o comunicaciones de radio.

¡Nuevo!!: Claude Shannon y Telégrafo · Ver más »

Telecomunicación

Una telecomunicación es toda transmisión y recepción de señales de cualquier naturaleza, típicamente electromagnéticas, que contengan signos, sonidos, imágenes o, en definitiva, cualquier tipo de información que se desee comunicar a cierta distancia.

¡Nuevo!!: Claude Shannon y Telecomunicación · Ver más »

Televisión

La televisión es un sistema para la transmisión y recepción de imágenes y sonidos a distancia que simulan movimientos, que emplea un mecanismo de difusión.

¡Nuevo!!: Claude Shannon y Televisión · Ver más »

Teoría de la comunicación de los sistemas secretos

Teoría de la comunicación de los sistemas secretos es una publicación publicada en 1949 por Claude Shannon que habla de criptografía desde el punto de vista de la teoría de la información.

¡Nuevo!!: Claude Shannon y Teoría de la comunicación de los sistemas secretos · Ver más »

Teoría de la información

La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.

¡Nuevo!!: Claude Shannon y Teoría de la información · Ver más »

Teorema de Shannon-Hartley

En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de codificación para canales con ruido.

¡Nuevo!!: Claude Shannon y Teorema de Shannon-Hartley · Ver más »

Thomas Alva Edison

Thomas Alva Edison (Milan, Ohio, 11 de febrero de 1847-West Orange, Nueva Jersey, 18 de octubre de 1931) fue un inventor, científico y empresario estadounidense.

¡Nuevo!!: Claude Shannon y Thomas Alva Edison · Ver más »

Transistor

El transistor es un dispositivo electrónico utilizado para amplificar o cambiar señales y potencias eléctricas.

¡Nuevo!!: Claude Shannon y Transistor · Ver más »

Una teoría matemática de la comunicación

Una teoría matemática de la comunicación es un importante e influyente artículo ideado por Claude Elwood Shannon en 1948, conocido por ser «el padre de la teoría de la información».

¡Nuevo!!: Claude Shannon y Una teoría matemática de la comunicación · Ver más »

Universidad de Míchigan

La Universidad de Míchigan (Michigan, UMich o U-M) (en idioma inglés The University of Michigan) es una universidad pública estadounidense que está ubicada en el estado de Míchigan, cuyo campus principal se encuentra en Ann Arbor y tiene otros campus menores en Flint y Dearborn.

¡Nuevo!!: Claude Shannon y Universidad de Míchigan · Ver más »

Vannevar Bush

Vannevar Bush (Everett, Massachusetts, 11 de marzo de 1890-30 de junio de 1974) fue un ingeniero y científico estadounidense.

¡Nuevo!!: Claude Shannon y Vannevar Bush · Ver más »

Walter Houser Brattain

Walter Houser Brattain (Amoy, China, 10 de febrero de 1902 - 13 de octubre de 1987) fue uno de los físicos que inventó el transistor.

¡Nuevo!!: Claude Shannon y Walter Houser Brattain · Ver más »

Warren Weaver

Warren Weaver (Reedsburg, Wisconsin, Estados Unidos, 1894 - New Milford, 1978) fue un biólogo e informatólogo estadounidense.

¡Nuevo!!: Claude Shannon y Warren Weaver · Ver más »

William Bradford Shockley

William Bradford Shockley (13 de febrero de 1910 - 12 de agosto de 1989) fue un físico estadounidense.

¡Nuevo!!: Claude Shannon y William Bradford Shockley · Ver más »

Redirecciona aquí:

Claude E Shannon, Claude E. Shannon, Claude Elwood Shannon.

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »