65 relaciones: Abraham Lempel, Ajedrez por computadora, Analizador diferencial, Álgebra de Boole, Base de datos, Bell Labs, Biblioteca, Biblioteconomía, Biographical Memoirs of Fellows of the Royal Society, Blaise Pascal, Canal de comunicación, Capacidad de canal, Centro de documentación, Circuito, Circuito de conmutación, Circuito digital, Computadora, Computadora analógica, Criptoanálisis, Criptografía, Documentación, Electrónica, Electricidad, Estados Unidos, Filosofía de las matemáticas, George Robert Stibitz, Harry Nyquist, Herman Goldstine, Ingeniería, Ingeniería eléctrica, Instituto de Tecnología de Massachusetts, Inteligencia artificial, John Bardeen, John von Neumann, Lógica, Libreta de un solo uso, Maestría, Matemáticas, Matemático, Minivac 601, Número de Shannon, Nueva York, Primer teorema de Shannon, Radio (medio de comunicación), Relé, Señal digital, Segunda Guerra Mundial, Segundo teorema de Shannon, Shannon (unidad), Sociedad Estadounidense de Ingenieros Civiles, ..., Teléfono, Telégrafo, Telecomunicación, Televisión, Teoría de la comunicación de los sistemas secretos, Teoría de la información, Teorema de Shannon-Hartley, Thomas Alva Edison, Transistor, Una teoría matemática de la comunicación, Universidad de Míchigan, Vannevar Bush, Walter Houser Brattain, Warren Weaver, William Bradford Shockley. Expandir índice (15 más) »
Abraham Lempel
Abraham Lempel (Leópolis, 10 de febrero de 1936-4 de febrero de 2023) fue un científico de la computación israelí de origen polacoucraniano; fue uno de los padres de la familia LZ de algoritmos de compresión sin pérdidas de datos.
¡Nuevo!!: Claude Shannon y Abraham Lempel · Ver más »
Ajedrez por computadora
En el empezó a difundirse la idea de crear una máquina capaz de jugar al ajedrez.
¡Nuevo!!: Claude Shannon y Ajedrez por computadora · Ver más »
Analizador diferencial
El Analizador diferencial (en inglés, Differential analyser) fue un computador analógico mecánico diseñado para solucionar ecuaciones diferenciales por integración, usando mecanismos de ruedas y discos para realizar la integración.
¡Nuevo!!: Claude Shannon y Analizador diferencial · Ver más »
Álgebra de Boole
En matemáticas, electrónica digital e informática, el álgebra de Boole, también llamada álgebra booleana, es una estructura algebraica que esquematiza operaciones lógicas.
¡Nuevo!!: Claude Shannon y Álgebra de Boole · Ver más »
Base de datos
Una base de datos (del inglés: database) se encarga no solo de almacenar datos, sino también de conectarlos entre sí en una unidad lógica.
¡Nuevo!!: Claude Shannon y Base de datos · Ver más »
Bell Labs
Nokia Bell Labs (anteriormente llamados AT&T Bell Laboratories, Bell Telephone Laboratories y Bell Labs) es una compañía estadounidense de investigación y desarrollo científico, actualmente propiedad de la empresa finlandesa Nokia.
¡Nuevo!!: Claude Shannon y Bell Labs · Ver más »
Biblioteca
Una biblioteca puede definirse, desde un punto de vista estrictamente etimológico, como el lugar donde se guardan libros.
¡Nuevo!!: Claude Shannon y Biblioteca · Ver más »
Biblioteconomía
La biblioteconomía o bibliotecología es un campo interdisciplinario y multidisciplinario que aplica las prácticas, perspectivas y herramientas de gestión, la tecnología de la información, la educación, la recopilación, organización, preservación y difusión de los recursos de información y la economía política de información a las bibliotecas.
¡Nuevo!!: Claude Shannon y Biblioteconomía · Ver más »
Biographical Memoirs of Fellows of the Royal Society
La Biographical Memoirs of Fellows of the Royal Society (Memorias biográficas de los Miembros de la Real Sociedad) es una revista académica sobre la historia de la ciencia publicado semestralmente por la Royal Society.
¡Nuevo!!: Claude Shannon y Biographical Memoirs of Fellows of the Royal Society · Ver más »
Blaise Pascal
Blaise Pascal (Clermont-Ferrand, 19 de junio de 1623 -París, 19 de agosto de 1662) fue un matemático, físico, filósofo, teólogo católico y apologista francés.
¡Nuevo!!: Claude Shannon y Blaise Pascal · Ver más »
Canal de comunicación
Un canal es un medio de comunicación por el que pasan las señales portadoras de información que pretenden intercambiar emisor y receptor.
¡Nuevo!!: Claude Shannon y Canal de comunicación · Ver más »
Capacidad de canal
En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad máxima de información que /s (bps).
¡Nuevo!!: Claude Shannon y Capacidad de canal · Ver más »
Centro de documentación
El centro de documentación o centro documental es una unidad de información que reúne, gestiona y difunde la documentación de un área del conocimiento determinado o la producida por un organismo o institución a la que se circunscribe.
¡Nuevo!!: Claude Shannon y Centro de documentación · Ver más »
Circuito
Un circuito es una interconexión de componentes eléctricos (como baterías, resistores, inductores, condensadores, interruptores, transistores, entre otros) que transportan la corriente eléctrica a través de una trayectoria cerrada.
¡Nuevo!!: Claude Shannon y Circuito · Ver más »
Circuito de conmutación
*.
¡Nuevo!!: Claude Shannon y Circuito de conmutación · Ver más »
Circuito digital
Un circuito digital (también, circuito lógico) es aquel que maneja la información en forma binaria, es decir, con valores de "1" y "0".
¡Nuevo!!: Claude Shannon y Circuito digital · Ver más »
Computadora
Computadora, computador u ordenador es una máquina electrónica digital programable que ejecuta una serie de comandos para procesar los datos de entrada, obteniendo convenientemente información que posteriormente se envía a las unidades de salida.
¡Nuevo!!: Claude Shannon y Computadora · Ver más »
Computadora analógica
Se denomina computadora analógica, computador analógico u ordenador analógico a un tipo de ordenador que utiliza dispositivos electrónicos o mecánicos para modelar el problema que se resuelve, utilizando un tipo de representación de cantidad física para expresar los valores que conforman el resultado.
¡Nuevo!!: Claude Shannon y Computadora analógica · Ver más »
Criptoanálisis
El criptoanálisis (del griego kryptós, 'escondido' y analýein, 'desatar') es la parte de la criptología que se dedica al estudio de sistemas criptográficos con el fin de encontrar debilidades en los sistemas y romper su seguridad sin el conocimiento de información secreta.
¡Nuevo!!: Claude Shannon y Criptoanálisis · Ver más »
Criptografía
La criptografía (del griego κρύπτos (kryptós), «secreto», y γραφή (graphé), «grafo» o «escritura», literalmente «escritura secreta») se ha definido, tradicionalmente, como el ámbito de la criptología que se ocupa de las técnicas de cifrado o codificado destinadas a alterar las representaciones lingüísticas de ciertos mensajes con el fin de hacerlos ininteligibles a receptores no autorizados.
¡Nuevo!!: Claude Shannon y Criptografía · Ver más »
Documentación
La documentación es la ciencia que consiste en documentar, y se encuentra identificada por el procesamiento de información que otorgará datos específicos sobre un tema determinado; de acuerdo a esto puede identificarse como una técnica instrumental y auxiliar, para lograr informar a numerosas personas sobre un tema en específico.
¡Nuevo!!: Claude Shannon y Documentación · Ver más »
Electrónica
La electrónica es una rama de la física aplicada que comprende la física, la ingeniería, la tecnología y las aplicaciones que tratan con la emisión, el flujo y el control de los electrones u otras partículas cargadas eléctricamente— en el vacío y la materia.
¡Nuevo!!: Claude Shannon y Electrónica · Ver más »
Electricidad
La electricidad (del griego ήλεκτρον élektron, cuyo significado es ‘ámbar’) es el conjunto de fenómenos físicos relacionados con la presencia y flujo de cargas eléctricas.
¡Nuevo!!: Claude Shannon y Electricidad · Ver más »
Estados Unidos
«EUA», «US», «USA» y «United States» redirigen aquí.
¡Nuevo!!: Claude Shannon y Estados Unidos · Ver más »
Filosofía de las matemáticas
La filosofía de las matemáticas es un área de la filosofía teórica que trata de comprender y explicar los requisitos, el objeto, el método y la naturaleza de las matemáticas.
¡Nuevo!!: Claude Shannon y Filosofía de las matemáticas · Ver más »
George Robert Stibitz
George R. Stibitz (York, Pensilvania, 20 de abril de 1904 – † 31 de enero de 1995), fue un científico estadounidense conocido mayoritariamente por sus trabajos realizados en los años 30 y 40 sobre el desarrollo de circuitos digitales lógicos, usando relés electromecánicos como conmutadores.
¡Nuevo!!: Claude Shannon y George Robert Stibitz · Ver más »
Harry Nyquist
Harry Nyquist (pron.) (Stora Kil, Suecia, 7 de febrero de 1889 - Harlingen, EE. UU.,4 de abril de 1976) fue un físico e ingeniero sueco-estadounidense y contribuyente de la Teoría de la información.
¡Nuevo!!: Claude Shannon y Harry Nyquist · Ver más »
Herman Goldstine
Herman Heine Goldstine (13 de septiembre de 1913 – 16 de junio de 2004), matemático, informático y administrador científico, quien fue uno de los principales desarrolladores de ENIAC, el primer computador electrónico digital de propósito general.
¡Nuevo!!: Claude Shannon y Herman Goldstine · Ver más »
Ingeniería
La ingeniería ("ingenio", del latín ingenium, "engendrar, producir", y sufijo -ería (conjunto); "estudio y aplicación de tecnología") es el uso de principios científicos para diseñar y construir máquinas, estructuras y otros entes, incluyendo puentes, túneles, caminos, vehículos, edificios, sistemas y procesos.
¡Nuevo!!: Claude Shannon e Ingeniería · Ver más »
Ingeniería eléctrica
La ingeniería eléctrica es el campo de la ingeniería que se ocupa del estudio y la aplicación de la electricidad, electromagnetismo, electromecánica y la electrónica a sistemas eléctricos de potencia.
¡Nuevo!!: Claude Shannon e Ingeniería eléctrica · Ver más »
Instituto de Tecnología de Massachusetts
El Instituto de Tecnología de Massachusetts (MIT por las iniciales de su nombre en inglés, Massachusetts Institute of Technology) es una universidad privada localizada en Cambridge, Massachusetts (Estados Unidos) considerada por numerosos rankings como una de las mejores y más prestigiosas universidades a nivel mundial, manteniendo durante diez años consecutivos el título de la mejor universidad del mundo según la clasificación mundial de universidades QS.
¡Nuevo!!: Claude Shannon e Instituto de Tecnología de Massachusetts · Ver más »
Inteligencia artificial
La inteligencia artificial (IA), en el contexto de las ciencias de la computación, es una disciplina y un conjunto de capacidades cognoscitivas e intelectuales expresadas por sistemas informáticos o combinaciones de algoritmos cuyo propósito es la creación de máquinas que imiten la inteligencia humana para realizar tareas, y que pueden mejorar conforme recopilen información.
¡Nuevo!!: Claude Shannon e Inteligencia artificial · Ver más »
John Bardeen
John Bardeen (Madison, 23 de mayo de 1908-Boston, 30 de enero de 1991) fue un ingeniero eléctrico y físico estadounidense galardonado con los Premios Nobel de Física de los años 1956 y 1972, convirtiéndose junto a Marie Curie, Linus Pauling, Frederick Sanger y Barry Sharpless en las únicas personas galardonadas dos veces con el Premio Nobel.
¡Nuevo!!: Claude Shannon y John Bardeen · Ver más »
John von Neumann
John von Neumann (registrado al nacer como Neumann János Lajos; Budapest, Imperio austrohúngaro, 28 de diciembre de 1903-Washington D. C., Estados Unidos, 8 de febrero de 1957) fue un matemático húngaroestadounidense que realizó contribuciones fundamentales en física cuántica, análisis funcional, teoría de conjuntos, teoría de juegos, ciencias de la computación, economía, análisis numérico, cibernética, hidrodinámica, estadística y muchos otros campos.
¡Nuevo!!: Claude Shannon y John von Neumann · Ver más »
Lógica
La lógica es una rama de la filosofía de carácter interdisciplinario, entendida como la ciencia formal que estudia los principios de la demostración y la inferencia válida, las falacias, las paradojas y la noción de verdad.
¡Nuevo!!: Claude Shannon y Lógica · Ver más »
Libreta de un solo uso
En criptografía, la libreta de uso único, también llamado libreta de un solo uso (del inglés one-time pad), es un tipo de algoritmos de cifrado por el que el texto en claro se combina con una clave aleatoria o «libreta» igual de larga que el texto en claro y que sólo se utiliza una vez.
¡Nuevo!!: Claude Shannon y Libreta de un solo uso · Ver más »
Maestría
La maestría, también magíster (del latín, magister) o máster (del inglés, master), es un título académico de posgrado otorgado por una universidad pública o privada o un centro de educación superior homologado.
¡Nuevo!!: Claude Shannon y Maestría · Ver más »
Matemáticas
Las matemáticas, o también la matemática, La palabra «matemáticas» no está en el Diccionario de la Real Academia Española.
¡Nuevo!!: Claude Shannon y Matemáticas · Ver más »
Matemático
Un matemático (del latín mathēmāticus, y este a su vez del griego μαθηματικός mathēmatikós) es una persona cuya área primaria de estudio e investigación es la matemática, es decir que contribuye con nuevo conocimiento en este campo de estudio.
¡Nuevo!!: Claude Shannon y Matemático · Ver más »
Minivac 601
Kit Minivac 601 Digital Computer era una computadora digital electromecánica creada como un proyecto personal por el Dr.
¡Nuevo!!: Claude Shannon y Minivac 601 · Ver más »
Número de Shannon
El número de Shannon, 10120, es una estimación de la complejidad del árbol de juego del ajedrez.
¡Nuevo!!: Claude Shannon y Número de Shannon · Ver más »
Nueva York
Nueva York (New York), oficialmente New York City o por las siglas NYC, es la ciudad más poblada de los Estados Unidos y una de las más pobladas del mundo, con un área urbana de 24 millones de habitantes.
¡Nuevo!!: Claude Shannon y Nueva York · Ver más »
Primer teorema de Shannon
En teoría de la información, el teorema de codificación de fuentes, primer teorema de Shannon o, menos utilizado, teorema de codificación sin ruido es un teorema enunciado por Claude Shannon en 1948 que establece el límite teórico para la compresión de una fuente de datos,.
¡Nuevo!!: Claude Shannon y Primer teorema de Shannon · Ver más »
Radio (medio de comunicación)
La radio (entendida como radiofonía o radiodifusión, términos no estrictamente sinónimos) es un medio de comunicación que se basa en el envío de señales de audio a través de ondas de radio, si bien el término se usa también para otras formas de envío de audio a distancia como la radio por Internet.
¡Nuevo!!: Claude Shannon y Radio (medio de comunicación) · Ver más »
Relé
El relevador o relé (relais ‘relevo’) es un dispositivo electromagnético.
¡Nuevo!!: Claude Shannon y Relé · Ver más »
Señal digital
La señal digital es un tipo de señal en que cada signo que codifica el contenido de la misma puede ser analizado en término de algunas magnitudes que representan valores discretos, en lugar de valores dentro de un cierto rango.
¡Nuevo!!: Claude Shannon y Señal digital · Ver más »
Segunda Guerra Mundial
La Segunda Guerra Mundial (también escrito II Guerra Mundial) fue un conflicto militar global que se desarrolló entre 1939 y 1945.
¡Nuevo!!: Claude Shannon y Segunda Guerra Mundial · Ver más »
Segundo teorema de Shannon
En teoría de la información, el segundo teorema de Shannon denominado también de «teorema de codificación de canal», o simplemente teorema de Shannon, es un teorema, matemático enunciado por Claude Shannon, que muestra que es posible transmitir datos discretos (información digital) casi sin errores sobre un mismo canal ruidoso, a un régimen máximo computable.
¡Nuevo!!: Claude Shannon y Segundo teorema de Shannon · Ver más »
Shannon (unidad)
El shannon (símbolo: Sh), más comúnmente conocido como bit, es una unidad de información y de entropía definida por el estándar IEC 80000-13.
¡Nuevo!!: Claude Shannon y Shannon (unidad) · Ver más »
Sociedad Estadounidense de Ingenieros Civiles
La Sociedad Estadounidense de Ingenieros Civiles (en inglés American Society of Civil Engineers, conocido por sus siglas ASCE) es un colegio profesional fundado en 1852 que representa a ingenieros civiles de todo el mundo.
¡Nuevo!!: Claude Shannon y Sociedad Estadounidense de Ingenieros Civiles · Ver más »
Teléfono
El teléfono es un dispositivo de telecomunicación creado para transmitir señales acústicas a distancia por medio de señales eléctricas.
¡Nuevo!!: Claude Shannon y Teléfono · Ver más »
Telégrafo
El telégrafo es un aparato o dispositivo que emplea señales eléctricas para la transmisión de mensajes de texto codificados, como con el código Morse, mediante líneas alámbricas o comunicaciones de radio.
¡Nuevo!!: Claude Shannon y Telégrafo · Ver más »
Telecomunicación
Una telecomunicación es toda transmisión y recepción de señales de cualquier naturaleza, típicamente electromagnéticas, que contengan signos, sonidos, imágenes o, en definitiva, cualquier tipo de información que se desee comunicar a cierta distancia.
¡Nuevo!!: Claude Shannon y Telecomunicación · Ver más »
Televisión
La televisión es un sistema para la transmisión y recepción de imágenes y sonidos a distancia que simulan movimientos, que emplea un mecanismo de difusión.
¡Nuevo!!: Claude Shannon y Televisión · Ver más »
Teoría de la comunicación de los sistemas secretos
Teoría de la comunicación de los sistemas secretos es una publicación publicada en 1949 por Claude Shannon que habla de criptografía desde el punto de vista de la teoría de la información.
¡Nuevo!!: Claude Shannon y Teoría de la comunicación de los sistemas secretos · Ver más »
Teoría de la información
La teoría de la información, también conocida como teoría matemática de la comunicación (Inglés: mathematical theory of communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940.
¡Nuevo!!: Claude Shannon y Teoría de la información · Ver más »
Teorema de Shannon-Hartley
En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de codificación para canales con ruido.
¡Nuevo!!: Claude Shannon y Teorema de Shannon-Hartley · Ver más »
Thomas Alva Edison
Thomas Alva Edison (Milan, Ohio, 11 de febrero de 1847-West Orange, Nueva Jersey, 18 de octubre de 1931) fue un inventor, científico y empresario estadounidense.
¡Nuevo!!: Claude Shannon y Thomas Alva Edison · Ver más »
Transistor
El transistor es un dispositivo electrónico utilizado para amplificar o cambiar señales y potencias eléctricas.
¡Nuevo!!: Claude Shannon y Transistor · Ver más »
Una teoría matemática de la comunicación
Una teoría matemática de la comunicación es un importante e influyente artículo ideado por Claude Elwood Shannon en 1948, conocido por ser «el padre de la teoría de la información».
¡Nuevo!!: Claude Shannon y Una teoría matemática de la comunicación · Ver más »
Universidad de Míchigan
La Universidad de Míchigan (Michigan, UMich o U-M) (en idioma inglés The University of Michigan) es una universidad pública estadounidense que está ubicada en el estado de Míchigan, cuyo campus principal se encuentra en Ann Arbor y tiene otros campus menores en Flint y Dearborn.
¡Nuevo!!: Claude Shannon y Universidad de Míchigan · Ver más »
Vannevar Bush
Vannevar Bush (Everett, Massachusetts, 11 de marzo de 1890-30 de junio de 1974) fue un ingeniero y científico estadounidense.
¡Nuevo!!: Claude Shannon y Vannevar Bush · Ver más »
Walter Houser Brattain
Walter Houser Brattain (Amoy, China, 10 de febrero de 1902 - 13 de octubre de 1987) fue uno de los físicos que inventó el transistor.
¡Nuevo!!: Claude Shannon y Walter Houser Brattain · Ver más »
Warren Weaver
Warren Weaver (Reedsburg, Wisconsin, Estados Unidos, 1894 - New Milford, 1978) fue un biólogo e informatólogo estadounidense.
¡Nuevo!!: Claude Shannon y Warren Weaver · Ver más »
William Bradford Shockley
William Bradford Shockley (13 de febrero de 1910 - 12 de agosto de 1989) fue un físico estadounidense.
¡Nuevo!!: Claude Shannon y William Bradford Shockley · Ver más »
Redirecciona aquí:
Claude E Shannon, Claude E. Shannon, Claude Elwood Shannon.