116 relaciones: Acceso uniforme a memoria, Algoritmo de Boruvka, Algoritmo paralelo, Alice (lenguaje de programación), Alice Recoque, Almacenamiento y reenvío, Amanda Randles, Araña web, Arquitectura de Von Neumann, Array sistólico, Avi Wigderson, Barrera (informática), Black Lab Linux, C. A. R. Hoare, C. Gordon Bell, Charles E. Leiserson, Ciencia computacional e ingeniería, Ciencia computacional teórica, Ciencias de la computación, Cilk, Clases de complejidad P y NP, Cluster Beowulf, Colossus, Compilers: Principles, Techniques, and Tools, Complejidad temporal, Computación basada en ADN, Computación distribuida, Cray Inc., Cromosoma inorgánico basado en silicio, Cubo mágico perfecto, CUDA, David A. Bader, David H. Bailey (matemático), David P. Anderson, Deeplearning4j, Desenroscado de bucles, DESY, Elecciones, Estabilidad del sistema solar, Finisterrae, Frances Elizabeth Allen, Freebase, Gérard Berry, GridMathematica, Haskell, ILLIAC IV, Ingeniería en la nube, Intel i860, Intel Threading Building Blocks, Internet de las cosas, ..., IPython, Jack B. Dennis, Jack Dongarra, Kernel Language 1, Kia Silverbrook, Latencia de entrada, MapReduce, Métodos numéricos para ecuaciones diferenciales ordinarias, Mezcla faro, MISD, Modelo de programación paralela, Monitor (concurrencia), MPICH, Nancy M. Amato, NC (clase de complejidad), NEC SX, NVM Express, OpenACC, OpenMP, Otelo en computadoras, P-completo, Paco Menéndez, Paralelismo (informática), Paralelo (desambiguación), Procesador multinúcleo, Programación funcional, Quinta generación de computadoras, Rb 12 Penguin, Red de ordenamiento, Red de Petri, Red mariposa, Reduced instruction set computing, Rendimiento del equipo, Requisitos de lenguaje Steelman, Richard Feynman, River Trail, Roddam Narasimha, SageMath, Samuel S. Wagstaff, Jr., SATA Express, Servidor, Simple Instruction Set Computing, Skip list, Sociedad de la mente, Speedup, Susan L. Graham, Sysplex Paralelo, Systemd, Tamara G. Kolda, Tecnologías de transcriptómica, Teorema del coloreo de carreteras, Teseracto, Thomas H. Cormen, Treap, UMAC, Unidad central de procesamiento, Unified Parallel C, Universidad Federal del Cáucaso del Norte, Vectorización automática, Vergonzosamente paralelo, VTK, WebCL, Weitek, William Daniel Hillis, XProc, Zero instruction set computer. Expandir índice (66 más) »
Acceso uniforme a memoria
Acceso uniforme a memoria o UMA (en inglés: Uniform Memory Access) es una arquitectura de memoria compartida utilizada en computación paralela.
¡Nuevo!!: Computación paralela y Acceso uniforme a memoria · Ver más »
Algoritmo de Boruvka
El Algoritmo de Borůvka es un algoritmo para encontrar el árbol recubridor mínimo en un grafo ponderado en el que todos sus arcos tienen distinto peso.
¡Nuevo!!: Computación paralela y Algoritmo de Boruvka · Ver más »
Algoritmo paralelo
En las ciencias de la computación, un algoritmo paralelo, en oposición a los algoritmos clásicos o algoritmos secuenciales, es un algoritmo que puede ser ejecutado por partes en el mismo instante de tiempo por varias unidades de procesamiento, para finalmente unir todas las partes y obtener el resultado correcto.
¡Nuevo!!: Computación paralela y Algoritmo paralelo · Ver más »
Alice (lenguaje de programación)
Alice es un lenguaje de programación funcional diseñado en el de la Universidad del Sarre.
¡Nuevo!!: Computación paralela y Alice (lenguaje de programación) · Ver más »
Alice Recoque
Alice Maria Recoque, nacida Alice Maria Arnaud, (Cherchell, Argelia, 29 de agosto de 1929-Ballainvilliers, 28 de enero de 2021), fue una informática francesa.
¡Nuevo!!: Computación paralela y Alice Recoque · Ver más »
Almacenamiento y reenvío
Almacenamiento y reenvío (en inglés: «Store and forward») es una técnica de conmutación en redes con conexiones punto a punto estáticas, en virtud de la cual los datos se envían a un nodo intermedio, donde son retenidos temporalmente hasta su posterior reenvío, bien a su destino final, bien a otro nodo intermedio.
¡Nuevo!!: Computación paralela y Almacenamiento y reenvío · Ver más »
Amanda Randles
Amanda Randles es una ingeniera biomédica estadounidense que es actualmente la Profesora Ayudante de Ciencias Biomédicas de Alfred Winborne y Victoria Stover Mordeca en Universidad Duke.
¡Nuevo!!: Computación paralela y Amanda Randles · Ver más »
Araña web
Un rastreador web, indexador web, indizador web o araña web es un programa informático que inspecciona las páginas del World Wide Web de forma metódica y automatizada.
¡Nuevo!!: Computación paralela y Araña web · Ver más »
Arquitectura de Von Neumann
La arquitectura Von Neumann, también conocida como modelo de Von Neumann o arquitectura Princeton, es una arquitectura de computadoras basada en la descrita en 1945 por el matemático y físico John von Neumann y otros, en el primer borrador de un informe sobre el EDVAC.
¡Nuevo!!: Computación paralela y Arquitectura de Von Neumann · Ver más »
Array sistólico
En arquitectura de computadoras paralelas, una matriz sistólica es una red homogénea de unidades de procesamiento de datos (DPU) fuertemente acopladas llamadas células o nodos.
¡Nuevo!!: Computación paralela y Array sistólico · Ver más »
Avi Wigderson
Avi Wigderson (9 de septiembre de 1956; אבי ויגדרזון) es un matemático e informático teórico israelí, profesor del Instituto de Estudios Avanzados de Princeton en Princeton, Estados Unidos.
¡Nuevo!!: Computación paralela y Avi Wigderson · Ver más »
Barrera (informática)
En computación paralela, una barrera (en inglés: barrier) es un método de sincronización.
¡Nuevo!!: Computación paralela y Barrera (informática) · Ver más »
Black Lab Linux
Black Lab Linux es una distribución de Linux de software libre para hardware x86 y x86_64.
¡Nuevo!!: Computación paralela y Black Lab Linux · Ver más »
C. A. R. Hoare
Charles Antony Richard Hoare (Colombo, Sri Lanka, 11 de enero de 1934), también conocido familiarmente como Tony Hoare, es un científico británico en computación.
¡Nuevo!!: Computación paralela y C. A. R. Hoare · Ver más »
C. Gordon Bell
C.
¡Nuevo!!: Computación paralela y C. Gordon Bell · Ver más »
Charles E. Leiserson
Charles E. Leiserson (10 de noviembre de 1953), es un científico informático estadounidense, especializado en la teoría de computación paralela y computación distribuida, y particularmente en sus aplicaciones prácticas.
¡Nuevo!!: Computación paralela y Charles E. Leiserson · Ver más »
Ciencia computacional e ingeniería
Ciencias de la Computación e Ingeniería (CSE por sus siglas en inglés) es una disciplina que se enfoca en el diseño, la implementación y la aplicación de sistemas informáticos, desde el nivel más bajo de hardware hasta el más alto nivel de software.
¡Nuevo!!: Computación paralela y Ciencia computacional e ingeniería · Ver más »
Ciencia computacional teórica
Las ciencias de la computación teórica o ciencias de la informática teórica (TCS) es una división o un subconjunto de las ciencias de la computación y las matemáticas que se enfoca en aspectos más abstractos o matemáticos de la computación.
¡Nuevo!!: Computación paralela y Ciencia computacional teórica · Ver más »
Ciencias de la computación
Las ciencias de la computación estudian los fundamentos teóricos de la información y el cómputo, junto con técnicas prácticas para la implementación y aplicación de estos fundamentos teóricos.
¡Nuevo!!: Computación paralela y Ciencias de la computación · Ver más »
Cilk
Cilk es un lenguaje de programación de propósito general diseñado para la programación paralela multihilos.
¡Nuevo!!: Computación paralela y Cilk · Ver más »
Clases de complejidad P y NP
La relación entre las clases de complejidad NP y P es una pregunta por primera vez formulada por el científico computacional Stephen Cook que la teoría de la complejidad computacional aún no ha podido responder.
¡Nuevo!!: Computación paralela y Clases de complejidad P y NP · Ver más »
Cluster Beowulf
Beowulf es un sistema de cómputo paralelo basado en clusters de ordenadores personales conectados a través de redes informáticas estándar, sin el uso de equipos desarrollados específicamente para la computación paralela.
¡Nuevo!!: Computación paralela y Cluster Beowulf · Ver más »
Colossus
Las máquinas Colossus fueron los primeros dispositivos calculadores electrónicos usados por los británicos para leer las comunicaciones cifradas alemanas durante la Segunda Guerra Mundial.
¡Nuevo!!: Computación paralela y Colossus · Ver más »
Compilers: Principles, Techniques, and Tools
Compilers: Principles, Techniques, and Tools (traducido como Compiladores. Principios, técnicas y herramientas), más conocido como El libro del dragón (Dragon Book en inglés) por aparecer un dragón en su portada (que representa un compilador) es un libro de referencia en el mundo de los compiladores e intérpretes de lenguajes de programación.
¡Nuevo!!: Computación paralela y Compilers: Principles, Techniques, and Tools · Ver más »
Complejidad temporal
En informática, la complejidad temporal es la complejidad computacional que describe la cantidad de tiempo que lleva ejecutar un algoritmo.
¡Nuevo!!: Computación paralela y Complejidad temporal · Ver más »
Computación basada en ADN
La computación basada en ADN es una rama emergente de la informática que utiliza el ADN como hardware en vez de los circuitos integrados de silicio empleados por las computadoras tradicionales.
¡Nuevo!!: Computación paralela y Computación basada en ADN · Ver más »
Computación distribuida
La computación distribuida es un modelo para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida.
¡Nuevo!!: Computación paralela y Computación distribuida · Ver más »
Cray Inc.
Cray Inc. es un fabricante estadounidense de supercomputadoras establecido en Seattle, Washington.
¡Nuevo!!: Computación paralela y Cray Inc. · Ver más »
Cromosoma inorgánico basado en silicio
Un cromosoma inorgánico basado en silicio (en inglés Inorganic Chromosome based in Silicon (InChroSil)) es un circuito electrónico que emula el comportamiento y la estructura del ADN orgánico, es decir, con componentes electrónicos se reproduce con toda exactitud la estructura de la doble hélice del ADN, siendo las bases de los nucleótidos componentes electrónicos, y los enlaces químicos entre las bases, también son componentes electrónicos.
¡Nuevo!!: Computación paralela y Cromosoma inorgánico basado en silicio · Ver más »
Cubo mágico perfecto
En matemáticas, un cubo mágico perfecto es un cubo mágico en el cual sumando los números de las columnas, las filas, los pilares y las diagonales oblicuas diagonales del espacio, además de la sección transversal dan lugar a un valor numérico constante llamado constante mágica.
¡Nuevo!!: Computación paralela y Cubo mágico perfecto · Ver más »
CUDA
CUDA son las siglas de Compute Unified Device Architecture (Arquitectura Unificada de Dispositivos de Cómputo) que hace referencia a una plataforma de computación en paralelo que incluye un compilador y un conjunto de herramientas de desarrollo creadas por Nvidia que permiten a los programadores usar una variación del lenguaje de programación C (CUDA C) para codificar algoritmos en GPU de Nvidia.
¡Nuevo!!: Computación paralela y CUDA · Ver más »
David A. Bader
David A. Bader (nacido el 4 de mayo de 1969) es Catedrático Distinguido y Director del Instituto de Ciencia de Datos del Instituto Tecnológico de Nueva Jersey.
¡Nuevo!!: Computación paralela y David A. Bader · Ver más »
David H. Bailey (matemático)
David Harold Bailey (nacido el 14 de agosto de 1948) es un matemático e informático teórico estadounidense, conocido por sus aportaciones a los sistemas de cálculo computerizado, que la permitieron calcular el valor de Π con más cien millones de cifras decimales.
¡Nuevo!!: Computación paralela y David H. Bailey (matemático) · Ver más »
David P. Anderson
David Pope Anderson (nacido en 1955) es un investigador y científico estadounidense en el Laboratorio de Ciencias Espaciales de la Universidad de California, Berkeley, y profesor adjunto de ciencias de la computación en la Universidad de Houston.
¡Nuevo!!: Computación paralela y David P. Anderson · Ver más »
Deeplearning4j
Eclipse Deeplearning4j es una biblioteca de programación escrita en Java para la máquina virtual Java (JVM).
¡Nuevo!!: Computación paralela y Deeplearning4j · Ver más »
Desenroscado de bucles
El Desenroscado de bucles (conocido en inglés como loop unrolling o Loop unwinding) es una técnica de optimización de bucles que intenta mejorar la velocidad de ejecución de un programa a costa de aumentar su tamaño binario (Situación de compromiso espacio-tiempo).
¡Nuevo!!: Computación paralela y Desenroscado de bucles · Ver más »
DESY
DESY (del alemán "Deutsches Elektronen Synchrotron"), o Sincrotrón Alemán de Electrones, es el mayor centro de investigación alemán de física de partículas, con sedes en Hamburgo y Berlín.
¡Nuevo!!: Computación paralela y DESY · Ver más »
Elecciones
Las elecciones son un proceso institucional en el que los electores eligen con su voto, entre una pluralidad de candidatos a quienes ocuparán los cargos políticos en una democracia representativa.
¡Nuevo!!: Computación paralela y Elecciones · Ver más »
Estabilidad del sistema solar
La estabilidad del sistema solar es una cuestión objeto de numerosas investigaciones en astronomía.
¡Nuevo!!: Computación paralela y Estabilidad del sistema solar · Ver más »
Finisterrae
Finisterrae es el nombre del superordenador instalado en el CESGA de Santiago de Compostela (España) en 2007.
¡Nuevo!!: Computación paralela y Finisterrae · Ver más »
Frances Elizabeth Allen
Frances Elizabeth "Fran" Allen (Peru, Nueva York, 4 de agosto de 1932 - Schenectady, Nueva York, 4 de agosto de 2020) fue una informática estadounidense y pionera en el campo de optimizar compiladores.
¡Nuevo!!: Computación paralela y Frances Elizabeth Allen · Ver más »
Freebase
Freebase fue una base de conocimiento colaborativa compuesta por metadatos creados principalmente por miembros de su comunidad.
¡Nuevo!!: Computación paralela y Freebase · Ver más »
Gérard Berry
Gérard Philippe Berry (n. 1948) es un informático teórico francés, miembro de la Academia de las Ciencias francesa, la Academia de Tecnología francesa y la Academia Europæa.
¡Nuevo!!: Computación paralela y Gérard Berry · Ver más »
GridMathematica
gridMathematica es un producto de software de Wolfram Research, el cual extiende las capacidades de procesamiento paralelo de su producto principal Mathematica.
¡Nuevo!!: Computación paralela y GridMathematica · Ver más »
Haskell
Haskell (pronunciado //) es un lenguaje de programación estandarizado multi-propósito, funcionalmente puro, con evaluación no estricta y memorizada, y fuerte tipificación estática.
¡Nuevo!!: Computación paralela y Haskell · Ver más »
ILLIAC IV
El ILLIAC IV fue uno de los primeros supercomputadores de la historia.
¡Nuevo!!: Computación paralela e ILLIAC IV · Ver más »
Ingeniería en la nube
Ingeniería en la nube es la aplicación de disciplinas de ingeniería a la computación en la nube.
¡Nuevo!!: Computación paralela e Ingeniería en la nube · Ver más »
Intel i860
El Intel i860 (también conocido como el 80860, y nombre código N10) era un microprocesador RISC de Intel, lanzado en 1989.
¡Nuevo!!: Computación paralela e Intel i860 · Ver más »
Intel Threading Building Blocks
Intel Threading Building Blocks (Intel TBB) es una biblioteca basada en plantillas para C++ desarrollada por Intel para facilitar la escritura de programas que exploten las capacidades de paralelismo de los procesadores con arquitectura multinúcleo.
¡Nuevo!!: Computación paralela e Intel Threading Building Blocks · Ver más »
Internet de las cosas
El Internet de las cosas (IdC) describe objetos físicos (o grupos de estos) con sensores, capacidad de procesamiento, software y otras que se conectan e intercambian datos con otros dispositivos y sistemas a través de internet u otras redes de comunicación.
¡Nuevo!!: Computación paralela e Internet de las cosas · Ver más »
IPython
IPython es un shell interactivo que añade funcionalidades extra al modo interactivo incluido con Python, como resaltado de líneas y errores mediante colores, una sintaxis adicional para el shell, autocompletado mediante tabulador de variables, módulos y atributos; entre otras funcionalidades.
¡Nuevo!!: Computación paralela e IPython · Ver más »
Jack B. Dennis
Jack B. Dennis (Elizabeth (Nueva Jersey), 13 de octubre de 1931) es profesor de informática e ingeniería, emérito, en el MIT (Massachusetts Institute of Technology).
¡Nuevo!!: Computación paralela y Jack B. Dennis · Ver más »
Jack Dongarra
Jack J. Dongarra (nacido el 18 de julio de 1950) es un matemático y científico de la computación estadounidense.
¡Nuevo!!: Computación paralela y Jack Dongarra · Ver más »
Kernel Language 1
Kernel Language 1 o KL1 es un lenguaje de programación desarrollado en 1987 por el Institute for New Generation Computer Technology (Instituto para la Nueva Generación de Tecnologías de Computación, o ICOT por su siglas en inglés) en el marco del proyecto japonés de la quinta generación de computadoras en la década de 1980.
¡Nuevo!!: Computación paralela y Kernel Language 1 · Ver más »
Kia Silverbrook
Kia Silverbrook (nacido en 1958) es un científico y emprendedor australiano.
¡Nuevo!!: Computación paralela y Kia Silverbrook · Ver más »
Latencia de entrada
La latencia de entrada o input lag es la cantidad de tiempo que transcurre entre el envío de una señal eléctrica y la ocurrencia de la acción correspondiente.
¡Nuevo!!: Computación paralela y Latencia de entrada · Ver más »
MapReduce
MR es un modelo de programación para dar soporte a la computación paralela sobre grandes colecciones de datos en grupos de computadoras y al commodity computing.
¡Nuevo!!: Computación paralela y MapReduce · Ver más »
Métodos numéricos para ecuaciones diferenciales ordinarias
Los métodos numéricos para ecuaciones diferenciales ordinarias son procedimientos utilizados para encontrar aproximaciones numericas a las soluciones de ecuaciones diferenciales ordinarias (EDO).
¡Nuevo!!: Computación paralela y Métodos numéricos para ecuaciones diferenciales ordinarias · Ver más »
Mezcla faro
La mezcla faro es un método de mezcla de naipes por imbricación.
¡Nuevo!!: Computación paralela y Mezcla faro · Ver más »
MISD
* Para el distrito escolar estadounidense de McKinney (Texas), véase Distrito Escolar Independiente de McKinney (MISD por sus siglas en inglés).
¡Nuevo!!: Computación paralela y MISD · Ver más »
Modelo de programación paralela
En los programas informáticos, un modelo de programación paralela es un modelo para escribir programas paralelos los cuales pueden ser compilados y ejecutados.
¡Nuevo!!: Computación paralela y Modelo de programación paralela · Ver más »
Monitor (concurrencia)
En la programación paralela, los monitores son estructuras de datos abstractas destinadas a ser usadas sin peligro por más de un hilo de ejecución.
¡Nuevo!!: Computación paralela y Monitor (concurrencia) · Ver más »
MPICH
El software MPICH, anteriormente conocido como MPICH2, es una implementación libre y portable del estándar MPI.
¡Nuevo!!: Computación paralela y MPICH · Ver más »
Nancy M. Amato
Nancy Marie Amato (Estados Unidos) es una científica informática estadounidense destacada por su investigación sobre los fundamentos algorítmicos de la planificación del movimiento, la biología computacional, la geometría computacional y la computación paralela.
¡Nuevo!!: Computación paralela y Nancy M. Amato · Ver más »
NC (clase de complejidad)
En teoría de la complejidad computacional, la clase de complejidad NC (la clase de Nick) es el conjunto de los problemas de decisión que pueden ser resueltos mediante computación paralela con un número polinómico de procesadores en tiempo polilogarítmico.
¡Nuevo!!: Computación paralela y NC (clase de complejidad) · Ver más »
NEC SX
NEC SX es la denominación de una serie de supercomputadoras de procesador vectorial diseñadas, fabricadas y comercializadas por NEC Corporation.
¡Nuevo!!: Computación paralela y NEC SX · Ver más »
NVM Express
NVM Express (NVMe) o la especificación de interfaz de controlador de host de memoria no volátil (NVMHCIS) es una especificación abierta de interfaz de dispositivo lógico para acceder a medios de almacenamiento no volátiles conectados a través de un bus PCI Express (PCIe).
¡Nuevo!!: Computación paralela y NVM Express · Ver más »
OpenACC
OpenACC (Para Aceleradores Abiertos) es un estándar de programación para la informática paralela desarrollada por Cray, CAPS, Nvidia y PGI.
¡Nuevo!!: Computación paralela y OpenACC · Ver más »
OpenMP
OpenMP es una interfaz de programación de aplicaciones (API) para la programación multiproceso de memoria compartida en múltiples plataformas.
¡Nuevo!!: Computación paralela y OpenMP · Ver más »
Otelo en computadoras
Otelo en Computadoras se refiere a un sistema computacional que incluye hardware y software capaz de jugar Otelo.
¡Nuevo!!: Computación paralela y Otelo en computadoras · Ver más »
P-completo
En teoría de la complejidad computacional, la clase de complejidad P-completo es un conjunto de problemas de decisión de gran utilidad para identificar los problemas que pueden ser resueltos eficientemente en máquinas paralelas.
¡Nuevo!!: Computación paralela y P-completo · Ver más »
Paco Menéndez
Francisco Menéndez González (Avilés, 1965 – Sevilla, 1999), conocido como Paco Menéndez, ingeniero de telecomunicación por la Universidad Politécnica de Madrid, fue un desarrollador de videojuegos español.
¡Nuevo!!: Computación paralela y Paco Menéndez · Ver más »
Paralelismo (informática)
En la informática, el paralelismo es la simple aplicación de múltiples CPU a un problema único.
¡Nuevo!!: Computación paralela y Paralelismo (informática) · Ver más »
Paralelo (desambiguación)
Paralelo (o su femenino, paralela) puede referirse a.
¡Nuevo!!: Computación paralela y Paralelo (desambiguación) · Ver más »
Procesador multinúcleo
Un procesador multinúcleo es un microprocesador en un solo circuito integrado con dos o más unidades de procesamiento separadas, llamadas núcleos, cada una de las cuales lee y ejecuta instrucciones de programa.
¡Nuevo!!: Computación paralela y Procesador multinúcleo · Ver más »
Programación funcional
En informática, la programación funcional es un paradigma de programación declarativa basado en el uso de verdaderas funciones matemáticas.
¡Nuevo!!: Computación paralela y Programación funcional · Ver más »
Quinta generación de computadoras
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems), fue un proyecto hecho por Japón que comenzó en 1981.
¡Nuevo!!: Computación paralela y Quinta generación de computadoras · Ver más »
Rb 12 Penguin
El Rb 12 Penguin (designación estadounidense: AGM-119) es un misil antibuque creado en Noruega en los años 1960, desde los años 1970 es fabricado por Kongsberg Defence & Aerospace (KDA) y desde entonces ha estado en continuo desarrollo.
¡Nuevo!!: Computación paralela y Rb 12 Penguin · Ver más »
Red de ordenamiento
En ciencias de la computación, una red de ordenamiento (sorting network) es un algoritmo que ordena un número fijo de valores mediante el uso de una secuencia fija de comparaciones.
¡Nuevo!!: Computación paralela y Red de ordenamiento · Ver más »
Red de Petri
Una Red de Petri es una representación matemática o gráfica de un sistema a eventos discretos en el cual se puede describir la topología de un sistema distribuido, paralelo o concurrente.
¡Nuevo!!: Computación paralela y Red de Petri · Ver más »
Red mariposa
Red mariposa es una topología de red de interconexión de múltiples etapas (RIME), la cual se puede utilizar para conectar distintos nodos en un sistema de multiprocesador.
¡Nuevo!!: Computación paralela y Red mariposa · Ver más »
Reduced instruction set computing
En arquitectura computacional, RISC (del inglés Reduced Instruction Set Computer, en español Computador con conjunto de instrucciones reducido) es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales.
¡Nuevo!!: Computación paralela y Reduced instruction set computing · Ver más »
Rendimiento del equipo
El rendimiento del Sistema de Información o de la computadora es la cantidad de trabajo realizado por un sistema informático.
¡Nuevo!!: Computación paralela y Rendimiento del equipo · Ver más »
Requisitos de lenguaje Steelman
El documento de requisitos de lenguaje Steelman recoge una serie de requisitos que un lenguaje de programación de alto nivel para propósito general debería cumplir.
¡Nuevo!!: Computación paralela y Requisitos de lenguaje Steelman · Ver más »
Richard Feynman
Richard Phillips Feynman (Queens, Nueva York; 11 de mayo de 1918-Los Ángeles, California; 15 de febrero de 1988) fue un físico teórico estadounidense conocido por sus trabajos en la formulación por integrales de camino en la mecánica cuántica, la teoría de la electrodinámica cuántica y la física de la superfluidez del helio líquido subenfriado, así como en la física de partículas, campo en el que propuso el modelo Partón.
¡Nuevo!!: Computación paralela y Richard Feynman · Ver más »
River Trail
River Trail es un motor de código abierto, desarrollado por Intel, para interpretar código JavaScript haciendo uso de procesamiento en paralelo por hardware cuando el micro lo permite.
¡Nuevo!!: Computación paralela y River Trail · Ver más »
Roddam Narasimha
Roddam Narasimha (20 de julio de 1933-14 de diciembre de 2020) fue un científico aeroespacial y dinámico de fluidos indio.
¡Nuevo!!: Computación paralela y Roddam Narasimha · Ver más »
SageMath
SageMath, conocido anteriormente como Sage, es un sistema algebraico computacional (en inglés CAS) que destaca por estar construido sobre paquetes matemáticos ya contrastados como NumPy, Sympy, PARI/GP o Maxima y por acceder a sus potencias combinadas a través de un lenguaje común basado en Python.
¡Nuevo!!: Computación paralela y SageMath · Ver más »
Samuel S. Wagstaff, Jr.
Samuel Standfield Wagstaff Jr. (nacido el 21 de febrero de 1945) es un matemático e informático teórico estadounidense, cuyos intereses de investigación se encuentran en las áreas de la criptografía, la computación paralela y el análisis de algoritmos, especialmente algoritmos en teoría de números.
¡Nuevo!!: Computación paralela y Samuel S. Wagstaff, Jr. · Ver más »
SATA Express
SATA Express (abreviado de Serial ATA Express y algunas veces no oficialmente abreviado a SATAe) es una interfaz de bus de computadora que admite dispositivos de almacenamiento Serial ATA (SATA) y PCI Express (PCIe), inicialmente estandarizados en la especificación SATA 3.2.
¡Nuevo!!: Computación paralela y SATA Express · Ver más »
Servidor
Un servidor es un conjunto de computadoras capaces de atender las peticiones de un cliente y devolverle una respuesta en concordancia.
¡Nuevo!!: Computación paralela y Servidor · Ver más »
Simple Instruction Set Computing
SISC (Simple Instruction Set Computing) es un tipo de arquitectura de microprocesadores orientada al procesamiento de tareas en paralelo.
¡Nuevo!!: Computación paralela y Simple Instruction Set Computing · Ver más »
Skip list
Una skip list o lista por saltos es una Estructura de datos, basada en Listas enlazadas paralelas con eficiencia comparable a la de un árbol binario (tiempo en orden O(log n) para la mayoría de las operaciones).
¡Nuevo!!: Computación paralela y Skip list · Ver más »
Sociedad de la mente
La Sociedad de la Mente (Society of Mind, en inglés) es tanto el título de un libro de 1986 como el nombre de una teoría de la inteligencia natural escrita y desarrollada por Marvin Minsky.
¡Nuevo!!: Computación paralela y Sociedad de la mente · Ver más »
Speedup
En arquitectura de computadores, speedup (aceleración en castellano) es un proceso realizado para mejorar el rendimiento de un sistema que procesa un problema determinado.
¡Nuevo!!: Computación paralela y Speedup · Ver más »
Susan L. Graham
Susan L. Graham es una informática teórica, profesora distinguida (Pehong Chen Distinguished Professor) de la División de Ciencias de Computación del Departamento de Ingeniería Eléctrica y Ciencias de la Computación, en la Universidad de California, Berkeley.
¡Nuevo!!: Computación paralela y Susan L. Graham · Ver más »
Sysplex Paralelo
En computación, un Sysplex Paralelo es un cluster de computadoras centrales que funcionan como un solo sistema, normalmente usando z/OS.
¡Nuevo!!: Computación paralela y Sysplex Paralelo · Ver más »
Systemd
systemd es un conjunto de demonios o ''daemons'' de administración de sistema, bibliotecas y herramientas diseñados como una plataforma de administración y configuración central para interactuar con el núcleo del Sistema operativo GNU/Linux.
¡Nuevo!!: Computación paralela y Systemd · Ver más »
Tamara G. Kolda
Tamara G. Kolda es una matemática aplicada estadounidense y es un miembro distinguido del personal técnico del Laboratorio Nacional de Sandia.
¡Nuevo!!: Computación paralela y Tamara G. Kolda · Ver más »
Tecnologías de transcriptómica
Las tecnologías de transcriptómica son las técnicas utilizadas para el estudio del transcriptoma de un organismo, es decir, el conjunto de todos sus transcritos de ARN.
¡Nuevo!!: Computación paralela y Tecnologías de transcriptómica · Ver más »
Teorema del coloreo de carreteras
En teoría de grafos el teorema de coloreo de carreteras, teorema del camino coloreado o, conocido antiguamente como la conjetura del coloreo de carreteras, es un problema de coloreo de grafos planos.
¡Nuevo!!: Computación paralela y Teorema del coloreo de carreteras · Ver más »
Teseracto
En geometría, el teseracto es el análogo en cuatro dimensiones del cubo; o expresado en otras palabras, el teseracto guarda con el cubo una relación igual a la que el cubo guarda con respecto al cuadrado.
¡Nuevo!!: Computación paralela y Teseracto · Ver más »
Thomas H. Cormen
Thomas H. Cormen es catedrático de informática en la universidad Dartmouth.
¡Nuevo!!: Computación paralela y Thomas H. Cormen · Ver más »
Treap
En Ciencias de la Computación, el treap y el árbol binario de búsqueda aleatorio son dos formas de árbol binario de búsqueda estrechamente relacionadas que mantienen un conjunto dinámico de llaves ordenadas y permiten búsqueda binaria sobre las llaves almacenadas.
¡Nuevo!!: Computación paralela y Treap · Ver más »
UMAC
En criptografía, un código de autenticación de mensajes basado en hashing universal o UMAC es un tipo de código de autenticación de mensajes (MAC) que se calcula eligiendo una función de hash de una clase de funciones de hash de acuerdo a algún proceso secreto (aleatorio) y aplicándosela al mensaje.
¡Nuevo!!: Computación paralela y UMAC · Ver más »
Unidad central de procesamiento
La unidad central de procesamiento (conocida por las siglas CPU, del inglés Central Processing Unit) o procesador es un componente del hardware dentro de un ordenador, teléfonos inteligentes, y otros dispositivos programables.
¡Nuevo!!: Computación paralela y Unidad central de procesamiento · Ver más »
Unified Parallel C
Unified Parallel C (UPC) es una extensión del lenguaje de programación C diseñado para computación de alto rendimiento en máquinas paralelas, incluyendo tanto aquellas con un espacio de memoria global (SMP y NUMA) como aquellas con un espacio de memoria distribuido, como los clusters.
¡Nuevo!!: Computación paralela y Unified Parallel C · Ver más »
Universidad Federal del Cáucaso del Norte
La Universidad Federal del Cáucaso Norte es la institución de enseñanza superior de la ciudad de Stávropol situada en el sur de Rusia.
¡Nuevo!!: Computación paralela y Universidad Federal del Cáucaso del Norte · Ver más »
Vectorización automática
La vectorización automática, en computación paralela, es un caso especial de paralelización automática, en la cual un programa informático es convertido de una implementación escalar, el cual procesa un simple par de operandos en un momento, a una implementación vectorial, el cual procesa una operación en múltiples pares de operandos a la vez.
¡Nuevo!!: Computación paralela y Vectorización automática · Ver más »
Vergonzosamente paralelo
En computación paralela, una carga de trabajo o problema vergonzosamente paralelo (también llamado vergonzosamente paralelizable, perfectamente paralelo, deliciosamente paralelo o placenteramente paralelo) es aquel en el que se necesita poco o ningún esfuerzo para separar el problema en varias tareas paralelas.
¡Nuevo!!: Computación paralela y Vergonzosamente paralelo · Ver más »
VTK
El Kit de herramientas de visualización (VTK) es un sistema de software libre, libremente disponible para la realización de gráficos 3D por computadora, procesamiento de imagen y visualización.
¡Nuevo!!: Computación paralela y VTK · Ver más »
WebCL
WebCL o Web Computing Language es una tecnología que permite la integración de OpenCL en código JavaScript para poder usar programación paralela heterogénea y así aprovechar las ventajas de los CPUs y GPUs con varios núcleos.
¡Nuevo!!: Computación paralela y WebCL · Ver más »
Weitek
Weitek Corporation fue una compañía de desarrollo de chips con base en San José, California.
¡Nuevo!!: Computación paralela y Weitek · Ver más »
William Daniel Hillis
William Daniel "Danny" Hillis (Baltimore, 25 de septiembre de 1956) es un inventor, matemático, ingeniero, empresario y escritor estadounidense.
¡Nuevo!!: Computación paralela y William Daniel Hillis · Ver más »
XProc
XProc Es una Recomendación de W3C para definir un lenguaje de transformación de XML para definir #XML Pipelines.
¡Nuevo!!: Computación paralela y XProc · Ver más »
Zero instruction set computer
En informática, ZISC significa computador sin conjunto de instrucciones, y se refiere a una tecnología de procesadores basados en concordancia con el modelo puro y la ausencia de (micro) instrucciones en el sentido clásico.
¡Nuevo!!: Computación paralela y Zero instruction set computer · Ver más »
Redirecciona aquí:
Calculo paralelo, Computacion paralela, Cálculo paralelo, Maquina paralela, Máquina paralela, Programacion paralela, Programación paralela, Sistema paralelo.