Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Instalar
¡Más rápido que el navegador!
 

Computación paralela

Índice Computación paralela

La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo).

116 relaciones: Acceso uniforme a memoria, Algoritmo de Boruvka, Algoritmo paralelo, Alice (lenguaje de programación), Alice Recoque, Almacenamiento y reenvío, Amanda Randles, Araña web, Arquitectura de Von Neumann, Array sistólico, Avi Wigderson, Barrera (informática), Black Lab Linux, C. A. R. Hoare, C. Gordon Bell, Charles E. Leiserson, Ciencia computacional e ingeniería, Ciencia computacional teórica, Ciencias de la computación, Cilk, Clases de complejidad P y NP, Cluster Beowulf, Colossus, Compilers: Principles, Techniques, and Tools, Complejidad temporal, Computación basada en ADN, Computación distribuida, Cray Inc., Cromosoma inorgánico basado en silicio, Cubo mágico perfecto, CUDA, David A. Bader, David H. Bailey (matemático), David P. Anderson, Deeplearning4j, Desenroscado de bucles, DESY, Elecciones, Estabilidad del sistema solar, Finisterrae, Frances Elizabeth Allen, Freebase, Gérard Berry, GridMathematica, Haskell, ILLIAC IV, Ingeniería en la nube, Intel i860, Intel Threading Building Blocks, Internet de las cosas, ..., IPython, Jack B. Dennis, Jack Dongarra, Kernel Language 1, Kia Silverbrook, Latencia de entrada, MapReduce, Métodos numéricos para ecuaciones diferenciales ordinarias, Mezcla faro, MISD, Modelo de programación paralela, Monitor (concurrencia), MPICH, Nancy M. Amato, NC (clase de complejidad), NEC SX, NVM Express, OpenACC, OpenMP, Otelo en computadoras, P-completo, Paco Menéndez, Paralelismo (informática), Paralelo (desambiguación), Procesador multinúcleo, Programación funcional, Quinta generación de computadoras, Rb 12 Penguin, Red de ordenamiento, Red de Petri, Red mariposa, Reduced instruction set computing, Rendimiento del equipo, Requisitos de lenguaje Steelman, Richard Feynman, River Trail, Roddam Narasimha, SageMath, Samuel S. Wagstaff, Jr., SATA Express, Servidor, Simple Instruction Set Computing, Skip list, Sociedad de la mente, Speedup, Susan L. Graham, Sysplex Paralelo, Systemd, Tamara G. Kolda, Tecnologías de transcriptómica, Teorema del coloreo de carreteras, Teseracto, Thomas H. Cormen, Treap, UMAC, Unidad central de procesamiento, Unified Parallel C, Universidad Federal del Cáucaso del Norte, Vectorización automática, Vergonzosamente paralelo, VTK, WebCL, Weitek, William Daniel Hillis, XProc, Zero instruction set computer. Expandir índice (66 más) »

Acceso uniforme a memoria

Acceso uniforme a memoria o UMA (en inglés: Uniform Memory Access) es una arquitectura de memoria compartida utilizada en computación paralela.

¡Nuevo!!: Computación paralela y Acceso uniforme a memoria · Ver más »

Algoritmo de Boruvka

El Algoritmo de Borůvka es un algoritmo para encontrar el árbol recubridor mínimo en un grafo ponderado en el que todos sus arcos tienen distinto peso.

¡Nuevo!!: Computación paralela y Algoritmo de Boruvka · Ver más »

Algoritmo paralelo

En las ciencias de la computación, un algoritmo paralelo, en oposición a los algoritmos clásicos o algoritmos secuenciales, es un algoritmo que puede ser ejecutado por partes en el mismo instante de tiempo por varias unidades de procesamiento, para finalmente unir todas las partes y obtener el resultado correcto.

¡Nuevo!!: Computación paralela y Algoritmo paralelo · Ver más »

Alice (lenguaje de programación)

Alice es un lenguaje de programación funcional diseñado en el de la Universidad del Sarre.

¡Nuevo!!: Computación paralela y Alice (lenguaje de programación) · Ver más »

Alice Recoque

Alice Maria Recoque, nacida Alice Maria Arnaud, (Cherchell, Argelia, 29 de agosto de 1929-Ballainvilliers, 28 de enero de 2021), fue una informática francesa.

¡Nuevo!!: Computación paralela y Alice Recoque · Ver más »

Almacenamiento y reenvío

Almacenamiento y reenvío (en inglés: «Store and forward») es una técnica de conmutación en redes con conexiones punto a punto estáticas, en virtud de la cual los datos se envían a un nodo intermedio, donde son retenidos temporalmente hasta su posterior reenvío, bien a su destino final, bien a otro nodo intermedio.

¡Nuevo!!: Computación paralela y Almacenamiento y reenvío · Ver más »

Amanda Randles

Amanda Randles es una ingeniera biomédica estadounidense que es actualmente la Profesora Ayudante de Ciencias Biomédicas de Alfred Winborne y Victoria Stover Mordeca en Universidad Duke.

¡Nuevo!!: Computación paralela y Amanda Randles · Ver más »

Araña web

Un rastreador web, indexador web, indizador web o araña web es un programa informático que inspecciona las páginas del World Wide Web de forma metódica y automatizada.

¡Nuevo!!: Computación paralela y Araña web · Ver más »

Arquitectura de Von Neumann

La arquitectura Von Neumann, también conocida como modelo de Von Neumann o arquitectura Princeton, es una arquitectura de computadoras basada en la descrita en 1945 por el matemático y físico John von Neumann y otros, en el primer borrador de un informe sobre el EDVAC.

¡Nuevo!!: Computación paralela y Arquitectura de Von Neumann · Ver más »

Array sistólico

En arquitectura de computadoras paralelas, una matriz sistólica es una red homogénea de unidades de procesamiento de datos (DPU) fuertemente acopladas llamadas células o nodos.

¡Nuevo!!: Computación paralela y Array sistólico · Ver más »

Avi Wigderson

Avi Wigderson (9 de septiembre de 1956; אבי ויגדרזון) es un matemático e informático teórico israelí, profesor del Instituto de Estudios Avanzados de Princeton en Princeton, Estados Unidos.

¡Nuevo!!: Computación paralela y Avi Wigderson · Ver más »

Barrera (informática)

En computación paralela, una barrera (en inglés: barrier) es un método de sincronización.

¡Nuevo!!: Computación paralela y Barrera (informática) · Ver más »

Black Lab Linux

Black Lab Linux es una distribución de Linux de software libre para hardware x86 y x86_64.

¡Nuevo!!: Computación paralela y Black Lab Linux · Ver más »

C. A. R. Hoare

Charles Antony Richard Hoare (Colombo, Sri Lanka, 11 de enero de 1934), también conocido familiarmente como Tony Hoare, es un científico británico en computación.

¡Nuevo!!: Computación paralela y C. A. R. Hoare · Ver más »

C. Gordon Bell

C.

¡Nuevo!!: Computación paralela y C. Gordon Bell · Ver más »

Charles E. Leiserson

Charles E. Leiserson (10 de noviembre de 1953), es un científico informático estadounidense, especializado en la teoría de computación paralela y computación distribuida, y particularmente en sus aplicaciones prácticas.

¡Nuevo!!: Computación paralela y Charles E. Leiserson · Ver más »

Ciencia computacional e ingeniería

Ciencias de la Computación e Ingeniería (CSE por sus siglas en inglés) es una disciplina que se enfoca en el diseño, la implementación y la aplicación de sistemas informáticos, desde el nivel más bajo de hardware hasta el más alto nivel de software.

¡Nuevo!!: Computación paralela y Ciencia computacional e ingeniería · Ver más »

Ciencia computacional teórica

Las ciencias de la computación teórica o ciencias de la informática teórica (TCS) es una división o un subconjunto de las ciencias de la computación y las matemáticas que se enfoca en aspectos más abstractos o matemáticos de la computación.

¡Nuevo!!: Computación paralela y Ciencia computacional teórica · Ver más »

Ciencias de la computación

Las ciencias de la computación estudian los fundamentos teóricos de la información y el cómputo, junto con técnicas prácticas para la implementación y aplicación de estos fundamentos teóricos.

¡Nuevo!!: Computación paralela y Ciencias de la computación · Ver más »

Cilk

Cilk es un lenguaje de programación de propósito general diseñado para la programación paralela multihilos.

¡Nuevo!!: Computación paralela y Cilk · Ver más »

Clases de complejidad P y NP

La relación entre las clases de complejidad NP y P es una pregunta por primera vez formulada por el científico computacional Stephen Cook que la teoría de la complejidad computacional aún no ha podido responder.

¡Nuevo!!: Computación paralela y Clases de complejidad P y NP · Ver más »

Cluster Beowulf

Beowulf es un sistema de cómputo paralelo basado en clusters de ordenadores personales conectados a través de redes informáticas estándar, sin el uso de equipos desarrollados específicamente para la computación paralela.

¡Nuevo!!: Computación paralela y Cluster Beowulf · Ver más »

Colossus

Las máquinas Colossus fueron los primeros dispositivos calculadores electrónicos usados por los británicos para leer las comunicaciones cifradas alemanas durante la Segunda Guerra Mundial.

¡Nuevo!!: Computación paralela y Colossus · Ver más »

Compilers: Principles, Techniques, and Tools

Compilers: Principles, Techniques, and Tools (traducido como Compiladores. Principios, técnicas y herramientas), más conocido como El libro del dragón (Dragon Book en inglés) por aparecer un dragón en su portada (que representa un compilador) es un libro de referencia en el mundo de los compiladores e intérpretes de lenguajes de programación.

¡Nuevo!!: Computación paralela y Compilers: Principles, Techniques, and Tools · Ver más »

Complejidad temporal

En informática, la complejidad temporal es la complejidad computacional que describe la cantidad de tiempo que lleva ejecutar un algoritmo.

¡Nuevo!!: Computación paralela y Complejidad temporal · Ver más »

Computación basada en ADN

La computación basada en ADN es una rama emergente de la informática que utiliza el ADN como hardware en vez de los circuitos integrados de silicio empleados por las computadoras tradicionales.

¡Nuevo!!: Computación paralela y Computación basada en ADN · Ver más »

Computación distribuida

La computación distribuida es un modelo para resolver problemas de computación masiva utilizando un gran número de ordenadores organizados en clústeres incrustados en una infraestructura de telecomunicaciones distribuida.

¡Nuevo!!: Computación paralela y Computación distribuida · Ver más »

Cray Inc.

Cray Inc. es un fabricante estadounidense de supercomputadoras establecido en Seattle, Washington.

¡Nuevo!!: Computación paralela y Cray Inc. · Ver más »

Cromosoma inorgánico basado en silicio

Un cromosoma inorgánico basado en silicio (en inglés Inorganic Chromosome based in Silicon (InChroSil)) es un circuito electrónico que emula el comportamiento y la estructura del ADN orgánico, es decir, con componentes electrónicos se reproduce con toda exactitud la estructura de la doble hélice del ADN, siendo las bases de los nucleótidos componentes electrónicos, y los enlaces químicos entre las bases, también son componentes electrónicos.

¡Nuevo!!: Computación paralela y Cromosoma inorgánico basado en silicio · Ver más »

Cubo mágico perfecto

En matemáticas, un cubo mágico perfecto es un cubo mágico en el cual sumando los números de las columnas, las filas, los pilares y las diagonales oblicuas diagonales del espacio, además de la sección transversal dan lugar a un valor numérico constante llamado constante mágica.

¡Nuevo!!: Computación paralela y Cubo mágico perfecto · Ver más »

CUDA

CUDA son las siglas de Compute Unified Device Architecture (Arquitectura Unificada de Dispositivos de Cómputo) que hace referencia a una plataforma de computación en paralelo que incluye un compilador y un conjunto de herramientas de desarrollo creadas por Nvidia que permiten a los programadores usar una variación del lenguaje de programación C (CUDA C) para codificar algoritmos en GPU de Nvidia.

¡Nuevo!!: Computación paralela y CUDA · Ver más »

David A. Bader

David A. Bader (nacido el 4 de mayo de 1969) es Catedrático Distinguido y Director del Instituto de Ciencia de Datos del Instituto Tecnológico de Nueva Jersey.

¡Nuevo!!: Computación paralela y David A. Bader · Ver más »

David H. Bailey (matemático)

David Harold Bailey (nacido el 14 de agosto de 1948) es un matemático e informático teórico estadounidense, conocido por sus aportaciones a los sistemas de cálculo computerizado, que la permitieron calcular el valor de Π con más cien millones de cifras decimales.

¡Nuevo!!: Computación paralela y David H. Bailey (matemático) · Ver más »

David P. Anderson

David Pope Anderson (nacido en 1955) es un investigador y científico estadounidense en el Laboratorio de Ciencias Espaciales de la Universidad de California, Berkeley, y profesor adjunto de ciencias de la computación en la Universidad de Houston.

¡Nuevo!!: Computación paralela y David P. Anderson · Ver más »

Deeplearning4j

Eclipse Deeplearning4j es una biblioteca de programación escrita en Java para la máquina virtual Java (JVM).

¡Nuevo!!: Computación paralela y Deeplearning4j · Ver más »

Desenroscado de bucles

El Desenroscado de bucles (conocido en inglés como loop unrolling o Loop unwinding) es una técnica de optimización de bucles que intenta mejorar la velocidad de ejecución de un programa a costa de aumentar su tamaño binario (Situación de compromiso espacio-tiempo).

¡Nuevo!!: Computación paralela y Desenroscado de bucles · Ver más »

DESY

DESY (del alemán "Deutsches Elektronen Synchrotron"), o Sincrotrón Alemán de Electrones, es el mayor centro de investigación alemán de física de partículas, con sedes en Hamburgo y Berlín.

¡Nuevo!!: Computación paralela y DESY · Ver más »

Elecciones

Las elecciones son un proceso institucional en el que los electores eligen con su voto, entre una pluralidad de candidatos a quienes ocuparán los cargos políticos en una democracia representativa.

¡Nuevo!!: Computación paralela y Elecciones · Ver más »

Estabilidad del sistema solar

La estabilidad del sistema solar es una cuestión objeto de numerosas investigaciones en astronomía.

¡Nuevo!!: Computación paralela y Estabilidad del sistema solar · Ver más »

Finisterrae

Finisterrae es el nombre del superordenador instalado en el CESGA de Santiago de Compostela (España) en 2007.

¡Nuevo!!: Computación paralela y Finisterrae · Ver más »

Frances Elizabeth Allen

Frances Elizabeth "Fran" Allen (Peru, Nueva York, 4 de agosto de 1932 - Schenectady, Nueva York, 4 de agosto de 2020) fue una informática estadounidense y pionera en el campo de optimizar compiladores.

¡Nuevo!!: Computación paralela y Frances Elizabeth Allen · Ver más »

Freebase

Freebase fue una base de conocimiento colaborativa compuesta por metadatos creados principalmente por miembros de su comunidad.

¡Nuevo!!: Computación paralela y Freebase · Ver más »

Gérard Berry

Gérard Philippe Berry (n. 1948) es un informático teórico francés, miembro de la Academia de las Ciencias francesa, la Academia de Tecnología francesa y la Academia Europæa.

¡Nuevo!!: Computación paralela y Gérard Berry · Ver más »

GridMathematica

gridMathematica es un producto de software de Wolfram Research, el cual extiende las capacidades de procesamiento paralelo de su producto principal Mathematica.

¡Nuevo!!: Computación paralela y GridMathematica · Ver más »

Haskell

Haskell (pronunciado //) es un lenguaje de programación estandarizado multi-propósito, funcionalmente puro, con evaluación no estricta y memorizada, y fuerte tipificación estática.

¡Nuevo!!: Computación paralela y Haskell · Ver más »

ILLIAC IV

El ILLIAC IV fue uno de los primeros supercomputadores de la historia.

¡Nuevo!!: Computación paralela e ILLIAC IV · Ver más »

Ingeniería en la nube

Ingeniería en la nube es la aplicación de disciplinas de ingeniería a la computación en la nube.

¡Nuevo!!: Computación paralela e Ingeniería en la nube · Ver más »

Intel i860

El Intel i860 (también conocido como el 80860, y nombre código N10) era un microprocesador RISC de Intel, lanzado en 1989.

¡Nuevo!!: Computación paralela e Intel i860 · Ver más »

Intel Threading Building Blocks

Intel Threading Building Blocks (Intel TBB) es una biblioteca basada en plantillas para C++ desarrollada por Intel para facilitar la escritura de programas que exploten las capacidades de paralelismo de los procesadores con arquitectura multinúcleo.

¡Nuevo!!: Computación paralela e Intel Threading Building Blocks · Ver más »

Internet de las cosas

El Internet de las cosas (IdC) describe objetos físicos (o grupos de estos) con sensores, capacidad de procesamiento, software y otras que se conectan e intercambian datos con otros dispositivos y sistemas a través de internet u otras redes de comunicación.

¡Nuevo!!: Computación paralela e Internet de las cosas · Ver más »

IPython

IPython es un shell interactivo que añade funcionalidades extra al modo interactivo incluido con Python, como resaltado de líneas y errores mediante colores, una sintaxis adicional para el shell, autocompletado mediante tabulador de variables, módulos y atributos; entre otras funcionalidades.

¡Nuevo!!: Computación paralela e IPython · Ver más »

Jack B. Dennis

Jack B. Dennis (Elizabeth (Nueva Jersey), 13 de octubre de 1931) es profesor de informática e ingeniería, emérito, en el MIT (Massachusetts Institute of Technology).

¡Nuevo!!: Computación paralela y Jack B. Dennis · Ver más »

Jack Dongarra

Jack J. Dongarra (nacido el 18 de julio de 1950) es un matemático y científico de la computación estadounidense.

¡Nuevo!!: Computación paralela y Jack Dongarra · Ver más »

Kernel Language 1

Kernel Language 1 o KL1 es un lenguaje de programación desarrollado en 1987 por el Institute for New Generation Computer Technology (Instituto para la Nueva Generación de Tecnologías de Computación, o ICOT por su siglas en inglés) en el marco del proyecto japonés de la quinta generación de computadoras en la década de 1980.

¡Nuevo!!: Computación paralela y Kernel Language 1 · Ver más »

Kia Silverbrook

Kia Silverbrook (nacido en 1958) es un científico y emprendedor australiano.

¡Nuevo!!: Computación paralela y Kia Silverbrook · Ver más »

Latencia de entrada

La latencia de entrada o input lag es la cantidad de tiempo que transcurre entre el envío de una señal eléctrica y la ocurrencia de la acción correspondiente.

¡Nuevo!!: Computación paralela y Latencia de entrada · Ver más »

MapReduce

MR es un modelo de programación para dar soporte a la computación paralela sobre grandes colecciones de datos en grupos de computadoras y al commodity computing.

¡Nuevo!!: Computación paralela y MapReduce · Ver más »

Métodos numéricos para ecuaciones diferenciales ordinarias

Los métodos numéricos para ecuaciones diferenciales ordinarias son procedimientos utilizados para encontrar aproximaciones numericas a las soluciones de ecuaciones diferenciales ordinarias (EDO).

¡Nuevo!!: Computación paralela y Métodos numéricos para ecuaciones diferenciales ordinarias · Ver más »

Mezcla faro

La mezcla faro es un método de mezcla de naipes por imbricación.

¡Nuevo!!: Computación paralela y Mezcla faro · Ver más »

MISD

* Para el distrito escolar estadounidense de McKinney (Texas), véase Distrito Escolar Independiente de McKinney (MISD por sus siglas en inglés).

¡Nuevo!!: Computación paralela y MISD · Ver más »

Modelo de programación paralela

En los programas informáticos, un modelo de programación paralela es un modelo para escribir programas paralelos los cuales pueden ser compilados y ejecutados.

¡Nuevo!!: Computación paralela y Modelo de programación paralela · Ver más »

Monitor (concurrencia)

En la programación paralela, los monitores son estructuras de datos abstractas destinadas a ser usadas sin peligro por más de un hilo de ejecución.

¡Nuevo!!: Computación paralela y Monitor (concurrencia) · Ver más »

MPICH

El software MPICH, anteriormente conocido como MPICH2, es una implementación libre y portable del estándar MPI.

¡Nuevo!!: Computación paralela y MPICH · Ver más »

Nancy M. Amato

Nancy Marie Amato (Estados Unidos) es una científica informática estadounidense destacada por su investigación sobre los fundamentos algorítmicos de la planificación del movimiento, la biología computacional, la geometría computacional y la computación paralela.

¡Nuevo!!: Computación paralela y Nancy M. Amato · Ver más »

NC (clase de complejidad)

En teoría de la complejidad computacional, la clase de complejidad NC (la clase de Nick) es el conjunto de los problemas de decisión que pueden ser resueltos mediante computación paralela con un número polinómico de procesadores en tiempo polilogarítmico.

¡Nuevo!!: Computación paralela y NC (clase de complejidad) · Ver más »

NEC SX

NEC SX es la denominación de una serie de supercomputadoras de procesador vectorial diseñadas, fabricadas y comercializadas por NEC Corporation.

¡Nuevo!!: Computación paralela y NEC SX · Ver más »

NVM Express

NVM Express (NVMe) o la especificación de interfaz de controlador de host de memoria no volátil (NVMHCIS) es una especificación abierta de interfaz de dispositivo lógico para acceder a medios de almacenamiento no volátiles conectados a través de un bus PCI Express (PCIe).

¡Nuevo!!: Computación paralela y NVM Express · Ver más »

OpenACC

OpenACC (Para Aceleradores Abiertos) es un estándar de programación para la informática paralela desarrollada por Cray, CAPS, Nvidia y PGI.

¡Nuevo!!: Computación paralela y OpenACC · Ver más »

OpenMP

OpenMP es una interfaz de programación de aplicaciones (API) para la programación multiproceso de memoria compartida en múltiples plataformas.

¡Nuevo!!: Computación paralela y OpenMP · Ver más »

Otelo en computadoras

Otelo en Computadoras se refiere a un sistema computacional que incluye hardware y software capaz de jugar Otelo.

¡Nuevo!!: Computación paralela y Otelo en computadoras · Ver más »

P-completo

En teoría de la complejidad computacional, la clase de complejidad P-completo es un conjunto de problemas de decisión de gran utilidad para identificar los problemas que pueden ser resueltos eficientemente en máquinas paralelas.

¡Nuevo!!: Computación paralela y P-completo · Ver más »

Paco Menéndez

Francisco Menéndez González (Avilés, 1965 – Sevilla, 1999), conocido como Paco Menéndez, ingeniero de telecomunicación por la Universidad Politécnica de Madrid, fue un desarrollador de videojuegos español.

¡Nuevo!!: Computación paralela y Paco Menéndez · Ver más »

Paralelismo (informática)

En la informática, el paralelismo es la simple aplicación de múltiples CPU a un problema único.

¡Nuevo!!: Computación paralela y Paralelismo (informática) · Ver más »

Paralelo (desambiguación)

Paralelo (o su femenino, paralela) puede referirse a.

¡Nuevo!!: Computación paralela y Paralelo (desambiguación) · Ver más »

Procesador multinúcleo

Un procesador multinúcleo es un microprocesador en un solo circuito integrado con dos o más unidades de procesamiento separadas, llamadas núcleos, cada una de las cuales lee y ejecuta instrucciones de programa.

¡Nuevo!!: Computación paralela y Procesador multinúcleo · Ver más »

Programación funcional

En informática, la programación funcional es un paradigma de programación declarativa basado en el uso de verdaderas funciones matemáticas.

¡Nuevo!!: Computación paralela y Programación funcional · Ver más »

Quinta generación de computadoras

La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems), fue un proyecto hecho por Japón que comenzó en 1981.

¡Nuevo!!: Computación paralela y Quinta generación de computadoras · Ver más »

Rb 12 Penguin

El Rb 12 Penguin (designación estadounidense: AGM-119) es un misil antibuque creado en Noruega en los años 1960, desde los años 1970 es fabricado por Kongsberg Defence & Aerospace (KDA) y desde entonces ha estado en continuo desarrollo.

¡Nuevo!!: Computación paralela y Rb 12 Penguin · Ver más »

Red de ordenamiento

En ciencias de la computación, una red de ordenamiento (sorting network) es un algoritmo que ordena un número fijo de valores mediante el uso de una secuencia fija de comparaciones.

¡Nuevo!!: Computación paralela y Red de ordenamiento · Ver más »

Red de Petri

Una Red de Petri es una representación matemática o gráfica de un sistema a eventos discretos en el cual se puede describir la topología de un sistema distribuido, paralelo o concurrente.

¡Nuevo!!: Computación paralela y Red de Petri · Ver más »

Red mariposa

Red mariposa es una topología de red de interconexión de múltiples etapas (RIME), la cual se puede utilizar para conectar distintos nodos en un sistema de multiprocesador.

¡Nuevo!!: Computación paralela y Red mariposa · Ver más »

Reduced instruction set computing

En arquitectura computacional, RISC (del inglés Reduced Instruction Set Computer, en español Computador con conjunto de instrucciones reducido) es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales.

¡Nuevo!!: Computación paralela y Reduced instruction set computing · Ver más »

Rendimiento del equipo

El rendimiento del Sistema de Información o de la computadora es la cantidad de trabajo realizado por un sistema informático.

¡Nuevo!!: Computación paralela y Rendimiento del equipo · Ver más »

Requisitos de lenguaje Steelman

El documento de requisitos de lenguaje Steelman recoge una serie de requisitos que un lenguaje de programación de alto nivel para propósito general debería cumplir.

¡Nuevo!!: Computación paralela y Requisitos de lenguaje Steelman · Ver más »

Richard Feynman

Richard Phillips Feynman (Queens, Nueva York; 11 de mayo de 1918-Los Ángeles, California; 15 de febrero de 1988) fue un físico teórico estadounidense conocido por sus trabajos en la formulación por integrales de camino en la mecánica cuántica, la teoría de la electrodinámica cuántica y la física de la superfluidez del helio líquido subenfriado, así como en la física de partículas, campo en el que propuso el modelo Partón.

¡Nuevo!!: Computación paralela y Richard Feynman · Ver más »

River Trail

River Trail es un motor de código abierto, desarrollado por Intel, para interpretar código JavaScript haciendo uso de procesamiento en paralelo por hardware cuando el micro lo permite.

¡Nuevo!!: Computación paralela y River Trail · Ver más »

Roddam Narasimha

Roddam Narasimha (20 de julio de 1933-14 de diciembre de 2020) fue un científico aeroespacial y dinámico de fluidos indio.

¡Nuevo!!: Computación paralela y Roddam Narasimha · Ver más »

SageMath

SageMath, conocido anteriormente como Sage, es un sistema algebraico computacional (en inglés CAS) que destaca por estar construido sobre paquetes matemáticos ya contrastados como NumPy, Sympy, PARI/GP o Maxima y por acceder a sus potencias combinadas a través de un lenguaje común basado en Python.

¡Nuevo!!: Computación paralela y SageMath · Ver más »

Samuel S. Wagstaff, Jr.

Samuel Standfield Wagstaff Jr. (nacido el 21 de febrero de 1945) es un matemático e informático teórico estadounidense, cuyos intereses de investigación se encuentran en las áreas de la criptografía, la computación paralela y el análisis de algoritmos, especialmente algoritmos en teoría de números.

¡Nuevo!!: Computación paralela y Samuel S. Wagstaff, Jr. · Ver más »

SATA Express

SATA Express (abreviado de Serial ATA Express y algunas veces no oficialmente abreviado a SATAe) es una interfaz de bus de computadora que admite dispositivos de almacenamiento Serial ATA (SATA) y PCI Express (PCIe), inicialmente estandarizados en la especificación SATA 3.2.

¡Nuevo!!: Computación paralela y SATA Express · Ver más »

Servidor

Un servidor es un conjunto de computadoras capaces de atender las peticiones de un cliente y devolverle una respuesta en concordancia.

¡Nuevo!!: Computación paralela y Servidor · Ver más »

Simple Instruction Set Computing

SISC (Simple Instruction Set Computing) es un tipo de arquitectura de microprocesadores orientada al procesamiento de tareas en paralelo.

¡Nuevo!!: Computación paralela y Simple Instruction Set Computing · Ver más »

Skip list

Una skip list o lista por saltos es una Estructura de datos, basada en Listas enlazadas paralelas con eficiencia comparable a la de un árbol binario (tiempo en orden O(log n) para la mayoría de las operaciones).

¡Nuevo!!: Computación paralela y Skip list · Ver más »

Sociedad de la mente

La Sociedad de la Mente (Society of Mind, en inglés) es tanto el título de un libro de 1986 como el nombre de una teoría de la inteligencia natural escrita y desarrollada por Marvin Minsky.

¡Nuevo!!: Computación paralela y Sociedad de la mente · Ver más »

Speedup

En arquitectura de computadores, speedup (aceleración en castellano) es un proceso realizado para mejorar el rendimiento de un sistema que procesa un problema determinado.

¡Nuevo!!: Computación paralela y Speedup · Ver más »

Susan L. Graham

Susan L. Graham es una informática teórica, profesora distinguida (Pehong Chen Distinguished Professor) de la División de Ciencias de Computación del Departamento de Ingeniería Eléctrica y Ciencias de la Computación, en la Universidad de California, Berkeley.

¡Nuevo!!: Computación paralela y Susan L. Graham · Ver más »

Sysplex Paralelo

En computación, un Sysplex Paralelo es un cluster de computadoras centrales que funcionan como un solo sistema, normalmente usando z/OS.

¡Nuevo!!: Computación paralela y Sysplex Paralelo · Ver más »

Systemd

systemd es un conjunto de demonios o ''daemons'' de administración de sistema, bibliotecas y herramientas diseñados como una plataforma de administración y configuración central para interactuar con el núcleo del Sistema operativo GNU/Linux.

¡Nuevo!!: Computación paralela y Systemd · Ver más »

Tamara G. Kolda

Tamara G. Kolda es una matemática aplicada estadounidense y es un miembro distinguido del personal técnico del Laboratorio Nacional de Sandia.

¡Nuevo!!: Computación paralela y Tamara G. Kolda · Ver más »

Tecnologías de transcriptómica

Las tecnologías de transcriptómica son las técnicas utilizadas para el estudio del transcriptoma de un organismo, es decir, el conjunto de todos sus transcritos de ARN.

¡Nuevo!!: Computación paralela y Tecnologías de transcriptómica · Ver más »

Teorema del coloreo de carreteras

En teoría de grafos el teorema de coloreo de carreteras, teorema del camino coloreado o, conocido antiguamente como la conjetura del coloreo de carreteras, es un problema de coloreo de grafos planos.

¡Nuevo!!: Computación paralela y Teorema del coloreo de carreteras · Ver más »

Teseracto

En geometría, el teseracto es el análogo en cuatro dimensiones del cubo; o expresado en otras palabras, el teseracto guarda con el cubo una relación igual a la que el cubo guarda con respecto al cuadrado.

¡Nuevo!!: Computación paralela y Teseracto · Ver más »

Thomas H. Cormen

Thomas H. Cormen es catedrático de informática en la universidad Dartmouth.

¡Nuevo!!: Computación paralela y Thomas H. Cormen · Ver más »

Treap

En Ciencias de la Computación, el treap y el árbol binario de búsqueda aleatorio son dos formas de árbol binario de búsqueda estrechamente relacionadas que mantienen un conjunto dinámico de llaves ordenadas y permiten búsqueda binaria sobre las llaves almacenadas.

¡Nuevo!!: Computación paralela y Treap · Ver más »

UMAC

En criptografía, un código de autenticación de mensajes basado en hashing universal o UMAC es un tipo de código de autenticación de mensajes (MAC) que se calcula eligiendo una función de hash de una clase de funciones de hash de acuerdo a algún proceso secreto (aleatorio) y aplicándosela al mensaje.

¡Nuevo!!: Computación paralela y UMAC · Ver más »

Unidad central de procesamiento

La unidad central de procesamiento (conocida por las siglas CPU, del inglés Central Processing Unit) o procesador es un componente del hardware dentro de un ordenador, teléfonos inteligentes, y otros dispositivos programables.

¡Nuevo!!: Computación paralela y Unidad central de procesamiento · Ver más »

Unified Parallel C

Unified Parallel C (UPC) es una extensión del lenguaje de programación C diseñado para computación de alto rendimiento en máquinas paralelas, incluyendo tanto aquellas con un espacio de memoria global (SMP y NUMA) como aquellas con un espacio de memoria distribuido, como los clusters.

¡Nuevo!!: Computación paralela y Unified Parallel C · Ver más »

Universidad Federal del Cáucaso del Norte

La Universidad Federal del Cáucaso Norte es la institución de enseñanza superior de la ciudad de Stávropol situada en el sur de Rusia.

¡Nuevo!!: Computación paralela y Universidad Federal del Cáucaso del Norte · Ver más »

Vectorización automática

La vectorización automática, en computación paralela, es un caso especial de paralelización automática, en la cual un programa informático es convertido de una implementación escalar, el cual procesa un simple par de operandos en un momento, a una implementación vectorial, el cual procesa una operación en múltiples pares de operandos a la vez.

¡Nuevo!!: Computación paralela y Vectorización automática · Ver más »

Vergonzosamente paralelo

En computación paralela, una carga de trabajo o problema vergonzosamente paralelo (también llamado vergonzosamente paralelizable, perfectamente paralelo, deliciosamente paralelo o placenteramente paralelo) es aquel en el que se necesita poco o ningún esfuerzo para separar el problema en varias tareas paralelas.

¡Nuevo!!: Computación paralela y Vergonzosamente paralelo · Ver más »

VTK

El Kit de herramientas de visualización (VTK) es un sistema de software libre, libremente disponible para la realización de gráficos 3D por computadora, procesamiento de imagen y visualización.

¡Nuevo!!: Computación paralela y VTK · Ver más »

WebCL

WebCL o Web Computing Language es una tecnología que permite la integración de OpenCL en código JavaScript para poder usar programación paralela heterogénea y así aprovechar las ventajas de los CPUs y GPUs con varios núcleos.

¡Nuevo!!: Computación paralela y WebCL · Ver más »

Weitek

Weitek Corporation fue una compañía de desarrollo de chips con base en San José, California.

¡Nuevo!!: Computación paralela y Weitek · Ver más »

William Daniel Hillis

William Daniel "Danny" Hillis (Baltimore, 25 de septiembre de 1956) es un inventor, matemático, ingeniero, empresario y escritor estadounidense.

¡Nuevo!!: Computación paralela y William Daniel Hillis · Ver más »

XProc

XProc Es una Recomendación de W3C para definir un lenguaje de transformación de XML para definir #XML Pipelines.

¡Nuevo!!: Computación paralela y XProc · Ver más »

Zero instruction set computer

En informática, ZISC significa computador sin conjunto de instrucciones, y se refiere a una tecnología de procesadores basados en concordancia con el modelo puro y la ausencia de (micro) instrucciones en el sentido clásico.

¡Nuevo!!: Computación paralela y Zero instruction set computer · Ver más »

Redirecciona aquí:

Calculo paralelo, Computacion paralela, Cálculo paralelo, Maquina paralela, Máquina paralela, Programacion paralela, Programación paralela, Sistema paralelo.

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »