Logo
Unionpedia
Comunicación
Disponible en Google Play
¡Nuevo! ¡Descarga Unionpedia en tu dispositivo Android™!
Descargar
¡Más rápido que el navegador!
 

Computación paralela

Índice Computación paralela

La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo).

201 relaciones: Años 1960, Años 1970, Acceso uniforme a memoria, Advanced Micro Devices, Algoritmo, Algoritmo de marcador, Algoritmo de ordenamiento, Algoritmo de Tomasulo, Algoritmo paralelo, AltiVec, AMD FireStream, Ancho de banda (informática), API, Apple, Arquitectura de computadoras, Arquitectura de flujo de datos, Ataque de fuerza bruta, Autómata finito, Árbol (teoría de grafos), Barrera (informática), Base de datos, Berkeley Open Infrastructure for Network Computing, Biblioteca (informática), Bioinformática, Bloqueo mutuo, BrookGPU, Burroughs Corporation, Bus (informática), C (lenguaje de programación), C++, Caché (informática), Capacidad eléctrica, Carl Adam Petri, Cálculo pi, Cell (microprocesador), Charles Babbage, Cierre de exclusión mutua, Circuito integrado, Circuito integrado de aplicación específica, Clúster de computadoras, Cluster Beowulf, Coherencia de caché, Coma flotante, Compilador, Computación concurrente, Computación en malla, Computación gráfica, Computerworld, Comunicación de procesos secuenciales, Condición de carrera, ..., Conjunto de instrucciones, Conmutador de barras cruzadas, Consistencia de datos, Coprocesador, Cray Inc., CUDA, David A. Patterson, Dependencia de datos, Dinámica molecular, Distributed Shared Memory, Donald Becker, Ejecución fuera de orden, Encaminamiento, Entrelazado, Equilibrio de carga, Error de software, Espacio de direcciones, Ethernet, Exclusión mutua (informática), Familia de protocolos de internet, Folding@home, Fortran, Frecuencia, Frecuencia de reloj, Fuerza Aérea de los Estados Unidos, Gene Amdahl, GPGPU, Grafo hipercubo, Grial, Hardware, Haskell, Hilo (informática), Hyper-Threading, HyperTransport, IBM, IBM 704, ILLIAC IV, Implementación, Ingeniería informática, Instrucción (informática), Instrucción atómica, Integración a muy gran escala, Intel, Interfaz de Paso de Mensajes, Internet, John Cocke, John L. Hennessy, Laboratorio Nacional Lawrence Livermore, Latencia CAS, Lenguaje de descripción de hardware, Leslie Lamport, Ley de Amdahl, Ley de Gustafson, Ley de Moore, Litografía de rayos X, Matemática financiera, Matriz (matemática), Matriz de puerta programable en campo, Máquina analítica, Método de la ruta crítica, Método de Montecarlo, MDGRAPE-3, Memoria (informática), Memoria compartida, Memoria transaccional, Michael J. Flynn, Microprocesador, Middleware, MIMD, MISD, Modelo de programación paralela, Modelo en grafo, Modelo matemático, Modelo oculto de Márkov, Multiplexación, Multiprocesamiento simétrico, NUMA, Nvidia, Nvidia Tesla, OpenCL, OpenMP, Palabra (informática), Paralelismo de datos, Paralelismo de tareas, Pentium 4, PlayStation 3, Plegamiento de proteínas, Potencia eléctrica, Pragma, Procesador multinúcleo, Procesador vectorial, Proceso (informática), Programa informático, Programación dinámica, Programación dirigida por eventos, Programación estructurada, Pseudocódigo, Ramificación y poda, Red bayesiana, Red de área local, Red de computadoras, Red de Petri, Red en anillo, Red en estrella, Red en malla, Reduced instruction set computing, Renombre de registros, Señal de reloj, Sección crítica, Semáforo (informática), SETI@home, SIMD, Simulación Barnes-Hut, Sincronización, SISD, Sistema combinacional, Sistema operativo, Sony, SSE, Sucesión de Fibonacci, Supercomputadora, Superescalar, SystemC, Taxonomía de Flynn, Tensión (electricidad), Tiempo de ejecución, Tiempo medio entre fallos, TOP500, Topología de red, Transformada rápida de Fourier, Transistor, Unidad central de procesamiento, Unidad de control, Unidad de procesamiento gráfico, Unidad funcional, Universidad Carnegie Mellon, Valor futuro (informática), Variable (programación), Vergonzosamente paralelo, Verilog, VHDL, Volcado de memoria, Zócalo de CPU, 16 bits, 1962, 1980, 2004, 32 bits, 4 bits, 64 bits, 8 bits. Expandir índice (151 más) »

Años 1960

El decenio de los años 1960 comenzó el 1 de enero de 1960 y finalizó el 31 de diciembre de 1969.

¡Nuevo!!: Computación paralela y Años 1960 · Ver más »

Años 1970

La década de los años 1970 comenzó el 1 de enero de 1970 y finalizó el 31 de diciembre de 1979.

¡Nuevo!!: Computación paralela y Años 1970 · Ver más »

Acceso uniforme a memoria

Acceso uniforme a memoria o UMA (en inglés: Uniform Memory Access) es una arquitectura de memoria compartida utilizada en computación paralela.

¡Nuevo!!: Computación paralela y Acceso uniforme a memoria · Ver más »

Advanced Micro Devices

Advanced Micro Devices, Inc. (AMD) es una compañía estadounidense de semiconductores con sede en Santa Clara, California, que desarrolla procesadores de computación y productos tecnológicos similares de consumo.

¡Nuevo!!: Computación paralela y Advanced Micro Devices · Ver más »

Algoritmo

En matemáticas, lógica, ciencias de la computación y disciplinas relacionadas, un algoritmo (probablemente del latín tardío algorithmus, y este del árabe clásico ḥisābu lḡubār, que significa «cálculo mediante cifras arábigas») es un conjunto de instrucciones o reglas definidas y no-ambiguas, ordenadas y finitas que permite, típicamente, solucionar un problema, realizar un cómputo, procesar datos y llevar a cabo otras tareas o actividades.

¡Nuevo!!: Computación paralela y Algoritmo · Ver más »

Algoritmo de marcador

El algoritmo de marcador es un método centralizado, utilizado en el CDC 6600 para planificar de manera dinámica la segmentación, de forma que las instrucciones pueden ser ejecutadas fuera de orden cuando no existen conflictos y el hardware está disponible.

¡Nuevo!!: Computación paralela y Algoritmo de marcador · Ver más »

Algoritmo de ordenamiento

En computación y matemáticas un algoritmo de ordenamiento es un algoritmo que pone elementos de una lista o un vector en una secuencia dada por una relación de orden, es decir, el resultado de salida ha de ser una permutación —o reordenamiento— de la entrada que satisfaga la relación de orden dada.

¡Nuevo!!: Computación paralela y Algoritmo de ordenamiento · Ver más »

Algoritmo de Tomasulo

El algoritmo de Tomasulo es un algoritmo de planificación dinámica desarrollado por Robert Tomasulo, de IBM.

¡Nuevo!!: Computación paralela y Algoritmo de Tomasulo · Ver más »

Algoritmo paralelo

En las ciencias de la computación, un algoritmo paralelo, en oposición a los algoritmos clásicos o algoritmos secuenciales, es un algoritmo que puede ser ejecutado por partes en el mismo instante de tiempo por varias unidades de procesamiento, para finalmente unir todas las partes y obtener el resultado correcto.

¡Nuevo!!: Computación paralela y Algoritmo paralelo · Ver más »

AltiVec

AltiVec es un conjunto de instrucciones SIMD en coma flotante y enteros diseñado y en propiedad de Apple Computer, IBM y Motorola (la alianza AIM), y puesto en ejecución en las versiones de PowerPC incluyendo el G4 de Motorola y los procesadores G5 de IBM.

¡Nuevo!!: Computación paralela y AltiVec · Ver más »

AMD FireStream

AMD FireStream fue la marca de AMD para su línea de productos basada en Radeon que se enfoca en el procesamiento de flujo y / o GPGPU en supercomputadores.

¡Nuevo!!: Computación paralela y AMD FireStream · Ver más »

Ancho de banda (informática)

En computación de redes y en biotecnología, ancho de banda digital, ancho de banda de red o simplemente ancho de banda es la medida de datos y recursos de comunicación disponible o consumida expresados en bit/s o múltiplos de él como serían los Kbit/s,Mbit/s y Gigabit/s.

¡Nuevo!!: Computación paralela y Ancho de banda (informática) · Ver más »

API

Una API (del inglés, application programming interface, en español, interfaz de programación de aplicaciones) es una pieza de código que permite a diferentes aplicaciones comunicarse entre sí y compartir información y funcionalidades.

¡Nuevo!!: Computación paralela y API · Ver más »

Apple

Apple, Inc. es una empresa tecnológica multinacional estadounidense con sede en Cupertino, California.

¡Nuevo!!: Computación paralela y Apple · Ver más »

Arquitectura de computadoras

La arquitectura de computadoras, también llamada arquitectura de ordenadores en algunos casos, es el diseño conceptual y la estructura operacional fundamental de un sistema de computadoras.

¡Nuevo!!: Computación paralela y Arquitectura de computadoras · Ver más »

Arquitectura de flujo de datos

La arquitectura de flujo de datos es una arquitectura de computadores que contrasta directamente con la tradicional Arquitectura de Von Neumann o de estructuras de control.

¡Nuevo!!: Computación paralela y Arquitectura de flujo de datos · Ver más »

Ataque de fuerza bruta

En criptografía, se denomina ataque de fuerza bruta a la forma de recuperar una clave probando todas las combinaciones posibles hasta encontrar aquella que permite el acceso.

¡Nuevo!!: Computación paralela y Ataque de fuerza bruta · Ver más »

Autómata finito

Un autómata finito (AF) o máquina de estado finito es un modelo computacional que realiza cómputos en forma automática sobre una entrada para producir una salida.

¡Nuevo!!: Computación paralela y Autómata finito · Ver más »

Árbol (teoría de grafos)

En teoría de grafos, un árbol es un grafo en el que cualquier par de vértices están conectados por exactamente un camino, o alternativamente, es un grafo conexo acíclico.

¡Nuevo!!: Computación paralela y Árbol (teoría de grafos) · Ver más »

Barrera (informática)

En computación paralela, una barrera (en inglés: barrier) es un método de sincronización.

¡Nuevo!!: Computación paralela y Barrera (informática) · Ver más »

Base de datos

Una base de datos (del inglés: database) se encarga no solo de almacenar datos, sino también de conectarlos entre sí en una unidad lógica.

¡Nuevo!!: Computación paralela y Base de datos · Ver más »

Berkeley Open Infrastructure for Network Computing

La Infraestructura Abierta de Berkeley para la Computación en Red (en inglés Berkeley Open Infrastructure for Network Computing), o BOINC por sus siglas en inglés, es una infraestructura para la computación distribuida, desarrollada originalmente para el proyecto SETI@home, pero que actualmente se utiliza para diversos campos como física, medicina nuclear, climatología, etc.

¡Nuevo!!: Computación paralela y Berkeley Open Infrastructure for Network Computing · Ver más »

Biblioteca (informática)

En informática, una biblioteca o, llamada por vicio del lenguaje, librería (del inglés library) es un conjunto de implementaciones funcionales, codificadas en un lenguaje de programación, que ofrece una interfaz bien definida para la funcionalidad que se invoca.

¡Nuevo!!: Computación paralela y Biblioteca (informática) · Ver más »

Bioinformática

La bioinformática puede definirse, de manera general, como la aplicación de tecnologías computacionales y la estadística a la gestión y análisis de datos biológicos.

¡Nuevo!!: Computación paralela y Bioinformática · Ver más »

Bloqueo mutuo

En sistemas operativos, el bloqueo mutuo (también conocido como interbloqueo, traba mortal, deadlock, abrazo mortal) es el bloqueo permanente de un conjunto de procesos o hilos de ejecución en un sistema concurrente que compiten por recursos del sistema o bien se comunican entre ellos.

¡Nuevo!!: Computación paralela y Bloqueo mutuo · Ver más »

BrookGPU

BrookGPU fue desarrollado por la Universidad de Stanford, es un grupo de compiladores y aplicaciones basadas en el lenguaje Brook para utilizar con unidades de procesamiento gráfico (GPU).

¡Nuevo!!: Computación paralela y BrookGPU · Ver más »

Burroughs Corporation

La Corporación Burroughs fue creada en 1886 como la American Arithmometer Company en San Luis, Misuri, Estados Unidos, para dedicarse a la venta de las máquinas sumadoras inventadas por William Seward Burroughs.

¡Nuevo!!: Computación paralela y Burroughs Corporation · Ver más »

Bus (informática)

En arquitectura de computadores, el bus (o canal) es un sistema digital que transfiere datos entre los componentes de una computadora.

¡Nuevo!!: Computación paralela y Bus (informática) · Ver más »

C (lenguaje de programación)

C es un lenguaje de programación de propósito general originalmente desarrollado por Dennis Ritchie entre 1969 y 1972 en los Laboratorios Bell, como evolución del anterior lenguaje B, a su vez basado en BCPL.

¡Nuevo!!: Computación paralela y C (lenguaje de programación) · Ver más »

C++

C++ es un lenguaje de programación diseñado en 1979 por Bjarne Stroustrup.

¡Nuevo!!: Computación paralela y C++ · Ver más »

Caché (informática)

En informática, una caché, antememoria o memoria intermedia es un componente de hardware o software que guarda datos para que las solicitudes futuras de esos datos se puedan atender con mayor rapidez; los datos almacenados en una caché pueden ser el resultado de un cálculo anterior o el duplicado de datos almacenados en otro lugar, generalmente, da velocidad de acceso más rápido.

¡Nuevo!!: Computación paralela y Caché (informática) · Ver más »

Capacidad eléctrica

En electromagnetismo y electrónica, la capacidad eléctrica es la propiedad que tienen los cuerpos para mantener una carga eléctrica.

¡Nuevo!!: Computación paralela y Capacidad eléctrica · Ver más »

Carl Adam Petri

Carl Adam Petri (12 de julio de 1926 en Leipzig - 2 de julio de 2010) fue un matemático y científico de la computación alemán.

¡Nuevo!!: Computación paralela y Carl Adam Petri · Ver más »

Cálculo pi

En la ciencia de computación teórica, el cálculo pi (o π-cálculo) es una notación desarrollada originalmente por Robin Milner, Joachim Parrow y David Walker, como un avance sobre el cálculo de sistemas comunicantes con el fin de proveer movilidad al modelado concurrente.

¡Nuevo!!: Computación paralela y Cálculo pi · Ver más »

Cell (microprocesador)

Cell es una arquitectura de microprocesador desarrollada conjuntamente por Sony Computer Entertainment, Toshiba, e IBM, en una alianza conocida con el nombre de “STI”.

¡Nuevo!!: Computación paralela y Cell (microprocesador) · Ver más »

Charles Babbage

Charles Babbage fue un matemático y científico britanico.

¡Nuevo!!: Computación paralela y Charles Babbage · Ver más »

Cierre de exclusión mutua

En ciencias de la computación, los cierres de exclusión mutua, candados o mutex son un mecanismo de sincronización que limita el acceso a un recurso compartido por varios procesos o hilos en un ambiente de ejecución concurrente, permitiendo así la exclusión mutua.

¡Nuevo!!: Computación paralela y Cierre de exclusión mutua · Ver más »

Circuito integrado

Un circuito integrado (CI), también conocido como chip o microchip, es una estructura de pequeñas dimensiones de material semiconductor, normalmente silicio, de algunos milímetros cuadrados de superficie (área), sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado plástico o de cerámica.

¡Nuevo!!: Computación paralela y Circuito integrado · Ver más »

Circuito integrado de aplicación específica

Un circuito Integrado para aplicaciones específicas (o ASIC, por sus siglas en inglés, Application-Specific Integrated Circuit) es un circuito integrado hecho a la medida para un uso en particular, en vez de ser concebido para propósitos de uso general.

¡Nuevo!!: Computación paralela y Circuito integrado de aplicación específica · Ver más »

Clúster de computadoras

El término clúster (del inglés cluster, que significa 'grupo' o 'racimo') se aplica a los sistemas distribuidos de granjas de computadoras unidos entre sí normalmente por una red de alta velocidad y que se comportan como si fuesen un único servidor.

¡Nuevo!!: Computación paralela y Clúster de computadoras · Ver más »

Cluster Beowulf

Beowulf es un sistema de cómputo paralelo basado en clusters de ordenadores personales conectados a través de redes informáticas estándar, sin el uso de equipos desarrollados específicamente para la computación paralela.

¡Nuevo!!: Computación paralela y Cluster Beowulf · Ver más »

Coherencia de caché

La coherencia de caché hace referencia a la integridad de los datos almacenados en las cachés locales de los recursos compartidos.

¡Nuevo!!: Computación paralela y Coherencia de caché · Ver más »

Coma flotante

La representación de coma flotante (en inglés, floating point) es una forma de notación científica usada en las computadoras con la cual se pueden representar números reales extremadamente grandes y pequeños de una manera muy eficiente y compacta y con la que se pueden realizar operaciones aritméticas.

¡Nuevo!!: Computación paralela y Coma flotante · Ver más »

Compilador

En informática, un compilador es un programa que traduce código escrito en un lenguaje de programación (llamado fuente) a otro lenguaje (conocido como objeto).

¡Nuevo!!: Computación paralela y Compilador · Ver más »

Computación concurrente

La computación concurrente es una forma de cómputo en la cual varios cálculos se realizan concurrentemente, y no uno a la vez de forma secuencial.

¡Nuevo!!: Computación paralela y Computación concurrente · Ver más »

Computación en malla

La computación en malla (en inglés grid computing) es una tecnología que permite utilizar de forma coordinada recursos heterogéneos (entre ellos procesadores, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado.

¡Nuevo!!: Computación paralela y Computación en malla · Ver más »

Computación gráfica

La computación gráfica o gráficos por ordenador es el campo de la informática visual, donde se utilizan computadoras tanto para generar imágenes visuales sintéticamente como integrar o cambiar la información visual y espacial probada del mundo real.

¡Nuevo!!: Computación paralela y Computación gráfica · Ver más »

Computerworld

Computerworld es una revista sobre tecnologías de información y comunicación que proporciona información a los administradores de tecnología.

¡Nuevo!!: Computación paralela y Computerworld · Ver más »

Comunicación de procesos secuenciales

CSP (Comunicación de Procesos Secuenciales) es un modelo de programación de sistemas concurrentes basado en la comunicación entre procesos.

¡Nuevo!!: Computación paralela y Comunicación de procesos secuenciales · Ver más »

Condición de carrera

Condición de carrera o condición de secuencia (del inglés race condition) es una expresión usada en electrónica y en programación.

¡Nuevo!!: Computación paralela y Condición de carrera · Ver más »

Conjunto de instrucciones

Un conjunto de instrucciones, repertorio de instrucciones, juego de instrucciones o ISA (del inglés instruction set architecture, «arquitectura del conjunto de instrucciones») es una especificación que detalla las instrucciones que una unidad central de procesamiento puede entender y ejecutar, o el conjunto de todos los comandos implementados por un diseño particular de una CPU.

¡Nuevo!!: Computación paralela y Conjunto de instrucciones · Ver más »

Conmutador de barras cruzadas

Un conmutador de barras cruzadas (también conocido como llamadas cruzadas o conmutador de llamadas) es un dispositivo que conecta múltiples entradas y múltiples salidas en forma de malla.

¡Nuevo!!: Computación paralela y Conmutador de barras cruzadas · Ver más »

Consistencia de datos

En Informática, en un sistema distribuido, tales como una memoria compartida distribuida o almacenes de datos distribuido, tales como una base de datos, sistema de archivos, caché web o sistemas de replicación optimista, hay una serie de posibles modelos de consistencia de datos.

¡Nuevo!!: Computación paralela y Consistencia de datos · Ver más »

Coprocesador

Un coprocesador es un microprocesador de un ordenador utilizado como suplemento de las funciones del procesador principal (la CPU).

¡Nuevo!!: Computación paralela y Coprocesador · Ver más »

Cray Inc.

Cray Inc. es un fabricante estadounidense de supercomputadoras establecido en Seattle, Washington.

¡Nuevo!!: Computación paralela y Cray Inc. · Ver más »

CUDA

CUDA son las siglas de Compute Unified Device Architecture (Arquitectura Unificada de Dispositivos de Cómputo) que hace referencia a una plataforma de computación en paralelo que incluye un compilador y un conjunto de herramientas de desarrollo creadas por Nvidia que permiten a los programadores usar una variación del lenguaje de programación C (CUDA C) para codificar algoritmos en GPU de Nvidia.

¡Nuevo!!: Computación paralela y CUDA · Ver más »

David A. Patterson

David A. Patterson es profesor de Ciencias de la computación en la Universidad de California, Berkeley desde 1977, habiendo recibido varios grados, entre ellos el PhD de UCLA.

¡Nuevo!!: Computación paralela y David A. Patterson · Ver más »

Dependencia de datos

En informática, se conoce como dependencia de datos aquella situación en que las instrucciones de un programa se refieren a los resultados de otras anteriores que aún no han sido completadas.

¡Nuevo!!: Computación paralela y Dependencia de datos · Ver más »

Dinámica molecular

La dinámica molecular (DM) es una técnica de simulación por computadora en la que se permite que átomos y moléculas interactúen por un período, permitiendo una visualización del movimiento de las partículas.

¡Nuevo!!: Computación paralela y Dinámica molecular · Ver más »

Distributed Shared Memory

En computación, la Distributed Shared Memory (DSM, o memoria distribuida compartida) es un tipo de implementación hardware y software, en la que cada nodo de un cluster tiene acceso a una amplia memoria compartida que se añade a la memoria limitada privada, no compartida, propia de cada nodo.

¡Nuevo!!: Computación paralela y Distributed Shared Memory · Ver más »

Donald Becker

Donald Becker es un programador conocido por escribir un gran número de controladores Ethernet para el sistema operativo GNU/Linux.

¡Nuevo!!: Computación paralela y Donald Becker · Ver más »

Ejecución fuera de orden

En arquitectura de computadores, la ejecución fuera de orden u OoOE (Out-of-Order Execution) es un paradigma utilizado en la mayoría de los microprocesadores de alto rendimiento, como forma de aprovechar los ciclos de instrucción, que de otro modo serían desperdiciados, produciéndose en consecuencia cierta demora de trabajo.

¡Nuevo!!: Computación paralela y Ejecución fuera de orden · Ver más »

Encaminamiento

El enrutamiento o ruteo es la función de buscar un camino entre todos los posibles en una red de paquetes cuyas topologías poseen una gran conectividad.

¡Nuevo!!: Computación paralela y Encaminamiento · Ver más »

Entrelazado

Los términos entrelazado y entrelazamiento, ambos definidos como la acción o efecto de entrelazar o entrelazarse, pueden referirse a.

¡Nuevo!!: Computación paralela y Entrelazado · Ver más »

Equilibrio de carga

El equilibrio de carga, balance de carga (ó balanceo) es un concepto usado en administración de sistemas informáticos que se refiere a la técnica usada para compartir el trabajo a realizar entre varios ordenadores, procesos, discos u otros recursos.

¡Nuevo!!: Computación paralela y Equilibrio de carga · Ver más »

Error de software

Un error de software, error o simplemente fallo (también conocido por el inglés, bug) es un problema en un programa de computadora o sistema de software que desencadena un resultado indeseado.

¡Nuevo!!: Computación paralela y Error de software · Ver más »

Espacio de direcciones

En informática, un espacio de direcciones define un intervalo de direcciones discretas, cada una de las cuales puede corresponder a un host de red, un dispositivo periférico, un sector de disco, una celda de memoria u otra entidad lógica o física.

¡Nuevo!!: Computación paralela y Espacio de direcciones · Ver más »

Ethernet

Ethernet es un estándar de redes de área local para computadoras, por sus siglas en español Acceso Múltiple con Escucha de Portadora y Detección de Colisiones (CSMA/CD).

¡Nuevo!!: Computación paralela y Ethernet · Ver más »

Exclusión mutua (informática)

Los algoritmos de exclusión mutua (comúnmente abreviada como mutex por mutual exclusion) se usan en programación concurrente para evitar que entre más de un proceso a la vez en la sección crítica.

¡Nuevo!!: Computación paralela y Exclusión mutua (informática) · Ver más »

Familia de protocolos de internet

La familia de protocolos de internet o pila de protocolos de Internet es un conjunto constituido por los protocolos de red clave que componen la arquitectura de internet y que permiten la comunicación efectiva y la transmisión de datos entre computadoras.

¡Nuevo!!: Computación paralela y Familia de protocolos de internet · Ver más »

Folding@home

Folding@home es un proyecto de computación distribuida diseñado para usar los recursos de computadores personales para realizar simulaciones de plegamiento proteico relevantes a enfermedades y otras dinámicas moleculares, y para mejorar los métodos de ello.

¡Nuevo!!: Computación paralela y Folding@home · Ver más »

Fortran

Fortran (previamente FORTRAN, contracción del inglés The IBM Mathematical Formula Translating System) es un lenguaje de programación de alto nivel de propósito general, procedural e imperativo, que está especialmente adaptado al cálculo numérico y a la computación científica.

¡Nuevo!!: Computación paralela y Fortran · Ver más »

Frecuencia

La frecuencia —denotada comúnmente con la letra griega ν o con la letra latina f— es el número de repeticiones por unidad de tiempo de cualquier proceso periódico.

¡Nuevo!!: Computación paralela y Frecuencia · Ver más »

Frecuencia de reloj

La frecuencia de reloj en relación con una Unidad central de procesamiento o microprocesador indica la frecuencia a la cual los transistores que lo conforman conmutan eléctricamente, es decir, abren y cierran el flujo de una corriente eléctrica.

¡Nuevo!!: Computación paralela y Frecuencia de reloj · Ver más »

Fuerza Aérea de los Estados Unidos

La Fuerza Aérea de los Estados Unidos (USAF; oficialmente y United States Air Force) es la rama de las Fuerzas Armadas de los Estados Unidos que se encarga de la guerra aérea.

¡Nuevo!!: Computación paralela y Fuerza Aérea de los Estados Unidos · Ver más »

Gene Amdahl

Eugene Myron Amdahl (Flandreau, Dakota del Sur, 16 de noviembre de 1922-Palo Alto, California, 10 de noviembre de 2015) estadounidense de origen noruego, arquitecto computacional y una de las personalidades más importantes y excéntricas en la historia de la informática y la computación.

¡Nuevo!!: Computación paralela y Gene Amdahl · Ver más »

GPGPU

La computación de propósito general en unidades de procesamiento gráfico (GPGPU, del inglés general-purpose computing on graphics processing units) es un concepto reciente dentro de la informática que trata de estudiar y aprovechar las capacidades de cómputo de una GPU.

¡Nuevo!!: Computación paralela y GPGPU · Ver más »

Grafo hipercubo

En teoría de grafos, el grafo hipercubo Qn es un grafo regular con 2n vértices, que corresponden a los subconjuntos de un conjunto de n elementos.

¡Nuevo!!: Computación paralela y Grafo hipercubo · Ver más »

Grial

El Santo Grial o, simplemente, Grial es el recipiente o copa usada por Jesucristo en la Última Cena.

¡Nuevo!!: Computación paralela y Grial · Ver más »

Hardware

El hardware, equipo o soporte físico en informática se refiere a las partes físicas, tangibles, de un sistema informático, sus componentes eléctricos, electrónicos y electromecánicos.

¡Nuevo!!: Computación paralela y Hardware · Ver más »

Haskell

Haskell (pronunciado //) es un lenguaje de programación estandarizado multi-propósito, funcionalmente puro, con evaluación no estricta y memorizada, y fuerte tipificación estática.

¡Nuevo!!: Computación paralela y Haskell · Ver más »

Hilo (informática)

En sistemas operativos, un hilo o hebra (del inglés thread), proceso ligero o subproceso es una secuencia de tareas encadenadas muy pequeña que puede ser ejecutada por un sistema operativo.

¡Nuevo!!: Computación paralela e Hilo (informática) · Ver más »

Hyper-Threading

Hyper-Threading es una marca registrada de la empresa Intel para promover la implementación de la tecnología multihilo simultáneo, también conocido como SMT por sus siglas en inglés.

¡Nuevo!!: Computación paralela y Hyper-Threading · Ver más »

HyperTransport

HyperTransport (HT), también conocido como Lightning Data Transport (LDT) es una tecnología de comunicaciones bidireccional, que funciona tanto en serie como en paralelo, y que ofrece un gran ancho de banda en conexiones punto a punto de baja latencia.

¡Nuevo!!: Computación paralela y HyperTransport · Ver más »

IBM

International Business Machines Corporation (IBM) es una empresa tecnológica multinacional estadounidense con sede en Armonk, Nueva York.

¡Nuevo!!: Computación paralela e IBM · Ver más »

IBM 704

La máquina IBM 704 fue la primera computadora producida en masa con hardware basado en aritmética de coma flotante, introducida por IBM en abril de 1954.

¡Nuevo!!: Computación paralela e IBM 704 · Ver más »

ILLIAC IV

El ILLIAC IV fue uno de los primeros supercomputadores de la historia.

¡Nuevo!!: Computación paralela e ILLIAC IV · Ver más »

Implementación

Una implementación es la ejecución o puesta en marcha de una idea programada, ya sea, de una aplicación informática, un plan, modelo científico, diseño específico, estándar, algoritmo o política.

¡Nuevo!!: Computación paralela e Implementación · Ver más »

Ingeniería informática

La ingeniería informática es la rama de la ingeniería que aplica los fundamentos de la ciencia de la computación, la ingeniería en computadores, la ingeniería de sistemas de información, la ingeniería de ''software'' y la ingeniería de redes y comunicaciones, para el desarrollo de todo tipo de software, hardware computacional y comunicaciones.

¡Nuevo!!: Computación paralela e Ingeniería informática · Ver más »

Instrucción (informática)

Se denomina instrucción en informática al conjunto de datos insertados en una secuencia estructurada o específica que el procesador interpreta y ejecuta.

¡Nuevo!!: Computación paralela e Instrucción (informática) · Ver más »

Instrucción atómica

Instrucción atómica o instrucción particular única en informática, se refiere a un conjunto de instrucciones que al ser ejecutadas son vistas por el resto del sistema como una sola instrucción indivisible.

¡Nuevo!!: Computación paralela e Instrucción atómica · Ver más »

Integración a muy gran escala

La integración a escala muy grande o VLSI (sigla en inglés de very large-scale integration) es el proceso de crear un circuito integrado compuesto por millones de transistores en un único chip.

¡Nuevo!!: Computación paralela e Integración a muy gran escala · Ver más »

Intel

Intel Corporation es el mayor fabricante de circuitos integrados del mundo según su cifra de negocio anual.

¡Nuevo!!: Computación paralela e Intel · Ver más »

Interfaz de Paso de Mensajes

La interfaz de paso de mensajes o MPI (sigla del inglés message passing interface) es un estándar que define la sintaxis y la semántica de las funciones contenidas en una biblioteca de paso de mensajes diseñada para ser usada en programas que exploten la existencia de múltiples procesadores, escritas generalmente en C, C++, Fortran y Ada.

¡Nuevo!!: Computación paralela e Interfaz de Paso de Mensajes · Ver más »

Internet

Internet es un conjunto descentralizado de redes de comunicaciones interconectadas, que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen constituyen una red lógica única de alcance mundial.

¡Nuevo!!: Computación paralela e Internet · Ver más »

John Cocke

John Cocke (Charlotte, Carolina del Norte, 30 de mayo de 1925 - Valhalla, Nueva York, 16 de julio de 2002), fue un científico informático estadounidense reconocido por sus contribuciones a la arquitectura de computadoras y optimización de diseño de compiladores.

¡Nuevo!!: Computación paralela y John Cocke · Ver más »

John L. Hennessy

John LeRoy Hennessy es fundador de MIPS Technologies; fue el décimo presidente de la Universidad Stanford.

¡Nuevo!!: Computación paralela y John L. Hennessy · Ver más »

Laboratorio Nacional Lawrence Livermore

El Laboratorio Nacional Lawrence Livermore (Lawrence Livermore National Laboratory, LLNL) es un centro de desarrollo e investigación financiado con fondos federales de los Estados Unidos (FFRDC por sus siglas en inglés) que fue fundado en 1952 por la Universidad de California.

¡Nuevo!!: Computación paralela y Laboratorio Nacional Lawrence Livermore · Ver más »

Latencia CAS

Latencia CAS (del inglés column access strobe latency) es el tiempo (medido en número de ciclos de reloj) que transcurre entre que el controlador de memoria ha finalizado de seleccionar una fila de uno de sus bancos y, tras activar la selección de columna, el dato queda disponible en el bus de datos, o grabado si es una operación de escritura.

¡Nuevo!!: Computación paralela y Latencia CAS · Ver más »

Lenguaje de descripción de hardware

Un lenguaje de descripción de hardware (HDL, hardware description language) es un lenguaje de modelado especializado que se utiliza para definir la estructura, diseño y operación de circuitos electrónicos, y más comúnmente, de circuitos electrónicos digitales, como el convertidor analógico-digital o cualquier antena satelital.

¡Nuevo!!: Computación paralela y Lenguaje de descripción de hardware · Ver más »

Leslie Lamport

Leslie Lamport (Nueva York, EE.UU., 7 de febrero de 1941) es un matemático y científico de la computación estadounidense.

¡Nuevo!!: Computación paralela y Leslie Lamport · Ver más »

Ley de Amdahl

La ley de Amdahl es, en ciencia de la computación, formulada por Gene Amdahl, utilizada para averiguar la mejora máxima de un sistema de información cuando solo una parte de éste es mejorado.

¡Nuevo!!: Computación paralela y Ley de Amdahl · Ver más »

Ley de Gustafson

La ley de Gustafson (también conocida como ley de Gustafson-Barsis), John L. Gustafson, Communications of the ACM, volumen 31 (mayo 1988) es una ley en ciencia de la computación que establece que cualquier problema suficientemente grande puede ser eficientemente paralelizado.

¡Nuevo!!: Computación paralela y Ley de Gustafson · Ver más »

Ley de Moore

La ley de Moore expresa que aproximadamente cada 2 años se duplica el número de transistores en un microprocesador.

¡Nuevo!!: Computación paralela y Ley de Moore · Ver más »

Litografía de rayos X

La litografía de rayos X es la próxima generación de litografía que se supone sustituirá a la óptica y que ha sido desarrollada por la industria de semiconductores.

¡Nuevo!!: Computación paralela y Litografía de rayos X · Ver más »

Matemática financiera

La matemática financiera, también conocidas como finanzas cuantitativas, son un campo de las matemáticas aplicadas que se ocupa de la modelización matemática de los mercados financieros.

¡Nuevo!!: Computación paralela y Matemática financiera · Ver más »

Matriz (matemática)

En matemática, una matriz es un conjunto bidimensional de números.

¡Nuevo!!: Computación paralela y Matriz (matemática) · Ver más »

Matriz de puerta programable en campo

Una matriz de puertas lógicas programable en campo o FPGA (del inglés field-programmable gate array), es un dispositivo programable que contiene bloques de lógica cuya interconexión y funcionalidad puede ser configurada en el momento, mediante un lenguaje de descripción especializado.

¡Nuevo!!: Computación paralela y Matriz de puerta programable en campo · Ver más »

Máquina analítica

La máquina analítica es el diseño de un computador moderno de uso general realizado por el profesor británico de matemática Charles Babbage, que representó un paso importante en la historia de la informática.

¡Nuevo!!: Computación paralela y Máquina analítica · Ver más »

Método de la ruta crítica

El método de la ruta crítica (también, método del camino crítico) es un algoritmo utilizado para el cálculo de tiempos y plazos en la planificación de proyectos.

¡Nuevo!!: Computación paralela y Método de la ruta crítica · Ver más »

Método de Montecarlo

El método de Montecarlo es un método no determinista o estadístico numérico, usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud.

¡Nuevo!!: Computación paralela y Método de Montecarlo · Ver más »

MDGRAPE-3

El MDGRAPE-3 (Molecular Dynamics GRAvity PipE) se trata de un supercomputador desarrollado por el instituto japonés RIKEN destinado a realizar simulaciones de dinámica molecular y de predicción de la estructura de las proteínas, situado en el Genomics Sciences Center.

¡Nuevo!!: Computación paralela y MDGRAPE-3 · Ver más »

Memoria (informática)

En informática, la memoria es el dispositivo que retiene, memoriza o almacena datos informáticos durante algún periodo de tiempo.

¡Nuevo!!: Computación paralela y Memoria (informática) · Ver más »

Memoria compartida

En informática, la memoria compartida es aquel tipo de memoria que puede ser accedida por múltiples programas, ya sea para comunicarse entre ellos o para evitar copias redundantes.

¡Nuevo!!: Computación paralela y Memoria compartida · Ver más »

Memoria transaccional

En informática, el término memoria transaccional (software transactional memory o STM en inglés) es un mecanismo de control de concurrencia similar a las transacciones de base de datos para controlar el acceso a una zona de memoria compartida en computación concurrente.

¡Nuevo!!: Computación paralela y Memoria transaccional · Ver más »

Michael J. Flynn

Michael J. Flynn (nacido el 20 de mayo de 1934 en Nueva York) es un profesor emérito de la Universidad Stanford estadounidense, con estudios en ingeniería electrónica y ciencias de la computación.

¡Nuevo!!: Computación paralela y Michael J. Flynn · Ver más »

Microprocesador

El procesador o microprocesador es la unidad de procesamiento principal de un ordenador, es por ello la unidad más importante, el «cerebro» de un ordenador.

¡Nuevo!!: Computación paralela y Microprocesador · Ver más »

Middleware

Middleware, también conocido como lógica de intercambio de información entre aplicaciones (interlogical) o agente intermedio, es un sistema de software que ofrece servicios y funciones comunes para las aplicaciones.

¡Nuevo!!: Computación paralela y Middleware · Ver más »

MIMD

En computación, MIMD (del inglés Multiple Instruction, Multiple Data, en español "múltiples instrucciones, múltiples datos") es una técnica empleada para lograr paralelismo.

¡Nuevo!!: Computación paralela y MIMD · Ver más »

MISD

* Para el distrito escolar estadounidense de McKinney (Texas), véase Distrito Escolar Independiente de McKinney (MISD por sus siglas en inglés).

¡Nuevo!!: Computación paralela y MISD · Ver más »

Modelo de programación paralela

En los programas informáticos, un modelo de programación paralela es un modelo para escribir programas paralelos los cuales pueden ser compilados y ejecutados.

¡Nuevo!!: Computación paralela y Modelo de programación paralela · Ver más »

Modelo en grafo

En teoría de probabilidades y en estadística, un modelo en grafo (MG) representa las dependencias entre variables aleatorias como un grafo en el que cada variable aleatoria es un nodo.

¡Nuevo!!: Computación paralela y Modelo en grafo · Ver más »

Modelo matemático

En ciencias aplicadas y en tecnología, un modelo matemático es uno de los tipos de modelos científicos que emplea algún tipo de formalismo matemático para expresar relaciones, proposiciones sustantivas de hechos, variables, parámetros, entidades y relaciones entre variables de las operaciones, para estudiar comportamientos de sistemas complejos ante situaciones difíciles de observar en la realidad.

¡Nuevo!!: Computación paralela y Modelo matemático · Ver más »

Modelo oculto de Márkov

Un modelo oculto de Márkov o HMM (por sus siglas del inglés, Hidden Markov Model) es un modelo estadístico en el que se asume que el sistema a modelar es un proceso de Márkov de parámetros desconocidos.

¡Nuevo!!: Computación paralela y Modelo oculto de Márkov · Ver más »

Multiplexación

En telecomunicación, la multiplexación es la técnica de combinar dos o más señales, y transmitirlas por un solo medio de transmisión.

¡Nuevo!!: Computación paralela y Multiplexación · Ver más »

Multiprocesamiento simétrico

En computación, SMP (del inglés Symmetric Multi-Processing, en español "multiprocesamiento simétrico") es un tipo de arquitectura de computadoras en la que dos o más unidades de procesamiento comparten una única memoria central.

¡Nuevo!!: Computación paralela y Multiprocesamiento simétrico · Ver más »

NUMA

En computación, NUMA (del inglés Non-Uniform Memory Access, en español "acceso a memoria no uniforme") es un diseño de memoria utilizado en multiprocesamiento donde toda la memoria se accede en posiciones relativas de otro proceso o memoria compartida entre procesos.

¡Nuevo!!: Computación paralela y NUMA · Ver más »

Nvidia

Nvidia Corporation es una empresa de software y fabless que diseña unidades de procesamiento de gráficos (GPU), interfaz de programación de aplicaciones (API) para ciencia de datos y computación de alto rendimiento, así como unidades de sistema en chip (SoC) para la computación móvil y el mercado automotriz.

¡Nuevo!!: Computación paralela y Nvidia · Ver más »

Nvidia Tesla

Nvidia Tesla era el nombre de la línea de productos de Nvidia destinados al procesamiento de flujo o unidades de procesamiento de gráficos de uso general (GPGPU), que lleva el nombre del pionero ingeniero eléctrico Nikola Tesla.

¡Nuevo!!: Computación paralela y Nvidia Tesla · Ver más »

OpenCL

OpenCL (Open Computing Language, en español lenguaje de computación abierto) consta de una interfaz de programación de aplicaciones y de un lenguaje de programación.

¡Nuevo!!: Computación paralela y OpenCL · Ver más »

OpenMP

OpenMP es una interfaz de programación de aplicaciones (API) para la programación multiproceso de memoria compartida en múltiples plataformas.

¡Nuevo!!: Computación paralela y OpenMP · Ver más »

Palabra (informática)

En el contexto de la informática, una palabra es una cadena finita de bits que son manejados como un conjunto por la máquina.

¡Nuevo!!: Computación paralela y Palabra (informática) · Ver más »

Paralelismo de datos

El paralelismo de datos es un paradigma de la programación concurrente que consiste en subdividir el conjunto de datos de entrada a un programa, de manera que a cada procesador le corresponda un subconjunto de esos datos.

¡Nuevo!!: Computación paralela y Paralelismo de datos · Ver más »

Paralelismo de tareas

Paralelismo de tareas es un paradigma de la programación concurrente que consiste en asignar distintas tareas a cada uno de los procesadores de un sistema de cómputo.

¡Nuevo!!: Computación paralela y Paralelismo de tareas · Ver más »

Pentium 4

El Pentium 4 fue una línea de microprocesadores de séptima generación basado en la arquitectura x86 y fabricado por Intel.

¡Nuevo!!: Computación paralela y Pentium 4 · Ver más »

PlayStation 3

|tipo.

¡Nuevo!!: Computación paralela y PlayStation 3 · Ver más »

Plegamiento de proteínas

El plegamiento de proteínas es el proceso expedito, termodinámicamente no espontáneo (reversible) por el que una proteína soluble alcanza su estructura tridimensional.

¡Nuevo!!: Computación paralela y Plegamiento de proteínas · Ver más »

Potencia eléctrica

La potencia eléctrica es la proporción por unidad de tiempo, o ritmo, con la cual la energía eléctrica es transferida por un circuito eléctrico, es decir, la cantidad de energía eléctrica entregada o absorbida por un elemento en un momento determinado.

¡Nuevo!!: Computación paralela y Potencia eléctrica · Ver más »

Pragma

La palabra griega pragma (πραγμα), pragmata en plural (πραγματα), que significa: 'lo que ha sido hecho', un acto, un hecho, y cuyas connotaciones y los sentidos más ampliados cubren una riqueza de sentidos a este significado, incluso: acción, asunto, negocio, circunstancia, preocupación, conveniencia, innovación, trabajo, necesidad, objeto, objetivo, ocupación, oficina, papel, o trabajo de vida, asuntos privados, cosa, problema.

¡Nuevo!!: Computación paralela y Pragma · Ver más »

Procesador multinúcleo

Un procesador multinúcleo es un microprocesador en un solo circuito integrado con dos o más unidades de procesamiento separadas, llamadas núcleos, cada una de las cuales lee y ejecuta instrucciones de programa.

¡Nuevo!!: Computación paralela y Procesador multinúcleo · Ver más »

Procesador vectorial

Un procesador vectorial es un diseño de CPU capaz de ejecutar operaciones matemáticas sobre múltiples datos de forma simultánea, en contraste con los procesadores escalares, capaces de manejar sólo un dato cada vez.

¡Nuevo!!: Computación paralela y Procesador vectorial · Ver más »

Proceso (informática)

Un proceso, en informática, puede entenderse informalmente como un programa en ejecución.

¡Nuevo!!: Computación paralela y Proceso (informática) · Ver más »

Programa informático

Un programa informático o programa de computadora es una secuencia de instrucciones u órdenes basadas en un lenguaje de programación que una computadora interpreta para resolver un problema o una función especifica.

¡Nuevo!!: Computación paralela y Programa informático · Ver más »

Programación dinámica

En informática, la programación dinámica es un método para reducir el tiempo de ejecución de un algoritmo mediante la utilización de subproblemas superpuestos y subestructuras óptimas.

¡Nuevo!!: Computación paralela y Programación dinámica · Ver más »

Programación dirigida por eventos

La programación dirigida por eventos es un paradigma de programación en el que tanto la estructura como la ejecución de los programas van determinados por los sucesos que ocurran en el sistema, definidos por el usuario o que ellos mismos provoquen.

¡Nuevo!!: Computación paralela y Programación dirigida por eventos · Ver más »

Programación estructurada

La programación estructurada es un paradigma de programación orientado a mejorar la claridad, calidad y tiempo de desarrollo de un programa de computadora recurriendo únicamente a subrutinas y a tres estructuras de control básicas: secuencia, selección (if y switch) e iteración (bucles for y while); asimismo, se considera innecesario y contraproducente el uso de la transferencia incondicional (GOTO); esta instrucción suele acabar generando el llamado código espagueti, mucho más difícil de seguir y de mantener, además de originar numerosos errores de programación.

¡Nuevo!!: Computación paralela y Programación estructurada · Ver más »

Pseudocódigo

En ciencias de la computación, y análisis numérico, el pseudocódigo (o lenguaje de descripción algorítmico) es una descripción de alto nivel compacta e informal del principio operativo de un programa informático u otro algoritmo.

¡Nuevo!!: Computación paralela y Pseudocódigo · Ver más »

Ramificación y poda

El método de diseño de algoritmos ramificación y poda (también llamado ramificación y acotación) es una variante del backtracking mejorado sustancialmente.

¡Nuevo!!: Computación paralela y Ramificación y poda · Ver más »

Red bayesiana

Una red bayesiana, red de Bayes, red de creencia, modelo bayesiano (de Bayes) o modelo probabilístico en un grafo acíclico dirigido es un modelo grafo probabilístico (un tipo de modelo estático) que representa un conjunto de variables aleatorias y sus dependencias condicionales a través de un grafo acíclico dirigido (DAG por sus siglas en inglés).

¡Nuevo!!: Computación paralela y Red bayesiana · Ver más »

Red de área local

Una red de área local o LAN (por las siglas en inglés local area network) es una red de computadoras que permite la comunicación y el intercambio de datos entre diferentes dispositivos a nivel local, ya que está limitada a distancias cortas.

¡Nuevo!!: Computación paralela y Red de área local · Ver más »

Red de computadoras

Una red de computadoras, red de ordenadores o red informática es un conjunto de equipos nodos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.

¡Nuevo!!: Computación paralela y Red de computadoras · Ver más »

Red de Petri

Una Red de Petri es una representación matemática o gráfica de un sistema a eventos discretos en el cual se puede describir la topología de un sistema distribuido, paralelo o concurrente.

¡Nuevo!!: Computación paralela y Red de Petri · Ver más »

Red en anillo

Una red en anillo es una topología de red en la que cada nodo se conecta exactamente a otros dos nódos, formando una única ruta continua, para las señales a través de cada nodo: un anillo.

¡Nuevo!!: Computación paralela y Red en anillo · Ver más »

Red en estrella

Una red en estrella es una red de computadoras donde las estaciones están conectadas directamente a un punto central y todas las comunicaciones se hacen necesariamente a través de ese punto (conmutador, repetidor o concentrador).

¡Nuevo!!: Computación paralela y Red en estrella · Ver más »

Red en malla

La topología de malla es en la que cada nodo está conectado a todos los nodos.

¡Nuevo!!: Computación paralela y Red en malla · Ver más »

Reduced instruction set computing

En arquitectura computacional, RISC (del inglés Reduced Instruction Set Computer, en español Computador con conjunto de instrucciones reducido) es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales.

¡Nuevo!!: Computación paralela y Reduced instruction set computing · Ver más »

Renombre de registros

En arquitectura de computadores, se conoce como renombre de registros una técnica empleada para evitar la serialización innecesaria de las operaciones de los programas impuesta por la reutilización de los registros de procesador.

¡Nuevo!!: Computación paralela y Renombre de registros · Ver más »

Señal de reloj

Una señal de reloj (en inglés clock signal, o simplemente clock) es en la electrónica digital una señal binaria, que sirve para coordinar las acciones de varios circuitos, en especial para la sincronización de biestables en sistemas digitales complejos.

¡Nuevo!!: Computación paralela y Señal de reloj · Ver más »

Sección crítica

Se denomina sección o región crítica en programación concurrente de ciencias de la computación, a la porción de código de un programa de ordenador en la que se accede a un recurso compartido (estructura de datos o dispositivo) que no debe ser accedido por más de un proceso o hilo en ejecución.

¡Nuevo!!: Computación paralela y Sección crítica · Ver más »

Semáforo (informática)

Un semáforo es una variable especial (o tipo abstracto de datos) que constituye el método clásico para restringir o permitir el acceso a recursos compartidos (por ejemplo, un recurso de almacenamiento del sistema o variables del código fuente) en un entorno de multiprocesamiento (en el que se ejecutarán varios procesos concurrentemente).

¡Nuevo!!: Computación paralela y Semáforo (informática) · Ver más »

SETI@home

SETI@home ("SETI at home", "SETI en casa" en inglés) es un proyecto de computación distribuida que funciona en la plataforma informática Berkeley Open Infrastructure for Network Computing (BOINC), desarrollado por el Space Sciences Laboratory, en la Universidad de California en Berkeley (Estados Unidos).

¡Nuevo!!: Computación paralela y SETI@home · Ver más »

SIMD

En computación, SIMD (del inglés Single Instruction, Multiple Data, en español: "una instrucción, múltiples datos") es una técnica empleada para conseguir paralelismo a nivel de datos.

¡Nuevo!!: Computación paralela y SIMD · Ver más »

Simulación Barnes-Hut

La simulación Barnes-Hut (Josh Barnes y Piet Hut) es un algoritmo para realizar una simulación de n-cuerpos.

¡Nuevo!!: Computación paralela y Simulación Barnes-Hut · Ver más »

Sincronización

Sincronización (del griego συν (sýn), "unido" y χρόνος (chrónos), "tiempo", describe el ajuste temporal de eventos. Se habla de sincronización cuando determinados fenómenos ocurran en un orden predefinido o a la vez.

¡Nuevo!!: Computación paralela y Sincronización · Ver más »

SISD

* Para el distrito escolar estadounidense del Condado de Harris (Texas), véase Distrito Escolar Independiente de Spring (SISD por sus siglas en inglés).

¡Nuevo!!: Computación paralela y SISD · Ver más »

Sistema combinacional

Se denomina sistema combinacional o lógica combinacional a todo sistema lógico en el que sus salidas son función exclusiva del valor de sus entradas en un momento dado, sin que intervengan en ningún caso estados anteriores de las entradas o de las salidas.

¡Nuevo!!: Computación paralela y Sistema combinacional · Ver más »

Sistema operativo

Un sistema operativo (SO) es el conjunto de programas de un sistema informático que gestiona los recursos del hardware y provee servicios a los programas de aplicación de software.

¡Nuevo!!: Computación paralela y Sistema operativo · Ver más »

Sony

Sony Group Corporation (ソニーグループ株式会社, Sonī Gurūpu Kabushiki gaisha), comúnmente referida como Sony y estilizada como SONY, es una empresa multinacional japonesa con sede en Tokio (Japón) y uno de los fabricantes más importantes a nivel mundial en electrónica de consumo: audio y vídeo, computación, fotografía, videojuegos, telefonía móvil, productos profesionales, etcétera.

¡Nuevo!!: Computación paralela y Sony · Ver más »

SSE

SSE (Streaming SIMD Extensions) es una extensión al grupo de instrucciones MMX para procesadores Pentium III, introducida por Intel en febrero de 1999.

¡Nuevo!!: Computación paralela y SSE · Ver más »

Sucesión de Fibonacci

En matemáticas, la sucesión de Fibonacci es una sucesión infinita de números naturales como la siguiente: La sucesión comienza con dos números naturales cualesquiera y a partir de estos, «cada término es la suma de los dos anteriores», es la relación de recurrencia que la define.

¡Nuevo!!: Computación paralela y Sucesión de Fibonacci · Ver más »

Supercomputadora

Supercomputadora, supercomputador o superordenador es un dispositivo informático con capacidades de cálculo superiores a las computadoras comunes y de escritorio, ya que son usadas con fines específicos.

¡Nuevo!!: Computación paralela y Supercomputadora · Ver más »

Superescalar

Superescalar es el término utilizado para designar un tipo de microarquitectura de procesador capaz de ejecutar más de una instrucción por ciclo de reloj.

¡Nuevo!!: Computación paralela y Superescalar · Ver más »

SystemC

SystemC es frecuentemente descrito como un lenguaje de descripción de hardware como son VHDL y Verilog, pero es más adecuado describirlo como un lenguaje de descripción de sistemas, puesto que es realmente útil cuando se usa para modelar sistemas a nivel de comportamiento.

¡Nuevo!!: Computación paralela y SystemC · Ver más »

Taxonomía de Flynn

La taxonomía de Flynn es una clasificación de arquitecturas de computadores propuesta por Michael J. Flynn en 1972.

¡Nuevo!!: Computación paralela y Taxonomía de Flynn · Ver más »

Tensión (electricidad)

En el campo de la física, concretamente en la electricidad, tensión o diferencia de potencial (también denominada voltaje) es una magnitud física que cuantifica la diferencia de potencial eléctrico entre dos puntos.

¡Nuevo!!: Computación paralela y Tensión (electricidad) · Ver más »

Tiempo de ejecución

Se denomina tiempo de ejecución (runtime en inglés) al intervalo de tiempo en el que un programa de computadora se ejecuta en un sistema operativo.

¡Nuevo!!: Computación paralela y Tiempo de ejecución · Ver más »

Tiempo medio entre fallos

El tiempo medio entre fallos (mean time between failures, comúnmente abreviado MTBF) es la media aritmética (promedio) del tiempo entre fallos de un sistema.

¡Nuevo!!: Computación paralela y Tiempo medio entre fallos · Ver más »

TOP500

El proyecto TOP500 clasifica y detalla los 500 sistemas computación no distribuida más potentes del mundo.

¡Nuevo!!: Computación paralela y TOP500 · Ver más »

Topología de red

La topología de red se define como un mapa físico o lógico de una red para intercambiar datos.

¡Nuevo!!: Computación paralela y Topología de red · Ver más »

Transformada rápida de Fourier

La transformada rápida de Fourier, conocida por la abreviatura FFT (del inglés Fast Fourier Transform) es un algoritmo eficiente que permite calcular la transformada de Fourier discreta (DFT) y su inversa.

¡Nuevo!!: Computación paralela y Transformada rápida de Fourier · Ver más »

Transistor

El transistor es un dispositivo electrónico utilizado para amplificar o cambiar señales y potencias eléctricas.

¡Nuevo!!: Computación paralela y Transistor · Ver más »

Unidad central de procesamiento

La unidad central de procesamiento (conocida por las siglas CPU, del inglés Central Processing Unit) o procesador es un componente del hardware dentro de un ordenador, teléfonos inteligentes, y otros dispositivos programables.

¡Nuevo!!: Computación paralela y Unidad central de procesamiento · Ver más »

Unidad de control

La unidad de control (UC), en inglés: control unit (CU), es uno de los tres bloques funcionales principales en los que se divide una unidad central de procesamiento (CPU).

¡Nuevo!!: Computación paralela y Unidad de control · Ver más »

Unidad de procesamiento gráfico

Una unidad de procesamiento gráfico (del inglés graphics processing unit, GPU) o procesador gráfico es un coprocesador dedicado al procesamiento de gráficos u operaciones de coma flotante, para aligerar la carga de trabajo del procesador/CPU central en aplicaciones como los videojuegos o aplicaciones 3D interactivas.

¡Nuevo!!: Computación paralela y Unidad de procesamiento gráfico · Ver más »

Unidad funcional

En ingeniería informática, una unidad funcional o unidad de ejecución (E-unit o EU - Execution Unit) es una parte de la unidad central de procesamiento (CPU) o unidad de procesamiento de gráficos (GPU) que realiza las operaciones y los cálculos enviados desde la unidad de instrucción.

¡Nuevo!!: Computación paralela y Unidad funcional · Ver más »

Universidad Carnegie Mellon

La Universidad Carnegie Mellon (en inglés: Carnegie Mellon University, CMU) se ubica en Pittsburgh, Pensilvania, y es uno de los más destacados centros de investigación superior de los Estados Unidos en el área de ciencias de la computación y robótica.

¡Nuevo!!: Computación paralela y Universidad Carnegie Mellon · Ver más »

Valor futuro (informática)

En Programación, un valor futuro (también llamado un futuro o una promesa) es un reemplazo para un resultado que todavía no está disponible, generalmente debido a que su cómputo todavía no ha terminado, o su transferencia por la red no se ha completado.

¡Nuevo!!: Computación paralela y Valor futuro (informática) · Ver más »

Variable (programación)

En programación, una variable está formada por un espacio en el sistema de almacenaje (memoria principal de un ordenador) y un nombre simbólico (un identificador) que está asociado a dicho espacio.

¡Nuevo!!: Computación paralela y Variable (programación) · Ver más »

Vergonzosamente paralelo

En computación paralela, una carga de trabajo o problema vergonzosamente paralelo (también llamado vergonzosamente paralelizable, perfectamente paralelo, deliciosamente paralelo o placenteramente paralelo) es aquel en el que se necesita poco o ningún esfuerzo para separar el problema en varias tareas paralelas.

¡Nuevo!!: Computación paralela y Vergonzosamente paralelo · Ver más »

Verilog

Verilog es un lenguaje de descripción de hardware (HDL, del Inglés Hardware Description Language) usado para modelar sistemas electrónicos.

¡Nuevo!!: Computación paralela y Verilog · Ver más »

VHDL

VHDL es un lenguaje de especificación definido por el IEEE (Institute of Electrical and Electronics Engineers) (ANSI/IEEE 1076-1993) utilizado para describir circuitos digitales y para la automatización de diseño electrónico, a estos lenguajes se les suele llama lenguajes de descripción de hardware.

¡Nuevo!!: Computación paralela y VHDL · Ver más »

Volcado de memoria

En informática, un volcado de memoria (en inglés core dump o memory dump) es un registro no estructurado del contenido de la memoria en un momento concreto, generalmente utilizado para depurar un programa que ha finalizado su ejecución incorrectamente.

¡Nuevo!!: Computación paralela y Volcado de memoria · Ver más »

Zócalo de CPU

El zócalo de CPU (socket en inglés) es un tipo de zócalo electrónico (sistema electromecánico de soporte y conexión eléctrica) instalado en la placa base, que se usa para fijar y conectar el microprocesador, sin soldarlo lo cual permite ser extraído después.

¡Nuevo!!: Computación paralela y Zócalo de CPU · Ver más »

16 bits

En arquitectura de computadoras, 16 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 16 bits (2 octetos) de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.

¡Nuevo!!: Computación paralela y 16 bits · Ver más »

1962

1962 fue un año común comenzado en lunes según el calendario gregoriano.

¡Nuevo!!: Computación paralela y 1962 · Ver más »

1980

1980 fue un año bisiesto comenzado en martes según el calendario gregoriano.

¡Nuevo!!: Computación paralela y 1980 · Ver más »

2004

2004 fue un año bisiesto comenzado en jueves según el calendario gregoriano.

¡Nuevo!!: Computación paralela y 2004 · Ver más »

32 bits

32 bits es un adjetivo usado en.

¡Nuevo!!: Computación paralela y 32 bits · Ver más »

4 bits

En arquitectura de ordenadores, 4 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 4 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.

¡Nuevo!!: Computación paralela y 4 bits · Ver más »

64 bits

64 bits es un adjetivo usado en.

¡Nuevo!!: Computación paralela y 64 bits · Ver más »

8 bits

En arquitectura de computadoras, 8 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 8 bits (1 octeto) de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.

¡Nuevo!!: Computación paralela y 8 bits · Ver más »

Redirecciona aquí:

Calculo paralelo, Computacion paralela, Cálculo paralelo, Maquina paralela, Máquina paralela, Programacion paralela, Programación paralela, Sistema paralelo.

SalienteEntrante
¡Hey! ¡Ahora tenemos Facebook! »