Programación Paralela

 


La Programación Paralela es una alternativa ante la demanda continua de un poder computacional superior en áreas tan importantes como la predicción meteorológica, bio-computación, astrofísica. Las computadoras secuenciales convencionales han venido aumentando considerablemente su velocidad aunque no en relación con sistemas cada vez más complejos que requieren mayor tiempo de cómputo.

En los orígenes encontramos a Federico Luigi Mena brea y su «Bosquejo de la Máquina Analítica inventada por Charles Babbage». Posteriormente en 1954 IBM introdujo el IBM 704, a través de un proyecto en el que Gene Amdahl fue uno de los principales arquitectos. Se convirtió en el primer equipo disponible en el mercado que utilizaba comandos aritméticos de punto flotante totalmente automáticos.

En abril de 1958 , S. Gill (Ferranti) analizó la programación en paralelo y la necesidad de la ramificación y la espera. También en 1958, los investigadores de IBM John Cocke y Daniel Slotnick discutieron por primera vez el uso del paralelismo en cálculos numéricos.


En 1962 Burroughs Corporation presentó la D825, un equipo de cuatro procesadores que accede a un máximo de 16 módulos de memoria a través de un Conmutador de Barras Cruzadas.

En 1967Gene Amdahl y Daniel Slotnick publicaron un debate sobre la viabilidad de procesamiento en paralelo en la Conferencia de la Federación Americana de Sociedades de Procesamiento de la Información. Fue durante este debate que la Ley de Amdahl fue acuñada para definir los límites de aceleración que se pueden alcanzar debido al paralelismo.

En 1969, la compañía estadounidense Honeywell introdujo su primer sistema Multics, un sistema con multiprocesador simétrico capaz de ejecutar hasta ocho procesadores en paralelo. En 1970, C.mmp, un proyecto en la Universidad Carnegie Mellon con varios procesadores, fue «uno de los primeros multiprocesadores con más de unos pocos procesadores». En 1984 «El primer bus con conexión multi-procesador y caché espía fue el Synapse N+1».

La Computadora paralela SIMD se remonta a la década de 1970 En 1964, Slot Nick había propuesto la construcción de un ordenador masivamente paralelo para el Laboratorio Nacional Lawrence Livermore . Su diseño fue financiado por la Fuerza Aérea de los Estados Unidos, que fue el primer esfuerzo por lograr la computación en paralelo SIMD. La clave de su diseño fue un paralelismo bastante alto, con hasta 256 procesadores, lo que permitió que la máquina trabajara en grandes conjuntos de datos en lo que más tarde sería conocido como el procesamiento de vectores. Sin embargo, ILLIACIV fue llamado «el más infame de los superordenadores», pues solo se había completado una cuarta parte del proyecto. Tardó 11 años, costando casi cuatro veces la estimación original. Cuando estaba listo para ejecutar una aplicación real por primera vez en 1976, fue superado por supercomputadoras comerciales, como el Cray-1.

 Los lenguajes de Programación Concurrente, bibliotecas, APIs y modelos de programación paralela han sido creados para la programación de computadores paralelos. POSIX Threads y OpenMP , Message Passing Interface, OpenHMPP, Código C o Fortran

 

Comentarios

Entradas más populares de este blog

Funciones de Word