Programación Paralela
La Programación Paralela es una alternativa ante la demanda continua de un poder computacional superior en áreas tan importantes como la predicción meteorológica, bio-computación, astrofísica. Las computadoras secuenciales convencionales han venido aumentando considerablemente su velocidad aunque no en relación con sistemas cada vez más complejos que requieren mayor tiempo de cómputo.
En los
orígenes encontramos a Federico Luigi
Mena brea y su «Bosquejo de la Máquina Analítica inventada
por Charles Babbage». Posteriormente en 1954 IBM introdujo
el IBM 704, a través de un proyecto en el que Gene Amdahl fue uno de los principales arquitectos. Se
convirtió en el primer equipo disponible en el mercado que utilizaba comandos
aritméticos de punto flotante totalmente automáticos.
En abril
de 1958 ,
S. Gill (Ferranti) analizó la programación en paralelo y la necesidad de la
ramificación y la espera. También en 1958, los investigadores de IBM John Cocke y Daniel Slotnick discutieron
por primera vez el uso del paralelismo en cálculos numéricos.
En 1962 Burroughs
Corporation presentó la D825, un equipo de cuatro procesadores
que accede a un máximo de 16 módulos de memoria a través de un Conmutador de Barras Cruzadas.
En 1967, Gene Amdahl y Daniel Slotnick publicaron
un debate sobre la viabilidad de procesamiento en paralelo en la Conferencia de la Federación Americana de Sociedades de Procesamiento de
la Información. Fue durante este debate que la Ley de Amdahl fue acuñada para definir los límites de
aceleración que se pueden alcanzar debido al paralelismo.
En 1969,
la compañía estadounidense Honeywell introdujo
su primer sistema Multics, un sistema con multiprocesador simétrico capaz de
ejecutar hasta ocho procesadores en paralelo. En 1970,
C.mmp, un proyecto en la Universidad Carnegie Mellon con varios procesadores, fue
«uno de los primeros multiprocesadores con más de unos pocos procesadores». En
1984 «El primer bus con conexión multi-procesador y caché espía fue el Synapse
N+1».
La Computadora
paralela SIMD se remonta a la década de 1970 En 1964,
Slot Nick había propuesto la construcción de un ordenador masivamente paralelo
para el Laboratorio Nacional Lawrence Livermore . Su diseño fue
financiado por la Fuerza Aérea de los Estados
Unidos, que fue el primer esfuerzo por lograr la computación en
paralelo SIMD. La clave de su diseño fue un paralelismo bastante alto, con
hasta 256 procesadores, lo que permitió que la máquina trabajara en grandes
conjuntos de datos en lo que más tarde sería conocido como el procesamiento de
vectores. Sin embargo, ILLIACIV fue llamado «el más infame de los superordenadores»,
pues solo se había completado una cuarta parte del proyecto. Tardó 11 años,
costando casi cuatro veces la estimación original. Cuando estaba listo para
ejecutar una aplicación real por primera vez en 1976,
fue superado por supercomputadoras comerciales, como el Cray-1.
Comentarios
Publicar un comentario