Historia de la supercomputación

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

El término supercomputación surgió a fines de la década de 1920 en los Estados Unidos en respuesta a los tabuladores de IBM en la Universidad de Columbia. La CDC 6600, lanzada en 1964, a veces se considera la primera supercomputadora. Sin embargo, algunas computadoras anteriores se consideraron supercomputadoras para su época, como la UNIVAC LARC de 1960, la IBM 7030 Stretch y la Manchester Atlas, ambas en 1962, todas las cuales tenían una potencia comparable; y el IBM NORC de 1954.

Mientras que las supercomputadoras de la década de 1980 usaban solo unos pocos procesadores, en la década de 1990 comenzaron a aparecer máquinas con miles de procesadores tanto en Estados Unidos como en Japón, estableciendo nuevos récords de rendimiento computacional.

A fines del siglo XX, se construyeron supercomputadoras paralelas masivas con miles de procesadores "listos para usar" similares a los que se encuentran en las computadoras personales y rompieron la barrera computacional de teraflops.

El progreso en la primera década del siglo XXI fue espectacular y aparecieron las supercomputadoras con más de 60.000 procesadores, alcanzando niveles de rendimiento de petaflop.

Inicios: años 50 y 60

El término "supercomputación" se utilizó por primera vez en el New York World en 1929 para referirse a grandes tabuladores personalizados que IBM había fabricado para la Universidad de Columbia.

En 1957, un grupo de ingenieros dejó Sperry Corporation para formar Control Data Corporation (CDC) en Minneapolis, Minnesota. Seymour Cray dejó Sperry un año después para unirse a sus colegas en CDC. En 1960, Cray completó el CDC 1604, una de las primeras generaciones de computadoras transistorizadas comercialmente exitosas y, en el momento de su lanzamiento, la computadora más rápida del mundo. Sin embargo, el único Harwell CADET completamente transitorizado estaba operativo en 1951, e IBM entregó su IBM 7090 transitorizado comercialmente exitoso en 1959.

Alrededor de 1960, Cray decidió diseñar una computadora que sería la más rápida del mundo por un amplio margen. Después de cuatro años de experimentación junto con Jim Thornton, Dean Roush y otros 30 ingenieros, Cray completó el CDC 6600 en 1964. Cray cambió de germanio a transistores de silicio, construidos por Fairchild Semiconductor, que usaban el proceso planar. Estos no tenían los inconvenientes de los transistores de silicio mesa. Los hizo funcionar muy rápido, y la restricción de la velocidad de la luz obligó a un diseño muy compacto con graves problemas de sobrecalentamiento, que se resolvieron introduciendo la refrigeración, diseñada por Dean Roush. El 6600 superó al poseedor del récord anterior de la industria, el IBM 7030 Stretch, por un factor de tres. Con un rendimiento de hasta tres megaFLOPS, se lo denominósupercomputadora y definió el mercado de la supercomputación cuando se vendieron doscientas computadoras a $9 millones cada una.

El 6600 ganó velocidad al "delegar" trabajo a elementos informáticos periféricos, liberando la CPU (Unidad Central de Procesamiento) para procesar datos reales. El compilador Minnesota FORTRAN para la máquina fue desarrollado por Liddiard y Mundstock en la Universidad de Minnesota y con él, el 6600 podía soportar 500 kiloflops en operaciones matemáticas estándar. En 1968, Cray completó la CDC 7600, nuevamente la computadora más rápida del mundo. A 36 MHz, el 7600 tenía 3,6 veces la velocidad de reloj del 6600, pero funcionaba mucho más rápido debido a otras innovaciones técnicas. Vendieron solo alrededor de 50 de los 7600, no del todo un fracaso. Cray dejó CDC en 1972 para formar su propia empresa.Dos años después de su partida, CDC entregó el STAR-100 que, con 100 megaflops, era tres veces la velocidad del 7600. Junto con Texas Instruments ASC, el STAR-100 fue una de las primeras máquinas en utilizar el procesamiento vectorial; la idea había sido inspirado alrededor de 1964 por el lenguaje de programación APL.

En 1956, un equipo de la Universidad de Manchester en el Reino Unido comenzó a desarrollar MUSE, un nombre derivado de motor de microsegundos, con el objetivo de construir una computadora que pudiera operar a velocidades de procesamiento cercanas a un microsegundo por instrucción, alrededor de un millón de instrucciones por segundo. Mu (el nombre de la letra griega µ) es un prefijo en el SI y otros sistemas de unidades que denotan un factor de 10 (una millonésima).

A fines de 1958, Ferranti acordó colaborar con la Universidad de Manchester en el proyecto, y poco después la computadora pasó a llamarse Atlas, con la empresa conjunta bajo el control de Tom Kilburn. El primer Atlas se encargó oficialmente el 7 de diciembre de 1962, casi tres años antes de que se introdujera la supercomputadora Cray CDC 6600, como una de las primeras supercomputadoras del mundo. Fue considerado en el momento de su puesta en marcha como el ordenador más potente del mundo, equivalente a cuatro IBM 7094. Se dijo que cada vez que Atlas se desconectaba, se perdía la mitad de la capacidad informática del Reino Unido. El Atlas fue pionero en la memoria virtual y la paginación como una forma de ampliar su memoria de trabajo al combinar sus 16 384 palabras de memoria central primaria con 96 000 palabras adicionales de memoria de batería secundaria.Atlas también fue pionero en Atlas Supervisor, "considerado por muchos como el primer sistema operativo moderno reconocible".

La era Cray: mediados de los años 70 y 80

Cuatro años después de dejar CDC, Cray entregó el Cray-1 de 80 MHz en 1976 y se convirtió en la supercomputadora más exitosa de la historia. El Cray-1 usaba circuitos integrados con dos puertas por chip y era un procesador vectorial que introdujo una serie de innovaciones, como el encadenamiento en el que los registros escalares y vectoriales generan resultados intermedios que se pueden usar de inmediato, sin referencias de memoria adicionales que reducen la velocidad computacional. El Cray X-MP (diseñado por Steve Chen) se lanzó en 1982 como un procesador vectorial paralelo de memoria compartida de 105 MHz con mejor soporte de encadenamiento y múltiples canales de memoria. Las tres canalizaciones de punto flotante en el X-MP podrían operar simultáneamente.En 1983, Cray y Control Data eran líderes en supercomputadoras; a pesar de su liderazgo en el mercado general de computadoras, IBM no pudo producir un competidor rentable.

El Cray-2 lanzado en 1985 era una computadora de 4 procesadores refrigerada por líquido totalmente sumergida en un tanque de Fluorinert, que burbujeaba mientras operaba. Alcanzó los 1,9 gigaflops y fue la supercomputadora más rápida del mundo y la primera en romper la barrera de los gigaflops. El Cray-2 era un diseño totalmente nuevo y no usaba encadenamiento y tenía una alta latencia de memoria, pero usaba mucha canalización y era ideal para problemas que requerían grandes cantidades de memoria. Los costos de software en el desarrollo de una supercomputadora no deben subestimarse, como lo demuestra el hecho de que en la década de 1980 el costo del desarrollo de software en Cray llegó a ser igual al gastado en hardware. Esa tendencia fue en parte responsable de un alejamiento del sistema operativo interno Cray a UNICOS basado en Unix.

El Cray Y-MP, también diseñado por Steve Chen, fue lanzado en 1988 como una mejora del X-MP y podía tener ocho procesadores vectoriales a 167 MHz con un rendimiento máximo de 333 megaflops por procesador. A fines de la década de 1980, el experimento de Cray sobre el uso de semiconductores de arseniuro de galio en el Cray-3 no tuvo éxito. Seymour Cray comenzó a trabajar en una computadora masivamente paralela a principios de la década de 1990, pero murió en un accidente automovilístico en 1996 antes de que pudiera completarse. Cray Research, sin embargo, produjo tales computadoras.

Procesamiento masivo: la década de 1990

El Cray-2, que estableció las fronteras de la supercomputación a mediados y finales de la década de 1980, tenía solo 8 procesadores. En la década de 1990 comenzaron a aparecer las supercomputadoras con miles de procesadores. Otro desarrollo a fines de la década de 1980 fue la llegada de las supercomputadoras japonesas, algunas de las cuales se inspiraron en el Cray-1.

El SX-3/44R fue anunciado por NEC Corporation en 1989 y un año después obtuvo el título de más rápido del mundo con un modelo de 4 procesadores. Sin embargo, la supercomputadora Numerical Wind Tunnel de Fujitsu usó 166 procesadores vectoriales para obtener el primer puesto en 1994. Tenía una velocidad máxima de 1,7 gigaflops por procesador. El Hitachi SR2201, por otro lado, obtuvo un rendimiento máximo de 600 gigaflops en 1996 mediante el uso de 2048 procesadores conectados a través de una red transversal tridimensional rápida.

En el mismo período de tiempo, Intel Paragon podría tener de 1000 a 4000 procesadores Intel i860 en varias configuraciones, y fue clasificada como la más rápida del mundo en 1993. Paragon era una máquina MIMD que conectaba procesadores a través de una malla bidimensional de alta velocidad, lo que permitía que los procesos para ejecutar en nodos separados; comunicándose a través de la interfaz de paso de mensajes. En 1995, Cray también distribuía masivamente sistemas paralelos, por ejemplo, el Cray T3E con más de 2000 procesadores, utilizando una interconexión toroidal tridimensional.

La arquitectura Paragon pronto condujo a la supercomputadora Intel ASCI Red en los Estados Unidos, que ocupó el primer lugar en supercomputación hasta fines del siglo XX como parte de la Iniciativa de Computación y Simulación Avanzada. Este también era un sistema paralelo masivo MIMD basado en malla con más de 9,000 nodos de cómputo y más de 12 terabytes de almacenamiento en disco, pero usaba procesadores Pentium Pro listos para usar que se podían encontrar en las computadoras personales de todos los días. ASCI Red fue el primer sistema en romper la barrera de 1 teraflop en el punto de referencia MP-Linpack en 1996; eventualmente llegando a 2 teraflops.

Computación a petaescala en el siglo XXI

Se lograron avances significativos en la primera década del siglo XXI. La eficiencia de las supercomputadoras siguió aumentando, pero no de manera espectacular. El Cray C90 usó 500 kilovatios de potencia en 1991, mientras que en 2003 el ASCI Q usó 3000 kW y fue 2000 veces más rápido, aumentando el rendimiento por vatio 300 veces.

En 2004, la supercomputadora Earth Simulator construida por NEC en la Agencia Japonesa de Ciencias y Tecnologías Marinas y Terrestres (JAMSTEC) alcanzó los 35,9 teraflops, utilizando 640 nodos, cada uno con ocho procesadores vectoriales patentados. En comparación, a partir de 2020, una sola tarjeta gráfica NVidia RTX 3090 puede ofrecer un rendimiento comparable a 35 TFLOPS por tarjeta.

La arquitectura de la supercomputadora IBM Blue Gene encontró un uso generalizado a principios del siglo XXI, y 27 de las computadoras en la lista TOP500 usaron esa arquitectura. El enfoque de Blue Gene es algo diferente en el sentido de que cambia la velocidad del procesador por un bajo consumo de energía para que se pueda usar una mayor cantidad de procesadores a temperaturas de enfriamiento por aire. Puede usar más de 60 000 procesadores, con 2048 procesadores "por rack", y los conecta a través de una interconexión toroidal tridimensional.

El progreso en China ha sido rápido, ya que China ocupó el puesto 51 en la lista TOP500 en junio de 2003, luego el 14 en noviembre de 2003 y el 10 en junio de 2004 y luego el 5 durante 2005, antes de obtener el primer puesto en 2010 con el 2.5 petaflop Tianhe- Yo supercomputadora.

En julio de 2011, la computadora K japonesa de 8.1 petaflop se convirtió en la más rápida del mundo utilizando más de 60 000 procesadores SPARC64 VIIIfx alojados en más de 600 gabinetes. El hecho de que la computadora K sea más de 60 veces más rápida que Earth Simulator, y que Earth Simulator se clasifique como el sistema número 68 en el mundo siete años después de ocupar el primer puesto demuestra tanto el rápido aumento en el rendimiento superior como el crecimiento generalizado de la tecnología de supercomputación. mundial. Para 2014, Earth Simulator había desaparecido de la lista y para 2018 la computadora K había caído del top 10. Para 2018, Summit se había convertido en la supercomputadora más poderosa del mundo, con 200 petaFLOPS. En 2020, los japoneses volvieron a ocupar el primer puesto con la supercomputadora Fugaku, capaz de generar 442 PFLOPS.

Tabla histórica TOP500

Esta es una lista de las computadoras que aparecieron en la parte superior de la lista Top500 desde 1993. La "velocidad máxima" se otorga como la clasificación "Rmax".

AñoSupercomputadoraVelocidad pico(Rmax)Eficiencia energética(GFLOPS por vatio)Localización
1993Túnel de viento numérico Fujitsu124,50 GFLOPSLaboratorio Aeroespacial Nacional, Tokio, Japón
1993Intel Paragon XP/S 140143,40 GFLOPSLaboratorios Nacionales DoE-Sandia, Nuevo México, EE. UU.
1994Túnel de viento numérico Fujitsu170,40 GFLOPSLaboratorio Aeroespacial Nacional, Tokio, Japón
1996Hitachi SR2201/1024220,40 GFLOPSUniversidad de Tokio, Japón
Hitachi CP-PACS/2048368,20 GFLOPSUniversidad de Tsukuba, Tsukuba, Japón
1997Intel ASCI rojo/91521.338 TFLOPSLaboratorios Nacionales DoE-Sandia, Nuevo México, EE. UU.
1999Intel ASCI rojo/96322,3796 TFLOPS
2000IBM ASCI Blanco7.226 TFLOPSDoE-Laboratorio Nacional Lawrence Livermore, California, EE. UU.
2002Simulador de tierra NEC35.860 TFLOPSCentro de Simulación de la Tierra, Yokohama, Japón
2004Gen azul de IBM/L70.720 TFLOPSDoE/IBM Rochester, Minnesota, EE. UU.
2005136.800 TFLOPSDoE/Administración Nacional de Seguridad Nuclear deEE. UU., Laboratorio Nacional Lawrence Livermore, California, EE. UU.
280.600 TFLOPS
2007478.200 TFLOPS
2008IBM Correcaminos1.026 PFLOPSDoE-Laboratorio Nacional de Los Álamos, Nuevo México, EE. UU.
1.105 PFLOPS0.445
2009jaguar jaguar1.759 PFLOPSLaboratorio Nacional DoE-Oak Ridge, Tennessee, EE. UU.
2010Tianhe-IA2.566 PFLOPS0.635Centro Nacional de Supercomputación, Tianjin, China
2011computadora fujitsu k10.510 PFLOPS0.825Riken, Kobe, Japón
2012Secuoya de IBM16.320 PFLOPSLaboratorio Nacional Lawrence Livermore, California, EE. UU.
2012Titán Cray17.590 PFLOPSLaboratorio Nacional de Oak Ridge, Tennessee, EE. UU.
2013NUDT Tianhe-233.860 PFLOPS2.215Guangzhou, China
2016Sunway TaihuLuz93.010 PFLOPS6.051Wuxi, China
2018Cumbre de IBM122.300 PFLOPS14.668Laboratorio Nacional DoE-Oak Ridge, Tennessee, EE. UU.
2020Fugaku415.530 PFLOPSRiken, Kobe, Japón
2022Aurora2 EFLOPS33.333Intel, Cray, Laboratorio Nacional de Argonne, EE. UU.
2022Supercúmulo de investigación de IA5 EFLOPSMeta Plataformas, EE. UU.

Controles de exportación

El CoCom y su reemplazo posterior, el Acuerdo de Wassenaar, reglamentado legalmente, requiere licencia y aprobación y mantenimiento de registros; o prohibido por completo: la exportación de computadoras de alto rendimiento (HPC) a ciertos países. Dichos controles se han vuelto más difíciles de justificar, lo que ha llevado a la flexibilización de estas regulaciones. Algunos han argumentado que estas regulaciones nunca estuvieron justificadas.

Contenido relacionado

Cibernética de segundo orden

La cibernética de segundo orden, también conocida como la cibernética de la cibernética, es la aplicación recursiva de la cibernética a sí misma y la...

Ciencias de la Información

Las ciencias de la información es un campo académico que se ocupa principalmente del análisis, la recopilación, la clasificación, la manipulación, el...

Batería de hidruro metálico de níquel

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save