División de Supercomputación Avanzada de la NASA
La División de Supercomputación Avanzada (NAS) de la NASA está ubicada en el Centro de Investigación Ames de la NASA, Moffett Field, en el corazón de Silicon Valley en Mountain View, California. Ha sido el principal recurso de supercomputación, modelado y simulación para las misiones de la NASA en aerodinámica, exploración espacial, estudios de patrones climáticos y corrientes oceánicas, y diseño y desarrollo de transbordadores y aviones espaciales durante casi cuarenta años.
La instalación alberga actualmente las supercomputadoras Pleiades, Aitken y Electra a petaescala, así como la supercomputadora Endeavour a teraescala. Los sistemas se basan en arquitectura SGI y HPE con procesadores Intel. El edificio principal también alberga sistemas de almacenamiento en disco y cintas de archivo con una capacidad de más de un exabyte de datos, el sistema de visualización Hyperwall y una de las estructuras de red InfiniBand más grandes del mundo. La División NAS es parte de la Dirección de Tecnología de Exploración de la NASA y opera el Proyecto de Capacidad de Computación de Alta Gama (HECC) de la NASA.
Historia
Fundación
A mediados de la década de 1970, un grupo de ingenieros aeroespaciales del Centro de Investigación Ames comenzó a estudiar la posibilidad de transferir la investigación y el desarrollo aeroespaciales de las costosas y lentas pruebas en túneles de viento al diseño y la ingeniería basados en simulación utilizando dinámica de fluidos computacional (CFD). modelos de supercomputadoras más potentes que los disponibles comercialmente en ese momento. Este esfuerzo se denominó más tarde Proyecto Simulador Aerodinámico Numérico (NAS) y la primera computadora se instaló en la Instalación de Computación Central del Centro de Investigación Ames en 1984.
El 14 de marzo de 1985 se inició la construcción de una instalación de supercomputación de última generación con el fin de construir un edificio donde expertos en CFD, informáticos, especialistas en visualización e ingenieros de redes y almacenamiento pudieran estar bajo un mismo techo en un ambiente colaborativo. En 1986, la NAS pasó a ser una división completa de la NASA y en 1987, el personal y el equipo de la NAS, incluida una segunda supercomputadora, una Cray-2 llamada Navier, se trasladaron a las nuevas instalaciones, que se inauguraron el 9 de marzo de 1987.
En 1995, NAS cambió su nombre por el de División de Simulación Aeroespacial Numérica, y en 2001 por el nombre que tiene hoy.
Innovaciones líderes en la industria
NAS ha sido uno de los principales innovadores en el mundo de la supercomputación y ha desarrollado muchas herramientas y procesos que se utilizaron ampliamente en la supercomputación comercial. Algunas de estas primicias incluyen:
- Instala el primer supercomputer basado en UNIX
- Implementó un modelo cliente/servidor que une a los supercomputadores y estaciones de trabajo para distribuir computación y visualización
- Desarrolló e implementó una red de área amplia de alta velocidad (WAN) que conecta recursos de supercomputación a usuarios remotos (AEROnet)
- El primer método desarrollado por la NASA para la distribución dinámica de cargas de producción a través de recursos supercomputados en lugares geográficamente distantes (NASA Metacenter)
- Implemented TCP/IP networking in a supercomputing environment
- Desarrolló un sistema de búsqueda por lotes para supercomputadores (NQS)
- Desarrolló un sistema jerárquico de almacenamiento de masa basado en UNIX (NAStore)
- Co-desarrollado (con SGI) la primera imagen de sistema único IRIX 256-, 512- y supercomputadores de 1.024 procesadores
- Co-desarrollado (con SGI) la primera imagen de un sistema basado en Linux 512- y 1.024 supercomputadores de procesadores
- Un entorno de memoria compartido de 2.048 procesadores

Desarrollo de software
NAS desarrolla y adapta software para "complementar y mejorar el trabajo realizado en sus supercomputadoras, incluido software para soporte de sistemas, sistemas de monitoreo, seguridad y visualización científica", dijo. y, a menudo, proporciona este software a sus usuarios a través del Acuerdo de código abierto de la NASA (NOSA).
Algunos de los desarrollos de software importantes de NAS incluyen:
- NAS Parámetros paralelos (NPB) fueron desarrollados para evaluar supercomputadores altamente paralelos y imitar las características de las aplicaciones CFD a gran escala.
- Sistema portátil de lotes (PBS) fue el primer software de búsqueda de lotes para sistemas paralelos y distribuidos. Fue liberado comercialmente en 1998 y sigue siendo ampliamente utilizado en la industria.
- PLOT3D fue creado en 1982 y es un programa informático de gráficos que todavía se utiliza hoy para visualizar las redes y soluciones de conjuntos de datos estructurados de CFD. El equipo PLOT3D fue galardonado con el cuarto premio mayor otorgado por el Programa de Ley Espacial de la NASA para el desarrollo de su software, que revolucionó la visualización científica y el análisis de soluciones de CFD 3D.
- FAST (Flow Analysis Software Toolkit) es un entorno de software basado en PLOT3D y utilizado para analizar datos de simulaciones numéricas que, aunque adaptados a la visualización CFD, pueden utilizarse para visualizar casi cualquier dato de escalar y vectorial. Fue galardonado con el Premio Software del Año de la NASA en 1995.
- INS2D y INS3D son códigos desarrollados por ingenieros del NAS para resolver las ecuaciones incompresibles de Navier-Stokes en coordenadas generalizadas bi y tridimensionales, respectivamente, para el flujo constante y el tiempo variable. En 1994, INS3D ganó el Premio al Software del Año de la NASA.
- Cart3D es un paquete de análisis de alta fidelidad para el diseño aerodinámico que permite a los usuarios realizar simulaciones CFD automatizadas en formas complejas. Todavía se utiliza en la NASA y otras agencias gubernamentales para probar diseños conceptuales y preliminares de aeronaves y naves espaciales. El equipo Cart3D ganó el premio del Software del Año de la NASA en 2002.
- OVERFLOW (Overset grid flow solver) es un paquete de software desarrollado para simular flujo de fluidos alrededor de cuerpos sólidos utilizando las ecuaciones CFD Reynolds-averaged, Navier-Stokes. Fue el primer código de CFD de la NASA para sistemas de rejilla (Chimera) de uso general y fue liberado fuera de la NASA en 1992.
- Chimera Grid Tools (CGT) es un paquete de software que contiene una variedad de herramientas para el enfoque de cuadrícula de inicio Chimera para resolver problemas de CFD de la generación de cuadrícula de superficie y volumen; así como la manipulación de cuadrículas, suavizado y proyección.
- HiMAP Un proceso de análisis multidisciplinario de alta fidelidad paralela (Fluidas, Estructuras, Controles) de tres niveles (intra/interdisciplinar, multicase)
Historia de la supercomputación
Desde su construcción en 1987, la Instalación de Supercomputación Avanzada de la NASA ha albergado y operado algunas de las supercomputadoras más poderosas del mundo. Muchas de estas computadoras incluyen sistemas de banco de pruebas creados para probar nuevas arquitecturas, hardware o configuraciones de redes que podrían utilizarse a mayor escala. El rendimiento máximo se muestra en operaciones de punto flotante por segundo (FLOPS).
| Nombre de la computadora | Arquitectura | Rendimiento de pico | Número de CPU | Fecha de instalación |
|---|---|---|---|---|
| Cray XMP-12 | 210.53 megaflops | 1 | 1984 | |
| Navier | Cray 2 | 1.95 gigaflops | 4 | 1985 |
| Chuck | Convex 3820 | 1.9 gigaflops | 8 | 1987 |
| Pierre | Máquinas de pensamiento CM2 | 14.34 gigaflops | 16.000 | 1987 |
| 43 gigaflops | 48.000 | 1991 | ||
| Stokes | Cray 2 | 1.95 gigaflops | 4 | 1988 |
| Piper | CDC/ETA-10Q | 840 megaflops | 4 | 1988 |
| Reynolds | Cray Y-MP | 2.54 gigaflops | 8 | 1988 |
| 2.67 gigaflops | 88 | 1988 | ||
| Lagrange | Intel iPSC/860 | 7.88 gigaflops | 128 | 1990 |
| Gamma | Intel iPSC/860 | 7.68 gigaflops | 128 | 1990 |
| von Karman | Convex 3240 | 200 megaflops | 4 | 1991 |
| Boltzmann | Máquinas de pensamiento CM5 | 16.38 gigaflops | 128 | 1993 |
| Sigma | Intel Paragon | 15.60 gigaflops | 208 | 1993 |
| von Neumann | Cray C90 | 15.36 gigaflops | 16 | 1993 |
| Águila | Cray C90 | 7.68 gigaflops | 8 | 1993 |
| Grace. | Intel Paragon | 15.6 gigaflops | 209 | 1993 |
| Babbage | IBM SP-2 | 34.05 gigaflops | 128 | 1994 |
| 42.56 gigaflops | 160 | 1994 | ||
| da Vinci | SGI Power Challenge | 16 | 1994 | |
| SGI Power Challenge XL | 11.52 gigaflops | 32 | 1995 | |
| Newton | Cray J90 | 7.2 gigaflops | 36 | 1996 |
| Piglet | SGI Origin 2000/250 MHz | 4 gigaflops | 8 | 1997 |
| Turing | SGI Origin 2000/195 MHz | 9.36 gigaflops | 24 | 1997 |
| 25 gigaflops | 64 | 1997 | ||
| Fermi | SGI Origin 2000/195 MHz | 3.12 gigaflops | 8 | 1997 |
| Hopper | SGI Origin 2000/250 MHz | 32 gigaflops | 64 | 1997 |
| Evelyn | SGI Origin 2000/250 MHz | 4 gigaflops | 8 | 1997 |
| Steger | SGI Origin 2000/250 MHz | 64 gigaflops | 128 | 1997 |
| 128 gigaflops | 256 | 1998 | ||
| Lomax | Origen SGI 2800/300 MHz | 307.2 gigaflops | 512 | 1999 |
| 409.6 gigaflops | 512 | 2000 | ||
| Lou | SGI Origin 2000/250 MHz | 4.68 gigaflops | 12 | 1999 |
| Ariel | SGI Origin 2000/250 MHz | 4 gigaflops | 8 | 2000 |
| Sebastian | SGI Origin 2000/250 MHz | 4 gigaflops | 8 | 2000 |
| SN1-512 | Origen SGI 3000/400 MHz | 409.6 gigaflops | 512 | 2001 |
| Brillante | Cray SVe1/500 MHz | 64 gigaflops | 32 | 2001 |
| Chapman | Origen SGI 3800/400 MHz | 819.2 gigaflops | 1.024 | 2001 |
| 1.23 teraflops | 1.024 | 2002 | ||
| Lomax II | Origen SGI 3800/400 MHz | 409.6 gigaflops | 512 | 2002 |
| Kalpana | SGI Altix 3000 | 2.66 teraflops | 512 | 2003 |
| Cray X1 | 204.8 gigaflops | 2004 | ||
| Columbia | SGI Altix 3000 | 63 teraflops | 10.240 | 2004 |
| SGI Altix 4700 | 10.296 | 2006 | ||
| 85,8 teraflops | 13,824 | 2007 | ||
| Schirra | IBM POWER5+ | 4.8 teraflops | 640 | 2007 |
| RT Jones | SGI ICE 8200, procesadores Intel Xeon "Harpertown" | 43,5 teraflops | 4.096 | 2007 |
| Pleiades | SGI ICE 8200, procesadores Intel Xeon "Harpertown" | 487 teraflops | 51,200 | 2008 |
| 544 teraflops | 56.320 | 2009 | ||
| SGI ICE 8200, procesadores Intel Xeon "Harpertown"/"Nehalem" | 773 teraflops | 81.920 | 2010 | |
| SGI ICE 8200/8400, Procesadores Intel Xeon "Harpertown"/"Nehalem"/"Westmere" | 1.09 petaflops | 111.104 | 2011 | |
| SGI ICE 8200/8400/X, Procesadores Intel Xeon "Harpertown"/"Nehalem"/"Westmere"/"Sandy Bridge" | 1.24 petaflops | 125.980 | 2012 | |
| SGI ICE 8200/8400/X, Procesadores Intel Xeon "Nehalem"/"Westmere"/"Sandy Bridge"/"Ivy Bridge" | 2.87 petaflops | 162.496 | 2013 | |
| 3.59 petaflops | 184,800 | 2014 | ||
| SGI ICE 8400/X, Procesadores Intel Xeon "Westmere"/"Sandy Bridge"/"Ivy Bridge"/"Haswell" | 4.49 petaflops | 198,432 | 2014 | |
| 5.35 petaflops | 210.336 | 2015 | ||
| SGI ICE X, Procesadores Intel Xeon "Sandy Bridge"/"Ivy Bridge"/"Haswell"/"Broadwell" | 7.25 pétalos | 246,048 | 2016 | |
| Endeavour | SGI UV 2000, Procesadores Intel Xeon "Sandy Bridge" | 32 teraflops | 1,536 | 2013 |
| Merope | SGI ICE 8200, procesadores Intel Xeon "Harpertown" | 61 teraflops | 5,120 | 2013 |
| SGI ICE 8400, Procesadores Intel Xeon "Nehalem"/"Westmere" | 141 teraflops | 1.152 | 2014 | |
| Electra | SGI ICE X, procesadores Intel Xeon "Broadwell" | 1.9 petaflops | 1.152 | 2016 |
| SGI ICE X/HPE SGI 8600 E-Cell, Procesadores Intel Xeon "Broadwell"/"Skylake" | 4.79 petaflops | 2.304 | 2017 | |
| 8.32 petaflops | 3.456 | 2018 | ||
| Aitken | HPE SGI 8600 E-Cell, procesadores Intel Xeon "Cascade Lake" | 3.69 petaflops | 1.150 | 2019 |
| Nombre de la computadora | Arquitectura | Rendimiento de pico | Número de CPU | Fecha de instalación |
Recursos de almacenamiento
Almacenamiento en disco
En 1987, NAS se asoció con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) y la Universidad de California, Berkeley, en el proyecto Redundant Array of Inexpensive Disks (RAID), que buscaba crear una tecnología de almacenamiento que combinara múltiples componentes de unidades de disco. en una unidad lógica. Completado en 1992, el proyecto RAID condujo a la tecnología de almacenamiento de datos distribuidos que se utiliza en la actualidad.
La instalación NAS actualmente alberga almacenamiento masivo en disco en un clúster DMF paralelo de SGI con software de alta disponibilidad que consta de cuatro sistemas frontales de 32 procesadores, que están conectados a las supercomputadoras y al sistema de almacenamiento en cinta de archivos. El sistema tiene 192 GB de memoria por interfaz y 7,6 petabytes (PB) de caché de disco. Los datos almacenados en disco se migran periódicamente a los sistemas de almacenamiento de archivos en cinta de la instalación para liberar espacio para otros proyectos de usuarios que se ejecutan en las supercomputadoras.
Sistemas de archivo y almacenamiento
En 1987, NAS desarrolló el primer sistema de almacenamiento masivo jerárquico basado en UNIX, llamado NAStore. Contenía dos robots de cinta de cartucho StorageTek 4400, cada uno con una capacidad de almacenamiento de aproximadamente 1,1 terabytes, lo que redujo el tiempo de recuperación de la cinta de 4 minutos a 15 segundos.
Con la instalación de la supercomputadora Pleiades en 2008, los sistemas StorageTek que NAS había estado utilizando durante 20 años no pudieron satisfacer las necesidades de la mayor cantidad de usuarios y los tamaños de archivos cada vez mayores de los conjuntos de datos de cada proyecto. En 2009, NAS incorporó sistemas de cinta robótica Spectra Logic T950 que aumentaron la capacidad máxima de la instalación a 16 petabytes de espacio disponible para que los usuarios archiven sus datos desde las supercomputadoras. En marzo de 2019, la instalación NAS aumentó la capacidad total de almacenamiento de archivos de las bibliotecas de cintas Spectra Logic a 1048 petabytes (o 1 exabyte) con una compresión del 35%. La Instalación de migración de datos (DMF) de SGI y OpenVault administran la migración de datos de disco a cinta y la desmigración de cinta a disco para la instalación NAS.
En marzo de 2019, hay más de 110 petabytes de datos únicos almacenados en el sistema de almacenamiento de archivos NAS.
Sistemas de visualización de datos
En 1984, NAS compró 25 terminales gráficos SGI IRIS 1000, el comienzo de su larga asociación con la empresa con sede en Silicon Valley, que tuvo un impacto significativo en el posprocesamiento y la visualización de los resultados CFD ejecutados en las supercomputadoras de las instalaciones. . La visualización se convirtió en un proceso clave en el análisis de los datos de simulación ejecutados en las supercomputadoras, lo que permitió a ingenieros y científicos ver sus resultados espacialmente y de maneras que permitieron una mayor comprensión de las fuerzas CFD que actúan en sus diseños.
El hipermuro
En 2002, los expertos en visualización de NAS desarrollaron un sistema de visualización llamado "hyperwall" que incluía 49 paneles LCD vinculados que permitían a los científicos ver conjuntos de datos complejos en una gran y dinámica matriz de pantallas de siete por siete. Cada pantalla tenía su propia potencia de procesamiento, lo que le permitía mostrar, procesar y compartir conjuntos de datos para que una sola imagen pudiera mostrarse en todas las pantallas o configurarse para que los datos pudieran mostrarse en "celdas" como una hoja de cálculo visual gigante.
La segunda generación "hyperwall-2" fue desarrollado en 2008 por NAS en asociación con Colfax International y se compone de 128 pantallas LCD dispuestas en una cuadrícula de 8x16 de 23 pies de ancho por 10 pies de alto. Es capaz de representar un cuarto de billón de píxeles, lo que lo convierte en el sistema de visualización científica de mayor resolución del mundo. Contiene 128 nodos, cada uno con dos procesadores AMD Opteron (Barcelona) de cuatro núcleos y una unidad de procesamiento de gráficos (GPU) Nvidia GeForce 480 GTX para una potencia de procesamiento máxima dedicada de 128 teraflops en todo el sistema, 100 veces más potente que el original. hiperpared. Hyperwall-2 está conectado directamente al sistema de archivos de la supercomputadora Pleiades a través de una red InfiniBand, lo que permite al sistema leer datos directamente desde el sistema de archivos sin necesidad de copiar archivos en la memoria de Hyperwall-2.
En 2014, el hipermuro se actualizó con nuevo hardware: 256 Intel Xeon "Ivy Bridge" Procesadores y 128 GPU NVIDIA Geforce 780 Ti. La actualización aumentó la potencia máxima de procesamiento del sistema de 9 teraflops a 57 teraflops y ahora tiene casi 400 gigabytes de memoria gráfica.
En 2020, el hipermuro se actualizó aún más con nuevo hardware: 256 procesadores Intel Xeon Platinum 8268 (Cascade Lake) y 128 GPU NVIDIA Quadro RTX 6000 con un total de 3,1 terabytes de memoria gráfica. La actualización aumentó la potencia máxima de procesamiento del sistema de 57 teraflops a 512 teraflops.
Visualización simultánea
Una característica importante de la tecnología Hyperwall desarrollada en NAS es que permite la "visualización simultánea" de datos, que permite a los científicos e ingenieros analizar e interpretar datos mientras se ejecutan los cálculos en las supercomputadoras. Esto no solo muestra el estado actual del cálculo para el monitoreo, la dirección y la terminación del tiempo de ejecución, sino que también "permite una visualización de resolución temporal más alta en comparación con el posprocesamiento porque los requisitos de espacio de almacenamiento y E/S se obvian en gran medida". ... [y] puede mostrar características en una simulación que de otro modo no serían visibles."
El equipo de visualización de la NAS desarrolló una canalización simultánea configurable para usar con un modelo de pronóstico masivamente paralelo ejecutado en la supercomputadora Columbia en 2005 para ayudar a predecir la temporada de huracanes en el Atlántico para el Centro Nacional de Huracanes. Debido a los plazos para presentar cada uno de los pronósticos, era importante que el proceso de visualización no impidiera significativamente la simulación ni la hiciera fallar.