Investigadores europeos trabajan en el desarrollo de superordenadores capaces de resolver numerosos retos en la vida diaria. El Proyecto Deep-ER, impulsado por la Comisión Europea, reúne a 14 socios de siete países diferentes en un consorcio compuesto por partners industriales, centros de investigación y universidades de renombre coordinados por el Centro de Supercomputación de Jüllich. El objetivo: desarrollar prototipos para la construcción de sistemas de clase Exaescala.
Los sistemas informáticos o aplicaciones Exaescale, son aquellos capaces de funcionar con un rendimiento por encima de 1018 operaciones de punto flotante por segundo. El objetivo del proyecto Deep-ER es el desarrollo de un prototipo que sea aplicable a siete aplicaciones de computación de alto rendimiento para el mundo real, desde la sismología a la exposición humana a los campos electromagnéticos. En el proyecto predecesor, denominado DEEP, había sido desarrollada una arquitectura innovadora para sistemas HPC (High Performance Computing) heterogéneos, basada en la combinación de un Cluster HPC estándar y un Booster HPC construido con procesadores de múltiple núcleo.
Para hacernos una idea de la complejidad y potencia del Booster, basta un repaso a su arquitectura: 128 nodos de cálculo dispuestos en 8 chasis refrigerados por líquido. Cada nodo de cálculo proporciona 16 núcleos de CPU utilizando dos Intel® Xeon® E5.
La interconexión Infiniband de Mellanox® crea una red de comunicación flexible con memoria sub-microsegundo a la latencia de la memoria. Además de los 16 nodos, cada chasis lleva una root card proporcionando un sistema integrado de servicios de conmutación y de gestión de cluster Infiniband.

Esquema del sistema Deep-ER (Fuente: Prezi Deep-ER)
Siete desafíos de la supercomputación a punto de ser superados
Gracias a los avances alcanzados por el programa Deep-ER, algunos de los grandes retos de la ciencia están a punto de ser superados. En concreto, ya se trabaja en soluciones concretas como:
1. La mejora de la exploración petrolífera
Full Waveform Inversión es una técnica que permite a sondear las propiedades físicas de un área subsuperficial con alta resolución espacial a partir de datos sísmicos.
La determinación precisa de tales propiedades y su ubicación geométrica son de suma importancia para reducir los riesgos asociados con la búsqueda de yacimientos de hidrocarburos.
Sin embargo, los recursos computacionales necesarios (varios terabytes de disco, cientos de gigabytes de memoria) y la potencia de cálculo son órdenes de magnitud muy alejadas de lo proporcionado por las plataformas HPC actuales: una sola ejecución (paralela la mayor parte del tiempo) en dichas plataformas pueden durar varios meses.
2 Cromodinámica cuántica
Lattice QCD estudia numéricamente la teoría fundamental de la interacción fuerte (una de las cuatro interacciones fundamentales de la naturaleza) https://en.wikipedia.org/wiki/Strong_interaction y ha estado en la vanguardia de los HPC desde los años 1980.
Los códigos de red QCD han sido añadido a la mayoría de las arquitecturas HPC y por lo general obtienen un alto rendimiento sostenido debido a la regularidad y la previsibilidad del código. Sin embargo, la explotación eficiente de las últimas arquitecturas de múltiples núcleos sigue siendo un desafío, en particular, debido a las limitaciones en el ancho de banda de memoria y escalabilidad robusta.
3. La Radioastronomía
El Square Kilometre Array (SKA), el radio telescopio de última generación cuenta con requisitos de computación Exascale.
En la parte superior, requiere petabyte / s de ancho de banda del orden de 4 a 5 veces mayor que los telescopios de radio actual. Deep-ER trabaja con algoritmos de clave utilizadas por los telescopios de radio y los adapta para evaluar las tecnologías de aceleración de red y el estado de la tecnología. Dos aplicaciones principales están incluidas en el prototipo Deep-ER: un «correlador”—una aplicación que combina datos de los telescopios individuales e incluye algoritmos de procesamiento de señales como filtros FIR, FFT y otras correlaciones; Y un «generador de imágenes».
Actualmente, el correlador maneja hasta 240 Gb / s de datos y produce una salida de hasta 80 Gb / s. En el año 2016, para la fase 1 de SKA, debe escalar a más de 100 Tb / s. Los requisitos computacionales crecen a más de 1016 operaciones por segundo.
Por su parte, el generador de imágenes se utiliza para crear imágenes del cielo basadas en datos correlacionados. Esta aplicación es computacionalmente exigente.
4. Dinámica de Terremotos
El campo de investigación tiene como objetivo la comprensión de los procesos físicos de gran escala en incidentes geológicos (por ejemplo, terremotos) y sus efectos secundarios (por ejemplo, tsunamis).
Esto es esencial, en primer lugar, por lo que permite una respuesta rápida durante y después de eventos catastróficos, y en segundo lugar, para mejorar la preparación técnica y social. Las soluciones computacionales de las ecuaciones diferenciales parciales no lineales que rigen estos fenómenos juegan un papel clave en la vinculación de la física subyacente con los datos de observación. La amplia gama de escalas involucradas necesarias en el espacio y el tiempo, así como la naturaleza no lineal que rigen estos fenómenos naturales plantean un enorme desafío computacional que sólo se pueden tratar por los grandes recursos HPC.
5. El Tiempo en el Espacio
El clima espacial, la ciencia que estudia y realiza la previsión de las condiciones en el gas ionizado (plasma) entre la Tierra y el Sol, tiene un alto impacto en la sociedad y afecta a las condiciones meterorológicas de la Tierra. El impacto radica en su relevancia para la infraestructura espacial y terrestre y para los conductores externos naturales del clima de la Tierra.
KULeuven ha desarrollado una primera aproximación aplicando el código iPic3D —Un código de programación desarrollado por la Universidad de Leuven que simula el clima espacial— y basado en el modelado de una muestra estadística de los electrones, los iones y los campos electromagnéticos del medioambiente espacial. La aplicación iPic3D pone a prueba los nuevos enfoques definidos en Deep-ER en un límite particularmente exigente: las partículas y los campos se alojan en diferentes tipos de núcleos (Booster y Cluster) y tienen una densidad muy diferente, con cientos de partículas por cada celda de campo. Además las estructuras de las partículas de datos tienen un tamaño que varía con el tiempo y se mueven a través de los núcleos, lo que conduce a posibles desequilibrios y tamaños de matriz que son dependientes del tiempo y espacialmente no homogéneos.
6. La superconductividad de alta temperatura
La comprensión de los mecanismos de superconductores en materiales de alta temperatura crítica (HTC) (tales como los óxidos de cobre) sigue siendo uno de los temas más difíciles en la física de la materia condensada.
Mediante el uso de simulaciones pretenden estudiar materiales realistas con el fin de determinar si las propiedades superconductoras de alta temperatura se pueden entender cuantitativamente y por lo tanto predecir dentro de un enfoque ab initio.
En este contexto, durante la producción masiva surge el problema de la capacidad de recuperación robusta. Las características peculiares de este tipo de simulaciones, basadas en muchos procesos semi independientes, pueden permitir estudiar un caso particular de la resistencia basada en estrategias de puntos de control. Tales estrategias, en el contexto de la infraestructura de hardware y software Deep-ER, serán cruciales para permitir simulaciones más precisas y exactas conforme a lo solicitado por la comunidad científica.
7. La exposición humana a campos electromagnéticos
La evaluación de los posibles efectos sobre la salud vinculados a la exposición de las personas a los campos electromagnéticos emitidos por los sistemas inalámbricos es de particular interés para el bienestar en nuestra sociedad moderna.
La simulación por ordenador se utiliza cada vez más para el cálculo y la evaluación de la dosis de radiación recibida por el cuerpo humano. Por lo general, éstos consisten en resolver un sistema de ecuaciones de Maxwell, modelo de la propagación de los campos electromagnéticos en los tejidos vivos. Maxw-DGTD es un software de simulación que se ha desarrollado para este propósito. Se basa en un método tipo de elementos finitos de alto grado DGTD (Discontinuos Galerkin Time-Domain) , que está diseñado para hacer frente a las mallas de tetraedros totalmente estructurados definición de los modelos geométricos de los tejidos humanos.
Toda la información científica y matreriales descargables en la web del proyecto DEEP-ER.
[youtube]https://youtu.be/flO-KOn3qKE[/youtube]