Suscríbete al newsletter The NewNow

Y te mantendremos al tanto de los últimos artículos y noticias

Los campos marcados con * son obligatorios

Rompiendo las barreras de la supercomputación

La supercomputación o los conjuntos de ordenadores que trabajan unidos para llevar al máximo nivel la potencia de cálculo y procesamiento, que prometen emplear la cuántica en la resolución de problemas complejos que hasta ahora parecían imposibles de solucionar en el mundo de la ciencia. Hemos visto en otros artículos cómo se están empleando también en funciones empresariales y productivas. Ahora, repasamos algunos de los hitos recientes de las computadoras de alto rendimiento.

El supercomputador más pequeño es holandés

Un equipo de científicos holandeses ha construido un superordenador del tamaño de cuatro cajas de pizza. El Little Green Machine II tiene la potencia de cálculo de 10.000 PCs y será utilizada por los investigadores en oceanografía, informática, inteligencia artificial, modelado financiero y astronomía. El equipo se basa en la Universidad de Leiden (Países Bajos) y se desarrolló con la ayuda de IBM.

El superordenador tiene una potencia de cálculo de más de 0,2 Petaflops. Eso es 200.000.000.000.000 de cálculos por segundo. Por lo tanto este superordenador es igual a la potencia de cálculo de más de 10.000 ordenadores normales.

Los investigadores construyeron su superordenador de cuatro servidores con cuatro tarjetas gráficas especiales cada uno. Se conectan los ordenadores a través de una red de alta velocidad. El diseño es tan compacto que se podría transportar con una bicicleta. Además de que sólo utiliza alrededor del 1% de la electricidad de un gran superordenador similar.

Para probar la pequeña supercomputadora los investigadores simularon la colisión entre la Vía Láctea y la Galaxia de Andrómeda que ocurrirá en unos cuatro mil millones de años. Hace sólo unos pocos años los investigadores realizaron la misma simulación en el ordenador enorme Titán (17,6 petaflops) en el Laboratorio Nacional de Oak Ridge (EE.UU.).

Fuente: Leiden University

El superordenador más fácil de utilizar

Investigadores del Laboratorio Nacional de Los Alamos, pionero en el campo que cuenta con más de 100 superordenadores, entendieron que su manejo requería de la dedicación de personal muy especializado para realizar la mayoría de cálculos y entender su software.

Por eso crearon Charliecloud, un código de 800 líneas de alto rendimiento que permite a los usuarios ejecutar fácilmente “locuras” en sus ordenadores, en palabras de sus creadores.

El producto de código abierto está siendo utilizado actualmente en dos superordenadores en Los Alamos, Woodchuck y Darwin, y la evaluación a escala en decenas de nodos muestra el mismo rendimiento operativo que los programas que se ejecutan de forma nativa. No sólo Charliecloud es eficiente en tiempo de cálculo, sino que es eficiente en el tiempo humano, que es lo más costoso. Así que desarrollaron un software sencillo y funcional que es fácil de entender y cuesta menos de mantener.

Fuente: Los Alamos National Laboratory

El Supercomputador de Ohio ejecuta el mayor cálculo de una sola escala de su historia

Utilizando 16.800 núcleos del Cluster Owens, Scientel IT Corp probó su software de base de datos optimizado para funcionar en sistemas de supercomputación, ejecutando un proceso creado con 1,25 terabytes de datos sintéticos.

Se trata de un software diseñado para grandes volúmenes de datos en entornos que pueden utilizar miles de nodos de procesamiento en comparación con otros software de base de datos que utilizan considerablemente menos nodos a la vez. Genosonix Súper DB es el único producto diseñado y optimizado para superordenadores para sacar el máximo provecho de la arquitectura de computación de alto rendimiento que ayuda a soportar Big Data Processing.

Durante la ejecución, el Cluster Owens alcanzó una velocidad de procesamiento de más de 86 millones de transacciones de datos por minuto sin errores.

Previamente Scientel había creado una aplicación de base de datos meterorológicos que se ejecuta mediante el Cluster Owens de la OSC que utiliza 600 de 648 nodos de computación disponibles del sistema. El Cluster Owens tiene nodos adicionales dedicados a la utilización de la GPU y análisis de datos, para un total de 824 nodos en el superordenador construido por Dell.

Con los resultados de pruebas satisfactorias sobre el software, Scientel tomará Genosonix Súper DB a la vanguardia de la tecnología para procesar grandes variedades de los datos y calcular problemas intensos en áreas tales como la investigación del cáncer, el desarrollo de fármacos, análisis de tráfico, y la exploración espacial. Una sola aplicación escrita para Genosonix Súper DB puede utilizar más de 100.000 núcleos de manejar múltiples petabytes de datos en tiempo real.

Fuente: OSC