Supercalculateurs du présent


Summit

Summit ou OLCF-4 est un supercalculateur développé par IBM pour les utilisations au Oak Ridge National Laboratory, qui en novembre 2019 est le supercalculateur le plus rapide au monde. Il est capable d’une puissance réelle de 200 petaFLOPS. Son benchmark LINPACK actuel est cadencé à 148,6 petaFLOPS. En novembre 2019, le supercalculateur est également le 5e plus économe en énergie au monde avec une efficacité énergétique mesurée de 14,668 gigaFLOPS / watt.
Summit est le premier supercalculateur à atteindre la vitesse d'exaflop (un quintillion d'opérations par seconde), atteignant 1,88 exaflops lors d'une analyse génomique et devrait atteindre 3,3 exaflops à l'aide de calculs de précision mixtes.
Chacun de ses 4 608 nœuds (2 processeurs IBM POWER9 et 6 GPU Nvidia Tesla / nœud) possède plus de 600 Go de mémoire cohérente (6 × 16 = 96 Go HBM2 plus 2 × 8 × 32 = 512 Go DDR4 SDRAM) qui est adressable par tous les CPU et GPU plus 800 Go de RAM non volatile qui peuvent être utilisés comme tampon de rafale ou comme mémoire étendue.Les CPU POWER9 et les GPU Volta sont connectés à l'aide du NVLink haute vitesse de Nvidia. Cela permet un modèle de calcul hétérogène.Pour fournir un taux élevé de débit de données, les nœuds seront connectés dans une topologie en arbre gras non bloquant en utilisant une interconnexion Mellanox EDR InfiniBand à double rail pour le stockage et le trafic de communications interprocessus qui fournit à la fois une bande passante de 200 Gb / s entre les nœuds et une accélération de l'informatique en réseau pour les infrastructures de communication telles que MPI et SHMEM / PGAS.
Summit fournira une puissance de calcul sans précédent pour la recherche dans les domaines de l'énergie, des matériaux avancés et de l'intelligence artificielle (IA), entre autres domaines, permettant des découvertes scientifiques qui étaient auparavant impraticables ou impossibles.

MareNostrum

MareNostrum est le supercalculateur principal du Barcelona Supercomputing Center (BSC). Il s'agit du supercalculateur le plus puissant d'Espagne, l'un des treize supercalculateurs du réseau superordinateurs espagnol et l'un des sept supercalculateurs de l'infrastructure européenne PRACE (Partnership for Advanced Computing in Europe).
Le système d'exploitation utilisé par MareNostrum est SUSE Linux 11 SP3. Il occupe 180 m² (moins de la moitié d'un terrain de basket).
Le supercalculateur est utilisé dans la recherche sur le génome humain, la recherche sur les protéines, les simulations astrophysiques, les prévisions météorologiques, la modélisation géologique ou géophysique et la conception de nouveaux médicaments. Il a été démarré pour la première fois le 12 avril 2005 et est disponible pour la communauté scientifique nationale et internationale.
MareNostrum 4 a été surnommé le supercalculateur le plus diversifié et probablement le plus intéressant au monde grâce à son hétérogénéité de l'architecture. Sa vitesse totale sera de 13,7 pétaflops. Il dispose de cinq racks de stockage avec une capacité de stockage de 14 pétaoctets (14 millions de gigaoctets) de données. Un réseau Omnipath haute vitesse relie tous les composants du supercalculateur entre eux.
Le supercalculateur comprend deux parties distinctes : un bloc à usage général et un bloc présentant des technologies émergentes.
Le bloc général comprend 48 racks avec 3 456 nœuds de calcul Lenovo ThinkSystem SD530. Chaque nœud possède deux puces Intel Xeon Platinum, chacune avec 24 processeurs, pour un total de 165 888 processeurs et une mémoire principale de 390 téraoctets. Ses performances maximales sont de 11,15 pétaflops. Alors que ses performances sont 10 fois supérieures à celles de son prédécesseur, MareNostrum 3, sa puissance n'augmentera que de 30% à 1,3 MW.
Le deuxième élément de MareNostrum 4 est formé de grappes de trois technologies émergentes différentes qui seront ajoutées et mises à jour au fur et à mesure qu'elles seront disponibles. Il s'agit de technologies en cours de développement aux États-Unis et au Japon pour accélérer l'arrivée de la nouvelle génération de superordinateurs pré-exascale.
Un cluster est constitué de processeurs IBM POWER9 et de GPU NVIDIA Volta, qui sont les mêmes composants qu'IBM et NVIDIA utiliseront pour les supercalculateurs Summit et Sierra que le département américain de l'Énergie a commandé pour les laboratoires nationaux d'Oak Ridge et de Lawrence Livermore. Puissance de calcul supérieure à 1,5 Petaflop /s.
Un cluster composé de processeurs AMD Rome et AMD Radeon Instinct MI50. La machine aura un processeur et un accélérateur similaires à ceux du supercalculateur Frontier qui sera installé en 2021 à l'ORNL. La puissance de calcul de la machine sera de 0,52 Petaflop /s.
Un cluster formé de processeurs ARMv8 64 bits dans une machine prototype, utilisant les technologies de pointe du supercalculateur japonais Post-K. Puissance de calcul supérieure à 0,65 Petaflop /s.
L'objectif de l'incorporation progressive de ces technologies émergentes dans MareNostrum 4 est de permettre à BSC de fonctionner avec ce qui devrait être parmi les développements les plus à la pointe de la technologie des années à venir et de tester si elles conviennent à l'avenir versions de MareNostrum. MareNostrum 4 a une capacité de stockage sur disque de 14 pétaoctets et est connecté aux infrastructures Big Data de BSC-CNS, qui ont une capacité totale de 24,6 pétaoctets. Un réseau Omnipath haute vitesse relie tous les composants du supercalculateur entre eux. Comme ses prédécesseurs, MareNostrum 4 est également connecté aux centres de recherche et universités européens via les réseaux RedIris et Géant.

SpiNNaker

SpiNNaker (Spiking Neural Network Architecture) est une architecture de supercalculateur massivement parallèle à plusieurs noyaux conçus par le Advanced Processor Technologies Research Group (APT) du Département d'informatique de l'Université de Manchester. Il est composé de 57 600 processeurs ARM9 (spécifiquement ARM968), chacun avec 18 cœurs et 128 Mo de SDRAM DDR mobile, totalisant 1 036 800 cœurs et plus de 7 To de RAM. La plate-forme informatique est basée sur le renforcement des réseaux de neurones, utile pour simuler le cerveau humain. (Human Brain Project)

La conception terminée est logée dans 10 racks de 19 pouces, chaque rack contenant plus de 100 000 cœurs. Les cartes contenant les puces sont conservées dans 5 boîtiers de lames, et chaque cœur émule 1000 neurones. Au total, l'objectif est de simuler le comportement d'agrégats jusqu'à un milliard de neurones en temps réel. Cette machine nécessite environ 100 kW à partir d'une alimentation de 240 V et d'un environnement climatisé.

SpiNNaker est utilisé comme l'un des composants de la plate-forme informatique neuromorphique du projet Human Brain.

Le 14 octobre 2018, le RAP a annoncé que le million de jalons avait été atteint.
Le 24 septembre 2019, HBP a annoncé qu'une subvention de 8 millions d'euros, destinée à financer la construction de la machine de deuxième génération (appelée spincloud), avait été octroyée à TU Dresden.

SpiNNaker est une plate-forme informatique massivement parallèle, ciblée sur trois principaux domaines de recherche:

Neuroscience: Comprendre comment fonctionne le cerveau est un grand défi de la science du 21e siècle. Nous fournirons la plateforme pour aider les neuroscientifiques à percer le mystère qu'est l'esprit. La plus grande machine SpiNNaker sera capable de simuler un milliard de neurones simples, ou des millions de neurones avec une structure complexe et une dynamique interne.

Robotique: SpiNNaker est une bonne cible pour les chercheurs en robotique, qui ont besoin de calculs mobiles à faible puissance. Une petite carte SpiNNaker permet de simuler un réseau de dizaines de milliers de neurones dopants, de traiter les entrées sensorielles et de générer des sorties moteur, le tout en temps réel et dans un système basse consommation.

Informatique: SpiNNaker enfreint les règles suivies par les superordinateurs traditionnels qui reposent sur des communications déterministes et reproductibles et des calculs fiables. Les nœuds SpiNNaker communiquent à l'aide de messages simples (pics) qui sont intrinsèquement peu fiables. Cette rupture avec le déterminisme offre de nouveaux défis, mais aussi la possibilité de découvrir de nouveaux principes puissants de calcul massivement parallèle.

Sierra

Sierra ou ATS-2 est un supercalculateur construit pour le Lawrence Livermore National Laboratory pour une utilisation par la National Nuclear Security Administration en tant que deuxième système de technologie avancée. Il est principalement utilisé pour des applications prédictives dans la gestion des stocks, contribuant à assurer la sécurité, la fiabilité et l'efficacité des armes nucléaires des États-Unis.

Le supercalculateur Sierra construit par IBM offre quatre à six fois les performances soutenues et cinq à sept fois les performances de charge de travail de son prédécesseur Sequoia, avec un pic de 125 pétaFLOP / s. À environ 11 mégawatts, Sierra est également environ cinq fois plus économe en énergie que Sequoia.

L'architecture de Sierra est très similaire au supercalculateur Summit construit pour le Oak Ridge National Laboratory. Le système Sierra utilise des processeurs IBM POWER9 conjointement avec des GPU Nvidia Tesla V100. Les nœuds de Sierra sont des serveurs Witherspoon S922LC OpenPOWER avec deux GPU par processeur et quatre GPU par nœud. Ces nœuds sont connectés à EDR InfiniBand.

Sierra est conçu autour d’une architecture hybride de processeurs IBM POWER9 couplés à des processeurs graphiques Nvidia via la connexion NVLink de Nvidia. Il doit servir à la division de la National Nuclear Security Administration chargée des simulations numériques avancées.

Sa construction débute à proprement parler à l’été 2017, pour une mise en service en 2018. Sierra fait son entrée au TOP500 à la 3e place en juin 2018.


Caractéristiques :

• Nœuds de calcul : 4 320
• Processeurs : 2 POWER9 par nœud (8 640 au total)
• Processeurs graphiques : 4 Nvidia Tesla V100 par nœud (17 280 au total)
• Performance : 125 pétaFLOPS
• Refroidissement à eau
• Mémoire vive : 256 Go par nœud
• Système d’exploitation : Red Hat Enterprise Linux
• Coût : 125 millions de dollars

Le nouveau système fournit des ressources de calcul qui sont essentielles pour les scientifiques des armes nucléaires pour remplir la mission de gestion des stocks de la National Nuclear Security Administration par le biais de simulations au lieu d'essais souterrains. Les scientifiques et les ingénieurs du programme Advanced Simulation and Computing (ASC) utiliseront Sierra pour évaluer les performances des systèmes d'armes nucléaires ainsi que les calculs de science et d'ingénierie des armes nucléaires. Ces calculs sont nécessaires pour comprendre les problèmes clés de la physique, dont la connaissance fait ensuite son chemin dans les codes de conception intégrés. Ce travail sur la Sierra a des implications importantes pour d'autres défis mondiaux et nationaux tels que la non-prolifération et la lutte contre le terrorisme.

Sunway TaihuLight

Le Sunway TaihuLight (chinois : 神威·太湖之光, Shénwēi·tàihú zhī guāng) est un supercalculateur qui a été conçu par le National Research Center of Parallel Computer Engineering & Technology (NRCPC) et est situé au National Supercomputing Center à Wuxi dans la ville de Wuxi, dans la province du Jiangsu, en Chine. Son nom chinois se traduit littéralement par "La toute-puissance divine du Lac Taihu".

C'est l'ordinateur le plus puissant au monde en juin 2016 selon le 47e classement du TOP500. Il est le successeur du Tianhe-2, premier au classement du TOP500 depuis novembre 2015. Il utilise des processeurs RISC 64-bits ShenWei (ou Sunway), également conçu à Wuxi, comportant des instructions SIMD, et de l'exécution dans le désordre. Un bus PCIe 3.0 fournissant 16 GB/seconde de pic de bande passante nœud à nœud est utilisé pour les intercommunications. Le système a une capacité totale de 93 pétaflops, soit trois fois plus que Tianhe-2, et cinq fois plus que le premier superordinateur américain, Titan qui a une puissance de 34 pétaflops.

En novembre 2008, le Sunway TaihuLight est classé troisième dans la liste TOP500.

Il a, de plus, en août 2016, été classé en 3e place du Green 500, comparant l'efficacité énergétique des supercalculateurs, avec 6 051,30 MFLOPS/W, il est le seul des dix premiers avec cette échelle de puissance de 15 371 kW, les autres étant des petits super calculateurs avec une puissance de 50 et 190 kW. Une des raisons qui a permis d'atteindre cette performance énergétique est la simplification du cache des microprocesseurs, elle réduit également la puissance brute par cœur, mais le gain de puissance électrique permet en même temps de créer un supercalculateur plus puissant dans sa globalité.

Il utilise le système d'exploitation Sunway RaiseOS dérivé de Linux. Les autres parties de son système logiciel incluent des compilateurs C/C++ et Fortran, ainsi que des bibliothèques mathématiques associées, le plus gros ayant déjà été porté sur cette architecture ShenWei depuis les générations précédentes. Les développeurs ont également développé leur propre implémentation d'OpenACC 2.0 pour la parallélisation des calculs.

Le Sunway TaihuLight a été le supercalculateur le plus rapide du monde pendant deux ans, de juin 2016 à juin 2018, selon les listes TOP500. Le record a été dépassé en juin 2018 par le sommet d'IBM.

Le Sunway TaihuLight utilise un total de 40 960 processeurs RISC 64 bits SW26010 de conception chinoise basés sur l'architecture Sunway.Chaque puce de processeur contient 256 cœurs de traitement et quatre cœurs auxiliaires supplémentaires pour la gestion du système (également des cœurs RISC, juste plus complets) ) pour un total de 10 649 600 cœurs de processeur sur l'ensemble du système.

Les cœurs de traitement disposent de 64 Ko de mémoire bloc-notes pour les données (et 16 Ko pour les instructions) et communiquent via un réseau sur une puce, au lieu d'avoir une hiérarchie de cache traditionnelle.

Le système fonctionne sur son propre système d'exploitation, Sunway RaiseOS 2.0.5, basé sur Linux. Le système possède sa propre implémentation personnalisée d'OpenACC 2.0 pour faciliter la parallélisation du code.


Caractéristiques :

• Lieu : National Supercomputing Center de Wuxi, province du Jiangsu en Chine ;
• Constructeur : NRCPC ;
• Nombre de processeurs : 40 960 ;
• Nombre de cœurs : 10 649 600 ;
• Performance Linpack (Rmax) : 93 014,6 Tflop/s ;
• Pic théorique (Rpeak) : 125 436 Tflop/s ;
• Puissance : 15 371,00 kW ;
• Rendement : 6 Gflops/W ;
• Mémoire : 1 310 720 Go ;
• Processeur : Sunway SW26010 260C 1.45GHz ;
• Interconnexion : Sunway ;
• Système d'exploitation : Sunway RaiseOS 2.0.5, un système d'exploitation distribué basé sur le noyau Linux.


Développement futur :

Le premier supercalculateur exascale de Chine entrera en service d'ici 2020 selon le directeur de l'école d'informatique de l'Université nationale de technologie de défense (NUDT). Selon le plan national pour la prochaine génération d'ordinateurs haute performance, le pays développera un ordinateur exascale au cours de la 13e période du plan quinquennal (2016-2020). Le gouvernement de la nouvelle zone de Tianjin Binhai, le NUDT et le Centre national de superordinateurs de Tianjin travaillent sur le projet. L'investissement devrait atteindre 3 milliards de yuans (470,6 millions de dollars).

Titan

Titan ou OLCF-3 était un supercalculateur construit par Cray au Oak Ridge National Laboratory pour une utilisation dans une variété de projets scientifiques. Titan était une mise à niveau de Jaguar, un ancien supercalculateur d'Oak Ridge, qui utilise des unités de traitement graphique (GPU) en plus des unités centrales de traitement (CPU) conventionnelles. Il contient à la fois des unités centrales de traitement (CPU) AMD Opteron™ 16 noyaux avancées et des unités de traitement graphique (GPU) NVIDIA® Kepler. Cette combinaison permet à Titan d'atteindre 10 fois la vitesse et 5 fois l'efficacité énergétique de son prédécesseur, le supercalculateur Jaguar, tout en utilisant modestement plus d'énergie et en occupant la même empreinte physique.

Titan a été le premier hybride de ce type à effectuer plus de 10 petaFLOPS. La mise à niveau a commencé en octobre 2011, a commencé les tests de stabilité en octobre 2012 et est devenue disponible pour les chercheurs au début de 2013. Le coût initial de la mise à niveau était de 60 millions de dollars américains, financé principalement par le Département américain de l'énergie.

Titan a été éclipsé à Oak Ridge par Summit en 2019, qui a été construit par IBM et comporte moins de nœuds avec une capacité GPU beaucoup plus grande par nœud ainsi qu'une mise en cache non volatile locale par nœud des données de fichier du système de fichiers parallèle du système.

Titan a utilisé des processeurs AMD Opteron en conjonction avec des GPU Nvidia Tesla pour améliorer l'efficacité énergétique tout en fournissant une augmentation de l'ordre de grandeur de la puissance de calcul par rapport à Jaguar. Il a utilisé 18 688 processeurs couplés à un nombre égal de GPU pour fonctionner à un pic théorique de 27 pétaFLOPS; dans le benchmark LINPACK utilisé pour classer la vitesse des supercalculateurs, il fonctionnait à 17,59 petaFLOPS. C'était suffisant pour prendre la première place dans la liste de novembre 2012 par l'organisation TOP500, mais Tianhe-2 l'a dépassé sur la liste de juin 2013. Titan est aussi classé 3e sur le Green 500, grâce à une architecture hybride CPU/GPU ; sa performance par watt vaut environ 2,1 GFLOPS/W.

Titan était disponible à toutes fins scientifiques ; l'accès dépend de l'importance du projet et de son potentiel à exploiter l'architecture hybride. Tous les programmes sélectionnés doivent également être exécutables sur d'autres superordinateurs pour éviter une dépendance exclusive à Titan. Six programmes d'avant-garde ont été les premiers sélectionnés. Ils traitaient principalement de la physique à l'échelle moléculaire ou des modèles climatiques, tandis que 25 autres étaient en file derrière eux. L'inclusion de GPU a obligé les auteurs à modifier leurs programmes. Les modifications ont généralement augmenté le degré de parallélisme, étant donné que les GPU offrent beaucoup plus de threads simultanés que les CPU. Les modifications donnent souvent de meilleures performances, même sur les machines à processeur uniquement.


Caractéristiques :

• Titan utilise une architecture hybride à base de 18 688 processeurs AMD Opteron 6274, 16 noyaux à 2 2 GHz, et de 18 688 accélérateurs GPU Nvidia Tesla K20X.
• Il est capable d'atteindre 27 PFLOPS en performance de pointe.
• Sa mémoire vive est de 710 TB (598 TB CPU et 112 TB GPU).
• Système d'exploitation : Cray Linux Environment (CLE) XK7.
• Puissance électrique : 8 2 MW.
• Coût : 97 millions de dollars.
• Armoires : 200
• Nombre total de noyaux : 299 008 noyaux Opteron
• Mémoire / nœud : 32 Go + 6 Go
• Mémoire / noyau : 2 Go
• Interconnexion : Gemini
• GPU : 18 688 Keplers K20X

Jaguar

Jaguar ou OLCF-2 était un supercalculateur pétascale construit par Cray au Oak Ridge National Laboratory (ORNL) à Oak Ridge, Tennessee. La Jaguar massivement parallèle avait une performance de pointe d'un peu plus de 1 750 téraFLOPS (1,75 petaFLOPS). Il possédait 224 256 cœurs de processeur AMD Opteron x86 et fonctionnait avec une version de Linux appelée Cray Linux Environment. Jaguar était un système Cray XT5, une évolution du supercalculateur Cray XT4.

En novembre 2009 et juin 2010, TOP500, la liste semestrielle des 500 meilleurs supercalculateurs au monde, a nommé Jaguar comme l'ordinateur le plus rapide au monde. Fin octobre 2010, la BBC a annoncé que le supercalculateur chinois Tianhe-1A avait pris le dessus, réalisant plus de 2,5 quadrillions de calculs par seconde, faisant ainsi passer Jaguar à la deuxième place. La liste TOP500 de novembre 2010 confirme le nouveau classement.

En 2012, le Cray XT5 Jaguar a été mis à niveau vers le système de supercalcul hybride Cray XK7 Titan en ajoutant l'interconnexion réseau Gemini et en équipant tous les nœuds de calcul avec des GPU Nvidia de génération Kepler.

Le système Jaguar a subi une série de mises à niveau depuis son installation en tant que Cray XT3 à 25 téraFLOPS en 2005. Début 2008, Jaguar était un Cray XT4 à 263 téraFLOPS. En 2008, Jaguar a été agrandi avec l'ajout d'un 1,4-petaFLOPS Cray XT5. En 2009, après une mise à niveau des processeurs AMD Barcelona 4 cœurs 2,3 GHz vers les processeurs AMD Istanbul 6 cœurs 2,6 GHz, le système résultant avait plus de 200000 cœurs de traitement connectés en interne au réseau Seastar2 + de Cray. Les pièces XT4 et XT5 de Jaguar sont combinées en un seul système à l'aide d'un réseau InfiniBand qui relie chaque pièce au système de fichiers Spider.

La partition XT5 de Jaguar contient 18 688 nœuds de calcul en plus des nœuds de connexion / service dédiés. Chaque nœud de calcul XT5 contient deux processeurs AMD Opteron 2435 à double cœur hexagonal (Istanbul) et 16 Go de mémoire. La partition XT4 de Jaguar contient 7 832 nœuds de calcul en plus des nœuds de connexion / service dédiés. Chaque nœud de calcul XT4 contient un processeur quadricœur AMD Opteron 1354 (Budapest) et 8 Go de mémoire. La mémoire totale combinée s'élève à plus de 360 téraoctets (To).

Jaguar utilise un système de fichiers Luster externe appelé Spider pour tout le stockage de fichiers. Le référentiel de lecture / écriture du système de fichiers est de 240 Go / s, et il fournit plus de 10 pétaoctets (PB) de stockage.

Des centaines d'applications ont été portées pour fonctionner sur la série Cray XT, dont beaucoup ont été étendues pour fonctionner sur 20 000 à 150 000 cœurs de processeur.

Le petaFLOPS Jaguar cherche à résoudre certains des problèmes scientifiques les plus difficiles dans des domaines tels que la modélisation du climat, les énergies renouvelables, la science des matériaux, la sismologie, la chimie, l'astrophysique, la fusion et la combustion. Chaque année, 80% des ressources de Jaguar sont allouées via le programme INCITE (Innovative and Novel Computational Impact on Theory and Experiment) du DOE, un processus sélectionné par des pairs et évalué par des pairs ouverts aux chercheurs des universités, de l'industrie, du gouvernement et des organisations à but non lucratif.

Sources :