4 min de lecture
Que le quatrième ordinateur le plus rapide du monde se trouve désormais en Europe constitue une étape importante pour devenir plus indépendant des États-Unis et de la Chine. Le « Jupiter », inauguré à Jülich, devrait atteindre cette année une puissance de calcul d’un exaFLOP par seconde.
Flops, FLOPS ou FLOP/s ne signifient pas ici des « échecs », mais des opérations en virgule flottante par seconde. Exa est le préfixe pour 10¹⁸, soit un trillion sur l’échelle longue et un quintillion sur l’échelle courte, comme aux États-Unis ou en Russie par exemple.
Le supercalculateur inauguré début septembre 2025 au centre de recherche de Jülich, entre Cologne et la frontière belge, devrait atteindre environ 1,4 exaFLOPS en calculs en virgule flottante double précision (FP64) avec ses près de 24 000 cartes Nvidia GH200, selon Heise. C’est bien plus que ce qui avait été atteint jusqu’à présent lors des essais pour la liste Top500. Mais Jupiter s’était déjà classé quatrième avec 793 pétaFLOPS. Pour les applications d’IA, qui nécessitent une précision nettement moindre avec FP8, Jupiter devrait même atteindre plus de 70 exaFLOPS.
« Jupiter renforce la souveraineté numérique de l’Allemagne »
Avec 24 000 GPU Nvidia, Jupiter est prêt pour l’IA, la physique quantique et la recherche gourmande en données. Source de l’image : Pexels/panumas nikhomkhai.
« Le supercalculateur Jupiter renforce la souveraineté numérique de l’Allemagne », déclare le Dr Ralf Wintergerst, président de Bitkom, qui ajoute selon le communiqué de presse de l’association numérique : « Avec lui, l’Allemagne accède au sommet mondial des ordinateurs haute performance et améliore ainsi, entre autres, les conditions pour le développement de l’intelligence artificielle. Il est important que l’accès à Jupiter soit ouvert aux startups et aux entreprises établies de la manière la moins bureaucratique possible. Nous pourrions ainsi donner une véritable impulsion au développement de l’IA en Allemagne et attirer également les meilleurs talents dans le pays. »
Comme le souligne t3n, la Chine investit massivement depuis environ 20 ans dans le développement et la construction de supercalculateurs. En 2013, le Tianhe-2 a détrôné avec 33 pétaFLOPS le numéro un précédent des États-Unis et l’a dépassé d’un facteur 2. Il est resté en tête du classement mondial jusqu’en 2016, jusqu’à ce que le Sunway TaihuLight, également chinois, le détrône, pour ensuite céder deux ans plus tard la première place au système américain Summit du Oak Ridge National Laboratory dans l’État américain du Tennessee.
Après une mise à niveau, ce dernier atteignait déjà 148 600 téraFLOPS, mais a dû s’incliner en mai 2020 face au Fugaku du RIKEN Center for Computational Science de Kobe. La cinquième place en Europe était alors occupée en 2024 par le HPC6 avec 477,90/606,97 pétaFLOPS et aujourd’hui par El Capitan, également basé sur HPE Cray, qui atteint 1,742 et respectivement 2,74638 exaFLOPS.
Déjà quatrième en phase de test
Comme le rapporte également t3n, la liste Top500 perd cependant de plus en plus en pertinence et la Chine n’a plus communiqué aucun de ses supercalculateurs aux organisateurs de la liste depuis 2024. En outre, il existe, surtout en provenance des États-Unis et de la Chine, un nombre croissant d’ordinateurs dédiés à l’IA qui atteignent les niveaux exaFLOPS, ce qui s’explique par le fait que l’entraînement de l’IA se contente de calculs avec des nombres bien inférieurs aux 64 bits typiques.
Comme mentionné précédemment, Jupiter a atteint 793 pétaFLOPS en phase de test à partir de juin 2025, se classant ainsi quatrième. Benedikt von St. Vieth, responsable du département HPC, Cloud and Data Systems and Services au Jülich Supercomputing Centre (JSC), est cependant confiant : « Nous verrons un exaFLOP encore cette année. »
Jupiter est conçu de manière modulaire – et ce depuis mai 2025. Mais certains racks étaient encore éteints au moment du benchmark en juin pour protéger Jupiter. Sur les 24 000 GPU (processeurs graphiques) désormais complétés, 22 000 étaient alors en service. Car « nous avons constaté que le système devenait trop chaud. Nous avons donc dû optimiser le refroidissement », cite t3n von St. Vieth.
En 2026, le Jupiter Booster devrait en outre recevoir au moins un module supplémentaire : le Jupiter Cluster sera équipé de processeurs particulièrement performants et sera ainsi utilisé pour des « applications particulièrement gourmandes en données ». Cependant, les processeurs développés en Europe par SiPearl et fabriqués par TSMC ne sont pas encore livrés.
« La réalité est bien plus complexe », déclare Herten dans t3n, ajoutant : « Tout dépend de l’architecture du modèle, de la quantité de données avec lesquelles le modèle est entraîné et du niveau de précision souhaité. »
Adapté également pour l’entraînement de grands modèles de langage
Le supercalculateur est principalement destiné à effectuer des calculs de simulation de toutes sortes. Son spectre d’applications s’étend des modèles cosmologiques en astrophysique à la simulation de systèmes biologiques ou aux calculs dans le domaine de la physique des particules, en passant par une IA pour une meilleure exploration des données et fonctions cérébrales.
Jupiter maîtrise bien sûr aussi l’IA, comme le souligne Andreas Herten, chef du Accelerating Devices Lab au JSC. En définitive, le Jupiter Booster d’Eviden selon l’Institut Helmholtz est équipé d’environ 24 000 superpuces Grace Hopper GH200 de Nvidia. Au total, le module réunit environ 6 000 nœuds de calcul avec chacun quatre des superpuces Grace Hopper et des processeurs correspondants dotés d’accélérateurs IA. Ainsi, environ 24 000 GPU et autant de CPU travaillent dans ce module.
La capacité de calcul est suffisante pour entraîner un grand modèle de langage (LLM) avec 100 milliards de paramètres par semaine. « Bien sûr, il s’agit là d’une estimation très simplifiée. La réalité est bien plus complexe », déclare Herten dans t3n, ajoutant : « Tout dépend de l’architecture du modèle, de la quantité de données avec lesquelles le modèle est entraîné et du niveau de précision souhaité. » Théoriquement, il serait également possible d’entraîner des modèles bien plus grands, mais cela prendrait beaucoup plus de temps. Un modèle d’IA nommé Jarvis, prévu pour début 2026, devrait servir principalement à l’entraînement d’applications d’IA dans le cadre de l’initiative européenne AI Factory.
Source de l’image : Forschungszentrum Jülich / Sascha Kreklau
À lire également sur cloudmagazin.com
- La souveraineté numérique de l’Europe se rapproche
- Google annonce le premier avantage quantique vérifiable – 13 000 fois plus rapide qu’un supercalculateur
- Heilbronn doit devenir la capitale européenne de l’IA