6 Oktober 2025

Dass der viertschnellste Rechner der Welt nun in Europa steht, ist nicht zuletzt ein wichtiger Schritt, um unabhängiger von den USA und China zu werden. Der jetzt eingeweihte „Jupiter“ in Jülich soll noch in diesem Jahr eine Computing-Leistung von einem ExaFLOP pro Sekunde erreichen.

Flops, FLOPS oder FLOP/s steht hier nicht etwa für „Reinfälle“, sondern für Floating Point oder Gleitkommaoperationen pro Sekunde. Exa ist die Vorsilbe für 10¹⁸ oder eine Trillion auf der langen Skala und Quintillion auf der kurzen Skala, in den USA oder Russland etwa.

Der Anfang September 2025 im Forschungszentrum Jülich zwischen Köln und der belgischen Grenze eingeweihte Supercomputer soll es mit seinen knapp 24.000 Nvidia-GH200-Boards laut Heise am Ende auf etwa 1,4 ExaFLOPS bei doppelt genauer Gleitkommaberechnungen (FP64) bringen. Das ist weit mehr als das bisher Erreichte im Probelauf für die Top500-Liste. Aber da kam der Jupiter mit 793 PetaFLOPS auch schon auf Platz 4. Für KI-Anwendungen, die mit FP8 eine deutlich geringere Genauigkeit brauchen, soll der Jupiter sogar über 70 ExaFLOPS erreichen.

„Jupiter stärkt Deutschlands digitale Souveränität“

Mit 24.000 Nvidia-GPUs ist Jupiter bereit für KI, Quantenphysik und datenintensive Forschung. Bildquelle: Pexels/panumas nikhomkhai.

„Der Supercomputer Jupiter stärkt Deutschlands digitale Souveränität“, sagt Bitkom-Präsident Dr. Ralf Wintergerst und fügt laut Pressemitteilung des Digitalverbands hinzu: „Mit ihm stößt Deutschland in die Weltspitze der Hochleistungscomputer vor und verbessert so unter anderem die Voraussetzungen für die Entwicklung von Künstlicher Intelligenz. Wichtig ist, dass der Zugang zu Jupiter für Startups und etablierte Unternehmen möglichst unbürokratisch eröffnet wird. So könnten wir der KI-Entwicklung in Deutschland einen echten Schub verleihen und auch Top-Talente ins Land ziehen.“

Wie t3n ausholt, investiert China seit etwa 20 Jahren massiv in die Entwicklung und den Bau von Supercomputern. 2013 hat der Tianhe-2 mit 33 PetaFLOPS die bisherige Nummer 1 aus den USA abgelöst und um den Faktor 2 überrundet. Der blieb bis 2016 an der Weltspitze, bis der Sunway TaihuLight, ebenfalls auch China, ihn vom Thron stürzte, um dann zwei Jahre später den ersten Platz an das amerikanische System Summit am Oak Ridge National Laboratory im US-Bundesstaat Tennessee zu verlieren.

Der kam aufgerüstet dann schon auf 148.600 TeraFLOPS, musste sich aber im Mai 2020 vom Fugaku am japanischen RIKEN Center for Computational Science in Kobe geschlagen geben. Den Spitzenplatz in Europa belegte dann 2024 der Weltfünfte HPC6 mit 477,90/606,97  PetaFLOPS und Stand heute der El Capitan, auch auf Basis von HPE Cray, der es auf 1,742 respektive 2,74638 ExaFLOPS bringt.

Im Probebetrieb schon auf Platz 4 gelandet

Wie t3n weiter berichtet, verliert die Top500-Liste allerdings immer mehr an Aussagekraft und hat China seit 2024 keinen seiner Supercomputer mehr an die Organisatoren der Liste gemeldet. Abgesehen davon gibt es, vor allem aus den USA und China, eine wachsende Zahl von KI-Rechnern, die in die ExaFLOPS-Gefilde vordringen, was daran liegt, dass das KI-Training sich für die Berechnungen mit weit weniger als die typischen 64-Bit-Zahlen begnügt.

Der Jupiter kam im Probebetrieb ab Juni 2025 wie gesagt auf 793 PetaFLOPS und somit auf Platz 4. Benedikt von St. Vieth, der Leiter der Abteilung HPC, Cloud and Data Systems and Services am Jülich Supercomputing Centre (JSC), ist aber zuversichtlich, „noch in diesem Jahr ein ExaFLOPS zu sehen“.

Jupiter ist modular aufgebaut – und das schon seit Mai 2025. Aber einzelne Racks waren zum Zeitpunkt des Benchmark im Juni noch abgeschaltet, um Jupiter zu schützen. Von den jetzt komplettierten 24.000 GPUs (Grafik-Prozessoren) waren damals noch 22.000 im Betrieb. Denn „wir haben gesehen, dass das System zu warm wird. Also mussten wir die Kühlung optimieren“, zitiert t3n von St. Vieth.

2026 soll zudem Jupiter Booster noch mindestens ein weiteres Modul hinzukommen: Der Jupiter Cluster wird mit besonders leistungsfähigen Prozessoren ausgestattet sein und soll damit für besonders „datenintensive Anwendungen“ Einsatz finden. Allerdings sind die in Europa von Si-Pearl entwickelten und von TSMC gefertigten Prozessoren noch nicht ausgeliefert.

Auch für Training großer Sprachmodelle geeignet

Der Supercomputer soll hauptsächlich Simulationsberechnungen aller Art durchführen. Das Anwendungsspektrum reicht dabei von kosmologischen Modellen in der Astrophysik über die Simulation biologischer Systeme oder Berechnungen im Bereich Teilchenphysik bis hin zu einer KI für eine bessere Erforschung der Hirndaten und Hirnfunktionen.

KI beherrscht Jupiter natürlich auch, wie Andreas Herten, der Chef des Accelerating Devices Labs am JSC, betont. Final ist der Jupiter-Booster von Eviden laut dem Helmholtz-Institut mit rund 24.000 GH200 Grace Hopper Superchips von Nvidia. Insgesamt vereint das Modul rund 6.000 Rechenknoten mit jeweils vier der Grace Hopper Superchips und entsprechend leistungsstarke Prozessoren mit KI-Beschleunigern. Insgesamt arbeiten in dem Modul somit rund 24.000 GPUs und ebenso viele CPUs.

Die Rechenkapazität reiche aus, um ein großes Sprachmodell (LLM) mit 100 Milliarden Parametern pro Woche zu trainieren. „Das ist natürlich nur eine stark vereinfachte Abschätzung. Die Realität ist wesentlich komplexer“, sagt Herten in t3n und fügt hinzu: „Es kommt auf die Modell-Architektur an, mit wie vielen Daten das Modell trainiert wird und welche Genauigkeit man will“. Theoretisch sei es auch möglich, weit größere Modelle zu trainieren, das würde aber viel länger dauern. Ein für Anfang 2026 geplantes KI-Model namens Jarvis soll im Rahmen der europäischen KI-Factory-Initiative hauptsächlich dem Training von KI-Anwendungen dienen.

 

 

Quelle Titelbild: Forschungszentrum Jülich / Sascha Kreklau