4 Min. Lesezeit
Wer KI-Modelle trainieren will, braucht Rechenleistung. Viel davon. Und bisher hieß das für europäische Unternehmen fast immer: US-Cloud-Provider, US-Hardware, US-Jurisdiktion. Das ändert sich gerade — und Deutschland spielt dabei eine zentrale Rolle.
Das Wichtigste in Kürze
- Deutschland investiert über 3 Milliarden Euro in KI-Recheninfrastruktur — vom Jülich Supercomputing Centre bis zu privaten GPU-Farmen in Frankfurt und Skandinavien.
- Die europäische GPU-Kapazität hat sich 2025 verdreifacht: Anbieter wie Nebius, CoreWeave und Northern Data bauen massiv aus.
- Sovereign AI — KI-Modelle, die auf europäischer Infrastruktur trainiert werden — ist kein Nischenthema mehr, sondern strategische Notwendigkeit.
- Das Bundesministerium für Wirtschaft fördert mit dem AI Computing Hub Programm den Aufbau dezentraler KI-Rechenkapazitäten.
- Der Engpass verschiebt sich: Nicht mehr GPU-Verfügbarkeit ist das Hauptproblem, sondern Energie, Kühlung und Fachpersonal.
Die Abhängigkeit ist real: Nvidia kontrolliert über 80 Prozent des GPU-Marktes für KI-Training. AWS, Azure und Google Cloud stellen den Großteil der KI-Rechenkapazität bereit. Für ein deutsches Unternehmen, das ein Large Language Model auf sensiblen Unternehmensdaten feintunen will, bedeutet das: Die Daten verlassen den europäischen Rechtsraum — mindestens theoretisch.
2025 hat eine Gegenbewegung begonnen, die mehr ist als symbolisch. An mehreren Standorten in Deutschland entstehen GPU-Cluster, die europäischen Unternehmen souveräne KI-Infrastruktur bieten.
Die GPU-Offensive: Wer was baut
Das Jülich Supercomputing Centre hat mit JUPITER den ersten europäischen Exascale-Rechner in Betrieb genommen. Mit über 24.000 Nvidia GH200-Chips liefert er eine Rechenleistung von einem Exaflop — genug, um Foundation Models europäischer Größenordnung zu trainieren. Der Zugang steht Forschungseinrichtungen und Unternehmen über das EuroHPC-Programm offen.
Parallel baut Northern Data mit Standorten in Frankfurt und Skandinavien einen der größten kommerziellen GPU-Cluster Europas. 8.200 Nvidia H100-GPUs, verfügbar als Cloud-Service für Unternehmen. Die Investition: rund 330 Millionen Euro. „Unser Ziel ist es, europäischen Unternehmen eine Alternative zu US-Hyperscalern für KI-Workloads zu bieten“, sagt CEO Aroosh Thillainathan.
Nebius, die von Yandex abgespaltene Cloud-Sparte, baut im finnischen Mäntsälä ein KI-Rechenzentrum mit einer Kapazität von bis zu 60.000 GPUs — Strom kommt aus skandinavischer Wasserkraft. Und CoreWeave, ursprünglich ein US-Startup, betreibt seit 2025 einen europäischen Standort in London mit Plänen für Frankfurt.
Warum Sovereign AI jetzt relevant wird
Der EU AI Act verpflichtet Unternehmen bei hochriskanten KI-Anwendungen zur lückenlosen Dokumentation der Trainingsdaten und -infrastruktur. Wenn ein deutsches Versicherungsunternehmen ein KI-Modell für Schadensregulierung trainiert, muss es nachweisen können, wo die Daten verarbeitet wurden und wer Zugriff hatte.
Auf einem US-Hyperscaler ist diese Nachweispflicht schwierig zu erfüllen — nicht weil AWS oder Azure unsicher wären, sondern weil US-Gesetze wie der CLOUD Act theoretisch Zugriff durch US-Behörden ermöglichen. Auf europäischer Infrastruktur fällt dieses Argument weg.
Dazu kommt ein wirtschaftliches Kalkül: Unternehmen, die regelmäßig große Modelle trainieren, fahren mit eigenen oder gemieteten GPU-Clustern oft günstiger als mit On-Demand-Cloud-Instanzen. Ab einer Auslastung von 60-70 Prozent rechnet sich dedizierte Hardware innerhalb von 18-24 Monaten.
Der Flaschenhals: Energie und Kühlung
Ein H100-GPU-Cluster mit 1.000 Karten verbraucht so viel Strom wie ein kleines Dorf — rund 700 Kilowatt im Dauerbetrieb. Rechenzentren in Frankfurt, Europas größtem Knotenpunkt, stoßen bereits an die Grenzen der lokalen Stromnetze. Der Netzausbau hinkt dem Bedarf hinterher.
Die Lösung suchen viele in Skandinavien: Billige Wasserkraft, kalte Luft für natürliche Kühlung und schnelle Glasfaseranbindung nach Mitteleuropa. Aber für latenzempfindliche Anwendungen — etwa KI-Inferenz in Echtzeit — sind Standorte in Deutschland oder den Benelux-Ländern besser geeignet.
Das BMWK hat das erkannt und fördert über das Programm „AI Computing Hubs“ den Aufbau dezentraler KI-Rechenkapazitäten. Fünf Standorte sollen bis 2027 entstehen — verteilt über Deutschland, um Redundanz und lokale Verfügbarkeit sicherzustellen.
„Unser Ziel ist es, europäischen Unternehmen eine Alternative zu US-Hyperscalern für KI-Workloads zu bieten.“
— Aroosh Thillainathan, CEO Northern Data
Was das für CIOs bedeutet
Die KI-Infrastrukturlandschaft in Europa diversifiziert sich. CIOs haben 2026 erstmals echte Alternativen zu den drei großen US-Hyperscalern für KI-Workloads. Die strategische Entscheidung lautet: experimentelles Training und Prototyping weiterhin in der Public Cloud — produktive, regulierte KI-Anwendungen auf europäischer Infrastruktur.
Wer diese Trennung frühzeitig architektonisch verankert — etwa durch containerisierte ML-Pipelines, die zwischen Cloud-Providern portabel sind — gewinnt Flexibilität, ohne sich festzulegen.
Häufige Fragen
Kann man auf europäischer Infrastruktur wettbewerbsfähige KI-Modelle trainieren?
Ja, für unternehmensspezifische Modelle (Fine-Tuning, RAG, domänenspezifische Modelle) reicht europäische Infrastruktur aus. Für das Training von Foundation Models in GPT-4-Größenordnung fehlt aktuell noch die Skalierung — aber JUPITER und vergleichbare Systeme schließen die Lücke.
Sind europäische GPU-Cloud-Anbieter günstiger als AWS oder Azure?
Oft ja, insbesondere bei dedizierten GPU-Instanzen. Nebius und Northern Data bieten H100-Stunden zu 25-40 Prozent unter Hyperscaler-Preisen an. Der Nachteil: weniger Managed Services drum herum, mehr Eigenverantwortung für den Stack.
Welche Rolle spielt Open Source für Sovereign AI?
Eine zentrale. Offene Modelle wie LLaMA, Mistral und BLOOM ermöglichen Training und Deployment ohne Abhängigkeit von proprietären APIs. Mistral AI aus Paris hat sich als europäische Alternative zu OpenAI etabliert — mit Modellen, die vollständig auf europäischer Infrastruktur laufen.
Weiterführende Lektüre
- AIOps: Wie KI den Cloud-Betrieb automatisiert und Ausfälle verhindert
- Hybrid Cloud als Wachstumstreiber: Warum der Mittelstand auf Multi-Cloud setzt
- Green IT: Wie deutsche Rechenzentren zum Klimavorbild werden
Mehr aus dem MBF Media Netzwerk
- KI Made in Germany: 935 Startups und ein Ökosystem, das reifer wird — MyBusinessFuture
- 149.000 offene IT-Stellen: Wie CIOs KI-Copiloten nutzen — Digital Chiefs
- Cybersecurity-Trends 2026: Die 7 Entwicklungen — SecurityToday
Quelle des Titelbildes: Pexels / Brett Sayles