3 Februar 2026

Das Wichtigste in Kürze

  • Hyperscaler investieren 2026 zwischen 600 und 750 Milliarden Dollar in KI-Infrastruktur – diese Kosten schlagen als steigende Instanzpreise auf Cloud-Kunden durch.
  • DRAM-Preise sind um 171 Prozent gestiegen, weil Rechenzentren 70 Prozent der globalen Speicherchip-Produktion absorbieren.
  • Reserved Instances werden bei Erneuerung teurer, Spot-Instanzen schwanken stärker, und die historische Preisdegression der Cloud verlangsamt sich.
  • FinOps, Multi-Cloud-Fähigkeit und regelmäßige Kosten-Audits auf Workload-Ebene sind keine Option mehr, sondern Pflicht.
  • Für vorhersagbare Workloads kann die Rückführung auf Private Cloud oder On-Premises wirtschaftlich sinnvoller sein als Public Cloud mit steigenden Preisen.

Am 5. Februar 2026 veröffentlichten Anthropic und OpenAI ihre neuesten Modelle am selben Tag. Claude Opus 4.6 und GPT-5.3 Codex markieren einen Reifesprung, der weit über die Technik hinausgeht – denn hinter jedem Inferenz-Request steht physische Infrastruktur: Racks voller GPUs, Petabytes an Speicher, Megawatt an Kühlleistung. Die Frage, die sich IT-Entscheider im DACH-Raum jetzt stellen müssen, ist nicht, ob KI leistungsfähiger wird. Sondern wer die Rechnung dafür bezahlt.

Die Antwort ist unbequem: Sie selbst. Die Hyperscaler investieren 2026 zwischen 600 und 750 Milliarden Dollar in Infrastruktur – vorwiegend in KI-Kapazitäten für eigene Produkte und Plattformen. Diese Summen sind so groß, dass sie globale Lieferketten verzerren, Hardwarepreise treiben und am Ende als steigende Instanzkosten bei jedem Unternehmen ankommen, das Public Cloud nutzt. Wer diesen Zusammenhang nicht versteht, gibt Geld aus, ohne zu wissen, wofür.

Die Zahlen: Wenn Infrastruktur-Investitionen jedes Maß sprengen

Die Capex-Zahlen der großen Cloud-Anbieter haben 2026 eine Dimension erreicht, die selbst erfahrene Analysten überrascht. CreditSights beziffert die kombinierten Investitionsausgaben der führenden Hyperscaler auf 600 bis 750 Milliarden Dollar – ein Anstieg von 40 bis 67 Prozent gegenüber dem Vorjahr. Meta allein plant Investitionen von 115 bis 135 Milliarden Dollar, was rund 54 Prozent des erwarteten Jahresumsatzes entspricht. Oracle geht noch weiter: Das Unternehmen steckt laut Branchenschätzungen 86 Prozent seines Umsatzes in Infrastrukturausbau.

Diese Zahlen muss man einordnen. Die gesamte Bundeswehr-Reform der letzten Jahre umfasst ein Sondervermögen von 100 Milliarden Euro. Meta investiert mehr als das – in einem einzigen Jahr, für GPU-Cluster und Rechenzentren. Microsoft, Google und Amazon liegen in ähnlichen Größenordnungen.

Amazon Spheres, Seattle, USA. Bildquelle: Unsplash.

Und der entscheidende Punkt: Diese Investitionen fließen nicht primär in bessere Cloud-Dienste für Bestandskunden. Sie fließen in KI-Training, in Inferenz-Infrastruktur für Copilot, Gemini und Meta AI, in proprietäre Modelle, die den Hyperscalern selbst Wettbewerbsvorteile sichern sollen.

Der IT-Entscheider, der seine VMs, Container und Datenbanken bei AWS, Azure oder GCP betreibt, profitiert von diesen Investitionen bestenfalls indirekt. Er zahlt aber direkt – durch steigende Preise, die aus der Verknappung von Hardware und Energie resultieren.

Die versteckte Inflation: Wie GPU-Hunger die Speicherpreise verdreifacht

Die Kausalkette, die von Hyperscaler-Capex zu Ihrer Cloud-Rechnung führt, verläuft über den Hardwaremarkt – und dort vor allem über Speicherchips. Laut Branchendaten von TrendForce sind die DRAM-Preise um 171 Prozent gestiegen. Der Grund: Rechenzentren absorbieren 2026 schätzungsweise 70 Prozent der globalen Speicherchip-Produktion. Jede H100- oder B200-GPU von Nvidia benötigt HBM-Speicher (High Bandwidth Memory), und die Nachfrage übersteigt das Angebot bei weitem.

Diese Preissteigerung betrifft nicht nur KI-Workloads. Sie betrifft jeden Server, jedes Storage-System, jede Datenbank-Instanz. Wenn DRAM teurer wird, steigen die Kosten für die gesamte Rechenzentrums-Infrastruktur – und damit die Kosten, die Cloud-Anbieter an ihre Kunden weitergeben.

Die gleiche Dynamik zeigt sich bei Netzwerk-Equipment, bei Stromversorgung und bei Kühlung. Rechenzentren konkurrieren mittlerweile mit Industriebetrieben um Stromkontingente, was die Energiekosten pro Rack weiter treibt.

Für Cloud-Kunden äußert sich das in mehreren konkreten Effekten: Reserved Instances, die vor zwei Jahren zu stabilen Konditionen abgeschlossen wurden, laufen aus – und die Erneuerung wird teurer. Spot-Instance-Preise schwanken stärker, weil Hyperscaler freie Kapazitäten bevorzugt für eigene KI-Workloads nutzen. Und neue Instanztypen werden zwar leistungsfähiger, aber die Preise pro vCPU oder pro GB RAM sinken nicht mehr im historischen Tempo.

Die jahrelange Erfahrung, dass Cloud mit der Zeit billiger wird, gilt so nicht mehr uneingeschränkt.

Hinzu kommt ein Effekt, den viele Unternehmen unterschätzen: die physische Infrastruktur hinter der Cloud. Rechenzentrumsbetreiber investieren massiv in Kühltechnologie, weil GPU-dichte Racks deutlich höhere thermische Lasten erzeugen als klassische Server. Flüssigkühlung und intelligente Airflow-Systeme werden zum Standard. Diese Investitionen sind notwendig und sinnvoll – aber sie kosten Geld, und dieses Geld fließt in die Betriebskosten der Rechenzentren ein, die letztlich auf Instanzpreise umgelegt werden.

Was das für Ihre Cloud-Strategie bedeutet

Cloud-Kostenmanagement war lange eine Aufgabe für das FinOps-Team oder den Cloud-Architekten: Reservierungen optimieren, ungenutzte Instanzen abschalten, Storage-Klassen richtig zuordnen. Diese operative Ebene bleibt wichtig, reicht aber nicht mehr aus.

Wenn die Grundkosten der Cloud-Infrastruktur strukturell steigen – getrieben durch externe Faktoren, die mit den eigenen Workloads nichts zu tun haben –, dann ist Kostenmanagement eine strategische Aufgabe.

Konkret bedeutet das: Der CTO oder CIO muss Cloud-Kosten als Vorstandsthema behandeln. Die Frage „Was geben wir für Cloud aus und warum?“ gehört in die Quartalsplanung, nicht in den monatlichen Ops-Report. Denn die Hebel, die jetzt gezogen werden müssen, betreffen Architekturentscheidungen, Vertragsverhandlungen und Portfolio-Strategien – also Entscheidungen, die Vorlauf brauchen und nicht kurzfristig korrigiert werden können.

FinOps ist dabei kein Nice-to-have mehr, sondern Pflicht. Unternehmen, die keine dedizierten FinOps-Kapazitäten haben – ob intern oder als Managed Service –, fliegen blind. Die Komplexität der Preismodelle bei AWS, Azure und GCP ist so hoch, dass ohne systematisches Monitoring und kontinuierliche Optimierung erhebliche Summen verschwendet werden.

Multi-Cloud, oft als strategische Option diskutiert, wird in diesem Kontext zum echten Kostenhebel. Wer 80 Prozent oder mehr seiner Workloads bei einem einzigen Hyperscaler betreibt, hat ein Klumpenrisiko – nicht nur technisch, sondern ökonomisch. Multi-Cloud-Fähigkeit stärkt die eigene Position in Preisverhandlungen erheblich.

Drei Maßnahmen, die jetzt Priorität haben

Erstens: Umfassendes Cloud-Kosten-Audit durchführen. Nicht nur auf Ebene der monatlichen Gesamtrechnung, sondern auf Workload-Ebene. Was kostet jede Anwendung, jeder Service, jede Datenbank tatsächlich – inklusive Netzwerk, Storage und Egress-Gebühren? Die Erfahrung zeigt, dass viele Unternehmen ihre wahren Kosten pro Workload nicht kennen, weil die Abrechnungsstrukturen der Hyperscaler dies nicht transparent machen.

Zweitens: Reserved-Instance- und Savings-Plans-Strategie überprüfen. Commitments, die vor 18 oder 24 Monaten zu damaligen Konditionen abgeschlossen wurden, sind möglicherweise nicht mehr optimal. Die Preisdynamik hat sich verändert, neue Instanztypen bieten andere Preis-Leistungs-Verhältnisse. Gleichzeitig sollten Spot-Instance-Strategien überprüft werden: Die zunehmende interne Nutzung freier Kapazitäten durch die Hyperscaler kann Verfügbarkeit und Preisstabilität beeinträchtigen.

Drittens: Rückführung vorhersagbarer Workloads prüfen. Für stabile, gut planbare Lasten – etwa interne Datenbanken, ERP-Systeme oder Batch-Processing-Pipelines – kann dedizierte Infrastruktur wirtschaftlich attraktiver sein als Public Cloud mit steigenden Instanzpreisen. Die Total Cost of Ownership rechnet sich bei vorhersagbarer Last über drei bis fünf Jahre häufig zugunsten eigener oder gehosteter Infrastruktur. Voraussetzung ist allerdings, dass das Unternehmen die Betriebskompetenz dafür hat oder einen Managed-Service-Partner einbindet.

Cloud-Kosten werden zur Chefsache

Die Capex-Explosion der Hyperscaler ist kein abstraktes Marktphänomen. Sie ist ein konkreter Kostenfaktor, der in den kommenden Quartalen auf jeder AWS- und Azure-Rechnung sichtbar werden wird. Die Unternehmen, die jetzt ihre Cloud-Kosten systematisch analysieren, ihre Verträge neu bewerten und ihre Architektur auf Flexibilität trimmen, werden sechsstellige Beträge einsparen.

2026 ist das Jahr, in dem Cloud-Kostenmanagement den Sprung von der operativen Ebene in die Vorstandsetage machen muss. Die KI-Modelle werden besser, die Infrastruktur wird teurer, und die Rechnung landet bei denen, die nicht vorbereitet sind. Die gute Nachricht: Die Hebel existieren. Man muss sie nur jetzt ziehen.

 

Weiterlesen auf cloudmagazin.com

Mehr zum Thema: Weitere Artikel auf mybusinessfuture

Häufige Fragen

Warum steigen Cloud-Kosten 2026 so stark?

Die Hyperscaler investieren 600 bis 750 Milliarden Dollar in KI-Infrastruktur. Das treibt die Nachfrage nach Hardware, Speicherchips und Energie so stark, dass die Preise für die gesamte Cloud-Infrastruktur steigen – unabhängig davon, ob ein Unternehmen selbst KI nutzt oder nicht.

Was hat der DRAM-Preisanstieg mit meiner Cloud-Rechnung zu tun?

DRAM-Preise sind um 171 Prozent gestiegen, weil Rechenzentren 70 Prozent der globalen Speicherchip-Produktion absorbieren. Teurere Speicherchips verteuern jeden Server und jede Instanz – diese Mehrkosten geben Cloud-Anbieter an Kunden weiter.

Werden Spot-Instanzen auch teurer?

Ja. Hyperscaler nutzen freie Kapazitäten zunehmend für eigene KI-Workloads, wodurch das Spot-Angebot kleiner und die Preise volatiler werden. Spot-Strategien sollten daher regelmäßig auf Verfügbarkeit und Preisstabilität überprüft werden.

Lohnt sich eine Rückführung von Workloads auf On-Premises?

Für stabile, vorhersagbare Workloads wie ERP-Systeme, interne Datenbanken oder Batch-Processing kann sich dedizierte Infrastruktur über einen Zeitraum von drei bis fünf Jahren rechnen. Voraussetzung ist ausreichende Betriebskompetenz oder ein Managed-Service-Partner.

Wie hilft Multi-Cloud gegen steigende Preise?

Multi-Cloud-Fähigkeit stärkt die Verhandlungsposition gegenüber einzelnen Anbietern. Wer technisch und organisatorisch in der Lage ist, Workloads zwischen Hyperscalern zu verschieben, kann bessere Konditionen aushandeln und Preiserhöhungen ausweichen.

Was ist FinOps und warum ist es jetzt Pflicht?

FinOps (Financial Operations) bezeichnet die systematische Steuerung und Optimierung von Cloud-Kosten. Bei steigenden Grundpreisen wird jede Prozent Verschwendung teurer. Ohne dedizierte FinOps-Kapazitäten – intern oder als Managed Service – fehlt die Transparenz über tatsächliche Kostenstrukturen.

Sollte Cloud-Kostenmanagement Vorstandsthema sein?

Ja. Wenn Cloud-Kosten strukturell steigen, reichen operative Maßnahmen nicht mehr aus. Architekturentscheidungen, Vertragsverhandlungen und Portfolio-Strategien müssen auf C-Level-Ebene getroffen werden, weil sie langfristigen Vorlauf brauchen und erhebliche Budgetauswirkungen haben.

 

Quelle des Titelbildes: Unsplash / Florian Krumm