22 April 2026

7 Min. Lesezeit

Am 20. April 2026 hat AWS die EC2-Instances C8in und C8ib allgemein verfügbar gemacht. C8in liefert bis zu 600 Gbps Netzwerkbandbreite und skaliert auf 384 vCPUs, C8ib bis zu 300 Gbps EBS-Bandbreite. Beide laufen auf custom 6th-gen Intel Xeon Scalable und den 6th-gen Nitro-Karten. Für In-Memory-Datenbanken, Streaming-Analytics und HPC-Cluster verschiebt sich damit die Upper-Bound in AWS.

Das Wichtigste in Kürze

  • Neue Network-Obergrenze. C8in verdoppelt die Netzwerkbandbreite gegenüber C7in und macht 600 Gbps für Datenbank- und Analytics-Fabrics zum Standardpfad statt zum Sonderfall.
  • EBS-Storage als eigener Zweig. C8ib liefert 300 Gbps EBS-Bandbreite und zielt auf IOPS-hungrige Workloads wie OLTP und Transaktions-Logs, die an der Storage-Wurzel und nicht am Compute limitiert sind.
  • EFA nur in den großen Sizes. Elastic Fabric Adapter ist auf 48xlarge, 96xlarge, metal-48xl und metal-96xl beschränkt – wer HPC- oder KI-Training-Cluster plant, muss die Size-Wahl früh mit der Netzwerk-Architektur abstimmen.

VerwandtAWS und Google Cloud: Cross-Cloud Interconnect GA  /  Kubernetes 1.36 ist da

Was C8in und C8ib wirklich ändern

C8in und C8ib sind die Netzwerk- und Storage-optimierten Varianten der C8-Familie. Die Grund-Generation, C8i und C8i-flex, ist seit Oktober 2025 verfügbar und liefert laut AWS bis zu 15 Prozent höhere Performance als C7i. C8in stapelt darauf 600 Gbps Netzwerk, C8ib 300 Gbps EBS. Die Rechnung hinter der Namenskonvention ist seit Jahren konsistent: „n“ steht für Network, „b“ für Block-Storage. Wer mit C6in oder C7in gebaut hat, kennt das Muster – neu ist das Delta.

Das Delta kommt aus zwei Richtungen. Erstens: die sechste Generation der custom Intel Xeon Scalable, die AWS nur in der eigenen Flotte einsetzt. DDR5-7200-DIMMs, höhere Memory-Bandbreite, besseres Turbo-Verhalten bei Single-Thread-Last. Zweitens: die neue Nitro-Generation, die das eigentliche Netzwerk-Upgrade auf 600 Gbps erst ermöglicht. Nitro 6 bringt den PCIe-Gen5-Pfad an die NIC und schiebt den DMA-Overhead weiter aus der CPU raus. Für Teams, die sich mit iperf3-Benchmarks schon durch C7i und M7i gearbeitet haben, ist das die Stelle, an der die alten Limits fallen.

Für die Einkaufsentscheidung heißt das: wer bisher X2iedn für In-Memory-Datenbanken oder C7gn für Netzwerk-Durchsatz gewählt hat, bekommt mit C8in eine zweite Option im x86-Pfad. Die Graviton-Linie bleibt für ARM-kompatible Workloads weiterhin die preisgünstigere Variante. C8in zielt auf die Fraction, die aus Lizenz- oder Binärgründen auf x86 bleiben muss.

600 Gbps
Netzwerkbandbreite C8in – höchster Wert unter den EC2-Enhanced-Networking-Instances.

300 Gbps
EBS-Bandbreite C8ib – höchster Wert unter den nicht-beschleunigten Compute-Instances.

43 %
Performance-Plus der C8-Familie gegenüber C6in, laut AWS-Launch-Messung.

Wo 600 Gbps tatsächlich zählen

Die theoretische Bandbreite interessiert nur da, wo eine Workload das Netz auch ausreizen kann. In der Praxis sind das drei Muster. Erstens: In-Memory-Datenbanken und Cache-Layer wie Valkey, KeyDB oder Dragonfly, die bei Multi-Master-Replikation den Netzwerkpfad zwischen Nodes saturieren. Wer bisher für 100 Gbps optimiert hat und dabei CPU-Idles sah, weil die NIC der Bottleneck war, bekommt mit C8in eine Gen-Sprung-Antwort. Zweitens: Streaming-Analytics, bei denen Kafka-Broker, Flink-Worker und Object-Store-Sinks in derselben VPC zusammenlaufen. Bei Topics mit zweistelligen GB/s-Sustained-Throughputs bewegt sich die Architektur bisher zu Multi-NIC-Setups – 600 Gbps Single-NIC nimmt einen Teil dieser Komplexität raus.

Drittens: HPC- und KI-Training-Cluster, die nicht auf Inferentia oder Trainium setzen, sondern auf klassisches x86-mit-GPU oder CPU-only. Hier zählt EFA. AWS hat EFA bei C8in auf die großen Sizes gelegt – 48xlarge, 96xlarge, metal-48xl, metal-96xl. Wer einen Elastic Fabric Adapter im Cluster braucht, kann nicht mit kleineren Sizes starten und später hochskalieren, ohne die Instance-Familie zu wechseln. Das zwingt zur frühen Architektur-Entscheidung.

Die vierte Workload-Klasse, die häufig reflexhaft genannt wird, ist Video-Processing. Hier zieht C8in in der Praxis weniger als erwartet: die meisten Transcoding-Pipelines sind entweder GPU-gebunden oder laufen auf accelerated Instances wie VT1. 600 Gbps helfen dort, wo H.265-Ingest in Echtzeit mit mehreren Quellen gleichzeitig läuft – das ist ein schmales Segment.

EC2 Compute-Generation im Zeitverlauf
2022
C6in mit 200 Gbps Netzwerk – erste x86-EC2-Instance mit dreistelliger Gbps-NIC.
2023
C7in und M7i mit 200 Gbps, Sapphire Rapids Xeon. Parallel: C7gn (Graviton3) mit bis zu 200 Gbps.
2025
C8i und C8i-flex GA mit custom 6th-gen Intel Xeon. Basis-Familie für die spätere Network- und EBS-Variante.
20. April 2026
C8in (600 Gbps Netz) und C8ib (300 Gbps EBS) GA – aktuelle Netzwerk- und Storage-Upper-Bound im x86-Pfad.

Wann C8ib die richtige Wahl ist

C8ib ist die weniger diskutierte der beiden Instances, aber die unkompliziertere Entscheidung. Workloads mit hohem EBS-Durchsatz – Transaktions-Datenbanken mit großen Write-Ahead-Logs, Data-Warehouses mit massiven Commit-Raten, klassische SAP-HANA-Single-Node-Instanzen mit Backup-Streams – sind seit Jahren storage-limitiert, nicht compute-limitiert. Wer heute eine Instanz einer r6idn oder i4i fährt und sieht, dass die CPU nicht ausgelastet ist, während die EBS-Queue-Depth konstant hoch steht, bekommt mit C8ib einen direkten Pfad zur besseren EBS-Sättigung.

Wichtig ist die Abgrenzung zu lokalem Instance-Storage. C8ib nutzt EBS, keine NVMe-Local-Disks. Wer einen NVMe-Scratch-Space braucht – etwa für Spark-Shuffle oder HDFS-ähnliche Pipelines – bleibt bei den „d“-Varianten (C8id, M8id, R8id), die seit Ende 2025 in einzelnen Regionen verfügbar sind. Die Produkt-Positionierung von AWS ist hier klar: EBS-heavy heißt C8ib, Local-NVMe heißt C8id.

Netzwerk und Storage sind zwei Engpässe, nicht einer. Wer beide gleichzeitig braucht, baut zwei Cluster – oder wartet auf die Instance, die beides bündelt. Heute ist die Trennung zwischen C8in und C8ib sauberer als eine Zwischenlösung.

Benchmark-Sicht: wann sich der Wechsel lohnt

Die praktische Frage für Architektinnen und Infrastruktur-Leads ist nicht „ist das schneller“, sondern „wie viel von dieser Geschwindigkeit kommt bei meiner Workload wirklich an“. Bei In-Memory-Datenbanken zählt die Paket-pro-Sekunde-Rate genauso wie die nominelle Bandbreite. Nitro 6 verbessert beides gleichzeitig, aber das Delta ist workload-abhängig. Wer heute C6in mit Valkey- oder Redis-Cluster fährt und die Cross-Node-Replikation unter 50 Prozent der NIC-Kapazität misst, sieht mit C8in einen moderaten Gewinn. Wer an der 80-Prozent-Marke dauerhaft klebt, holt mit der Verdreifachung der Netzwerkbandbreite einen echten Headroom für Wachstum zurück.

Für Kafka- und Flink-Cluster gilt eine ähnliche Logik, mit einer zusätzlichen Variable: die Broker-zu-Broker-Replikation. Bei Replication Factor 3 und Acks=all skaliert der Write-Durchsatz mit der NIC-Bandbreite der Broker – nicht mit der CPU. Hier sind 600 Gbps pro Node eine reale Entlastung, wenn die Topic-Strukturen bisher auf vier oder fünf Broker verteilt werden mussten, um den Netzwerk-Throughput zu bekommen. Mit C8in laufen dieselben Lasten mit weniger Brokern und damit geringerer Operations-Komplexität.

Für datenbanklastige Workloads ist das Bild anders. Bei PostgreSQL oder MySQL mit synchroner Replikation ist das Netz selten der Bottleneck – da zählt die fsync-Latenz und die EBS-IOPS-Rate. Entsprechend sind C8ib und nicht C8in die richtige Wahl, auch wenn beide Instances im selben Atemzug angekündigt wurden. Wer beides parallel fährt – etwa einen PostgreSQL-Cluster mit C8ib und einen Kafka-Fanout mit C8in in derselben VPC – profitiert doppelt, ohne sich in eine Kompromiss-Instance zu zwingen. Das ist das eigentliche Signal der beiden Varianten: AWS trennt Netzwerk-Headroom und Storage-Headroom bewusst, statt sie in einer teureren Kombi-Instance zu bündeln, die viele Teams gar nicht brauchen.

Was Teams jetzt prüfen sollten

Die Reservierungs- und Capacity-Lage wird in den nächsten Wochen der eigentliche Test. AWS hat C8in und C8ib laut Launch-Announcement zunächst in ausgewählten Regionen freigeschaltet; Frankfurt, Ireland und Virginia sind typischerweise zuerst in den ersten Wellen dabei. Wer eine Workload darauf portieren will, prüft in der Management-Console die Availability-Zone-Matrix und bucht Savings Plans erst, wenn die Instance-Family in den drei bis fünf Ziel-Regionen verfügbar ist.

Für Bestands-Migrationen zählt das Kostenverhältnis zur bestehenden Familie. AWS hat zum Launch noch keine DACH-spezifischen On-Demand-Listenpreise verbindlich für alle Regionen bestätigt – auf C8i lag die Prämie gegenüber C7i bei ungefähr sieben bis zehn Prozent, abhängig von der Region. Für C8in und C8ib ist ein ähnlicher Aufschlag gegenüber C7in und C7i realistisch. Teams, die ihre FinOps-Modelle auf pro-Gbps-Kosten rechnen, sollten das Delta erst gegen die reale Sättigung halten, bevor ein Savings-Plan-Commitment fällt.

Die dritte Prüfung betrifft den Stack darüber. AMI-Kompatibilität mit den 6th-gen Xeon-Features ist in der Regel unkritisch, aber Kernel-Versionen unter 5.15 zeigen bei Nitro-6-NICs in Einzelfällen Driver-Probleme. Wer auf Ubuntu 22.04 LTS oder Amazon Linux 2023 steht, bekommt die Treiber out-of-the-box; wer auf RHEL 8 oder älter hängt, plant den Migrationstest früh ein. Für SAP-HANA- und Oracle-Landschaften gilt zusätzlich der Blick auf die Zertifizierungsliste: Single-Node-HANA auf C8i und C8ib wird erwartbar zertifiziert, C8in ist für reine HANA-Workloads eher Overkill und bleibt für Analytics-Sidecars wie Spark oder Trino interessant.

Die vierte Prüfung betrifft die Observability. 600 Gbps gleichzeitig zu monitoren ist keine CloudWatch-Default-Aufgabe – Enhanced Monitoring mit 1-Sekunden-Intervall kostet zusätzlich und liefert Daten, die ohne entsprechende Alert-Schwellen schnell im Rauschen verschwinden. Teams, die den Sprung machen, setzen typischerweise Prometheus oder OpenTelemetry auf Node-Ebene ein und exportieren die NIC-Statistiken pro Interface. Die 200-Gbps-Welle hat gezeigt: ohne saubere Baseline-Messung merkt niemand, ob die neue Instance ihre Kapazität tatsächlich nutzt oder ob sie nur teurer idlet.

Und fünftens der FinOps-Blick: C8in und C8ib machen pro Gbps günstiger, nicht pro vCPU. Wer die Instance-Family ohne Workload-Profil-Check deployed, zahlt die Network-Prämie auch dann, wenn die Anwendung nur vier Gbps zieht. Das Muster ist aus der M6in- und R6in-Einführung bekannt: in den ersten Monaten nach GA wechseln Teams aus Reflex auf die neue Familie und merken erst im nächsten Quartals-Review, dass ein M7i oder C7i die gleiche Arbeit für weniger Budget erledigt hätte. Die richtige Reihenfolge bleibt: Profile messen, Bottleneck identifizieren, dann Instance-Family wechseln.

Häufige Fragen

Was ist der Unterschied zwischen C8in und C8ib?

C8in ist netzwerk-optimiert mit bis zu 600 Gbps Netzwerkbandbreite, C8ib ist storage-optimiert mit bis zu 300 Gbps EBS-Bandbreite. Beide laufen auf dem gleichen 6th-gen Intel Xeon Scalable und Nitro-6, unterscheiden sich aber in der I/O-Charakteristik.

Welche Workloads profitieren am stärksten von C8in?

In-Memory-Datenbanken mit Multi-Master-Replikation, Streaming-Analytics mit Kafka/Flink/Object-Store in einer VPC und HPC-Cluster mit EFA. Die Regel: wenn die NIC der Bottleneck ist und nicht die CPU, macht C8in einen Unterschied.

Ist Elastic Fabric Adapter auf C8in verfügbar?

Ja, aber nur in den Sizes 48xlarge, 96xlarge, metal-48xl und metal-96xl. Kleinere Sizes unterstützen EFA nicht – für HPC- und KI-Training-Cluster bedeutet das eine frühe Architektur-Festlegung.

Gibt es C8in und C8ib auch als Graviton-Variante?

Nein. C8in und C8ib basieren auf custom 6th-gen Intel Xeon Scalable. Für ARM-kompatible Workloads bleibt Graviton-Generation (C7gn, C8g sobald verfügbar) die preisgünstigere Linie.

In welchen Regionen sind C8in und C8ib verfügbar?

AWS startet GA-Releases dieser Familie üblicherweise in den Hauptregionen wie US-East-1, US-West-2, Ireland und Frankfurt. Die aktuelle Availability-Matrix sollte in der EC2-Konsole geprüft werden, bevor Reservierungen oder Savings Plans gebucht werden.

Quelle Titelbild: Pexels / Brett Sayles (px:5050305)

Auch verfügbar in

Ein Magazin der Evernine Media GmbH