23 abril 2026

7 min. de lectura

El 20 de abril de 2026, AWS puso en disponibilidad general las instancias EC2 C8in y C8ib. La C8in ofrece hasta 600 Gbps de ancho de banda de red y escala hasta 384 vCPU; la C8ib, hasta 300 Gbps de ancho de banda EBS. Ambas funcionan sobre los Intel Xeon Scalable de 6.ª generación personalizado y las tarjetas Nitro de 6.ª generación. Para bases de datos en memoria, análisis de streaming y clústeres HPC, el límite superior en AWS se desplaza con este lanzamiento.

Lo más importante en resumen

  • Nuevo límite de red. La C8in duplica el ancho de banda de red respecto a la C7in y convierte los 600 Gbps en la ruta estándar —y no en la excepción— para las redes de bases de datos y analítica.
  • Almacenamiento EBS como rama independiente. La C8ib ofrece 300 Gbps de ancho de banda EBS y apunta a cargas de trabajo con alta demanda de IOPS, como OLTP y registros de transacciones, donde el cuello de botella está en el almacenamiento y no en el cómputo.
  • EFA solo en los tamaños grandes. El Elastic Fabric Adapter está limitado a 48xlarge, 96xlarge, metal-48xl y metal-96xl; quienes planifiquen clústeres HPC o de entrenamiento de IA deben coordinar la elección de tamaño con la arquitectura de red desde el principio.

RelacionadoAWS y Google Cloud: Cross-Cloud Interconnect GA  /  Kubernetes 1.36 ya está disponible

Qué cambian realmente C8in y C8ib

C8in y C8ib son las variantes optimizadas para red y almacenamiento de la familia C8. La generación base, C8i y C8i-flex, está disponible desde octubre de 2025 y ofrece, según AWS, hasta un 15 por ciento más de rendimiento que C7i. C8in añade sobre eso 600 Gbps de red, C8ib 300 Gbps de EBS. La lógica detrás de la convención de nombres es consistente desde hace años: «n» significa Network, «b» significa Block-Storage. Quien ha construido con C6in o C7in conoce el patrón; lo nuevo es el delta.

El delta llega desde dos direcciones. Primero: la sexta generación del Intel Xeon Scalable personalizado, que AWS utiliza exclusivamente en su propia flota. DIMMs DDR5-7200, mayor ancho de banda de memoria, mejor comportamiento Turbo bajo carga de un solo hilo. Segundo: la nueva generación Nitro, que es la que hace posible la actualización real de red a 600 Gbps. Nitro 6 lleva el camino PCIe Gen5 a la NIC y desplaza aún más la sobrecarga DMA fuera de la CPU. Para los equipos que ya se han trabajado los benchmarks con iperf3 en C7i y M7i, este es el punto donde caen los límites anteriores.

Para la decisión de compra esto significa: quien hasta ahora elegía X2iedn para bases de datos en memoria o C7gn para throughput de red, tiene con C8in una segunda opción en la ruta x86. La línea Graviton sigue siendo la variante más económica para cargas de trabajo compatibles con ARM. C8in apunta a la fracción que debe permanecer en x86 por razones de licencias o binarios.

600 Gbps
Ancho de banda de red C8in – el valor más alto entre las instancias EC2 con Enhanced Networking.

300 Gbps
Ancho de banda EBS C8ib – el valor más alto entre las instancias de cómputo no aceleradas.

43 %
Incremento de rendimiento de la familia C8 respecto a C6in, según la medición del lanzamiento de AWS.

Dónde importan realmente los 600 Gbps

El ancho de banda teórico solo resulta relevante allí donde una carga de trabajo puede saturar la red. En la práctica, esto se da en tres patrones. Primero: bases de datos en memoria y capas de caché como Valkey, KeyDB o Dragonfly, que saturan el camino de red entre nodos durante la replicación multi-master. Quien hasta ahora optimizaba para 100 Gbps y observaba CPUs ociosas porque la NIC era el cuello de botella, recibe con C8in una respuesta de salto generacional. Segundo: análisis en streaming, donde brokers de Kafka, workers de Flink y sinks de almacenamiento de objetos convergen en la misma VPC. Con topics de throughput sostenido de dos dígitos en GB/s, la arquitectura hasta ahora recurría a configuraciones multi-NIC; una NIC única de 600 Gbps elimina parte de esa complejidad.

Tercero: clústeres HPC y de entrenamiento de IA que no utilizan Inferentia ni Trainium, sino el enfoque clásico x86 con GPU o solo CPU. Aquí cuenta EFA. AWS ha incorporado EFA en C8in para los tamaños grandes: 48xlarge, 96xlarge, metal-48xl, metal-96xl. Quien necesite un Elastic Fabric Adapter en el clúster no puede comenzar con tamaños menores y escalar después sin cambiar de familia de instancias. Eso obliga a tomar decisiones de arquitectura de forma temprana.

La cuarta clase de carga de trabajo que se menciona frecuentemente por reflejo es el procesamiento de vídeo. En la práctica, C8in aporta menos de lo esperado en este ámbito: la mayoría de los pipelines de transcoding están limitados por GPU o se ejecutan en instancias aceleradas como VT1. Los 600 Gbps ayudan donde la ingesta en tiempo real de H.265 con múltiples fuentes simultáneas es un requisito, pero ese es un segmento muy estrecho.

Evolución de las generaciones de cómputo EC2
2022
C6in con red de 200 Gbps: primera instancia EC2 x86 con una NIC de tres dígitos en Gbps.
2023
C7in y M7i con 200 Gbps, Xeon Sapphire Rapids. En paralelo: C7gn (Graviton3) con hasta 200 Gbps.
2025
C8i y C8i-flex con disponibilidad general y Xeon Intel de 6.ª generación personalizado. Familia base para la variante de red y EBS posterior.
20 de abril de 2026
C8in (600 Gbps de red) y C8ib (300 Gbps EBS) con disponibilidad general: límite superior actual de red y almacenamiento en la rama x86.

Cuándo C8ib es la elección correcta

C8ib es la menos comentada de las dos instancias, pero la decisión más sencilla. Las cargas de trabajo con alto throughput de EBS -bases de datos transaccionales con grandes write-ahead logs, data warehouses con tasas de commit masivas, instancias clásicas de SAP HANA en nodo único con flujos de backup- llevan años limitadas por el almacenamiento, no por el cómputo. Quien hoy ejecuta una instancia r6idn o i4i y observa que la CPU no está saturada mientras la profundidad de cola de EBS se mantiene constantemente alta, encuentra en C8ib un camino directo hacia una mejor saturación de EBS.

Es importante delimitar el caso frente al almacenamiento local de la instancia. C8ib utiliza EBS, no discos NVMe locales. Quien necesite espacio NVMe temporal -por ejemplo para shuffle de Spark o pipelines similares a HDFS- sigue recurriendo a las variantes «d» (C8id, M8id, R8id), disponibles en algunas regiones desde finales de 2025. El posicionamiento de producto de AWS es claro: EBS intensivo equivale a C8ib, NVMe local equivale a C8id.

La red y el almacenamiento son dos cuellos de botella distintos, no uno solo. Quien necesita ambos simultáneamente construye dos clústeres o espera a la instancia que los une. Hoy, la separación entre C8in y C8ib es más limpia que cualquier solución intermedia.

Perspectiva de benchmark: cuándo vale la pena el cambio

La pregunta práctica para arquitectas y responsables de infraestructura no es «¿es esto más rápido?», sino «¿cuánto de esa velocidad llega realmente a mi carga de trabajo?». En las bases de datos en memoria, la tasa de paquetes por segundo importa tanto como el ancho de banda nominal. Nitro 6 mejora ambos simultáneamente, pero el delta depende de la carga de trabajo. Quien hoy utiliza C6in con clústeres de Valkey o Redis y mide la replicación entre nodos por debajo del 50 por ciento de la capacidad de la NIC, verá una mejora moderada con C8in. Quien se mantiene de forma sostenida en la marca del 80 por ciento recupera con la triplicación del ancho de banda de red un margen real para el crecimiento.

Para los clústeres de Kafka y Flink se aplica una lógica similar, con una variable adicional: la replicación entre brokers. Con Replication Factor 3 y Acks=all, el rendimiento de escritura escala con el ancho de banda de la NIC de los brokers, no con la CPU. En este contexto, 600 Gbps por nodo suponen un alivio real cuando las estructuras de topics debían distribuirse previamente entre cuatro o cinco brokers para obtener el throughput de red necesario. Con C8in, las mismas cargas funcionan con menos brokers y, por tanto, con menor complejidad operativa.

Para las cargas de trabajo con bases de datos intensivas, el panorama es diferente. En PostgreSQL o MySQL con replicación síncrona, la red rara vez es el cuello de botella: aquí importan la latencia de fsync y la tasa de IOPS de EBS. Por ello, C8ib y no C8in es la elección correcta, aunque ambas instancias se anunciaran al mismo tiempo. Quien ejecuta ambas en paralelo – por ejemplo, un clúster de PostgreSQL con C8ib y un Kafka fanout con C8in en la misma VPC – se beneficia doblemente sin verse obligado a optar por una instancia de compromiso. Esa es la señal real de las dos variantes: AWS separa deliberadamente el margen de red y el margen de almacenamiento en lugar de agruparlos en una instancia combinada más cara que muchos equipos simplemente no necesitan.

Lo que los equipos deberían revisar ahora

La situación de reservas y capacidad será la verdadera prueba en las próximas semanas. AWS ha habilitado C8in y C8ib inicialmente en regiones seleccionadas según el anuncio de lanzamiento; Frankfurt, Irlanda y Virginia suelen ser las primeras en las oleadas iniciales. Quienes quieran migrar una carga de trabajo deben revisar la matriz de zonas de disponibilidad en la consola de administración y contratar Savings Plans solo cuando la familia de instancias esté disponible en las tres a cinco regiones de destino.

Para las migraciones de instancias existentes, lo determinante es la relación de costes con la familia actual. AWS no ha confirmado al lanzamiento precios de lista On-Demand específicos para DACH de forma vinculante en todas las regiones – en C8i la prima respecto a C7i era de aproximadamente siete a diez por ciento según la región. Para C8in y C8ib es realista un recargo similar frente a C7in y C7i. Los equipos que calculan sus modelos FinOps en costes por Gbps deben contrastar ese delta con la saturación real antes de asumir un compromiso de Savings Plan.

La tercera revisión afecta a la capa superior del stack. La compatibilidad de AMI con las características Xeon de 6ª generación es generalmente no crítica, pero las versiones de kernel inferiores a 5.15 presentan en casos aislados problemas de driver con las NICs Nitro-6. Quienes usen Ubuntu 22.04 LTS o Amazon Linux 2023 obtienen los drivers out-of-the-box; quienes sigan en RHEL 8 o anterior deben planificar las pruebas de migración con antelación. Para entornos SAP HANA y Oracle hay que consultar adicionalmente la lista de certificaciones: Single-Node HANA en C8i y C8ib se prevé certificado, C8in es un exceso para cargas HANA puras y resulta más interesante para sidecars de analytics como Spark o Trino.

La cuarta revisión afecta a la observabilidad. Monitorizar 600 Gbps simultáneamente no es una tarea predeterminada de CloudWatch – Enhanced Monitoring con intervalos de 1 segundo tiene coste adicional y genera datos que sin los umbrales de alerta adecuados se pierden fácilmente en el ruido. Los equipos que dan el salto suelen desplegar Prometheus u OpenTelemetry a nivel de nodo y exportan las estadísticas de NIC por interfaz. La oleada de los 200 Gbps demostró: sin una medición de baseline sólida, nadie detecta si la nueva instancia aprovecha realmente su capacidad o simplemente consume más dinero en idle.

Y en quinto lugar, la perspectiva FinOps: C8in y C8ib abaratan el coste por Gbps, no por vCPU. Quien despliega esta familia de instancias sin revisar el perfil de la carga de trabajo paga la prima de red aunque la aplicación solo utilice cuatro Gbps. El patrón es conocido desde la introducción de M6in y R6in: en los primeros meses tras la disponibilidad general los equipos migran por inercia a la nueva familia y solo detectan en la revisión del siguiente trimestre que un M7i o C7i habría realizado el mismo trabajo con menor presupuesto. El orden correcto sigue siendo: medir el perfil, identificar el cuello de botella, luego cambiar de familia de instancias.

Preguntas frecuentes

¿Cuál es la diferencia entre C8in y C8ib?

C8in está optimizado para red con hasta 600 Gbps de ancho de banda de red, C8ib está optimizado para almacenamiento con hasta 300 Gbps de ancho de banda EBS. Ambos funcionan con el mismo Intel Xeon Scalable de 6ª generación y Nitro-6, pero difieren en sus características de I/O.

¿Qué cargas de trabajo se benefician más de C8in?

Bases de datos en memoria con replicación multi-master, análisis de streaming con Kafka/Flink/Object-Store en una VPC y clústeres HPC con EFA. La regla es: si la NIC es el cuello de botella y no la CPU, C8in marca la diferencia.

¿Está disponible Elastic Fabric Adapter en C8in?

Sí, pero solo en los tamaños 48xlarge, 96xlarge, metal-48xl y metal-96xl. Los tamaños menores no admiten EFA, lo que implica una definición arquitectónica temprana para clústeres de HPC y entrenamiento de IA.

¿Existen variantes Graviton de C8in y C8ib?

No. C8in y C8ib se basan en Intel Xeon Scalable de 6ª generación personalizado. Para cargas de trabajo compatibles con ARM, la línea Graviton (C7gn, C8g cuando esté disponible) sigue siendo la opción más económica.

¿En qué regiones están disponibles C8in y C8ib?

AWS suele iniciar los lanzamientos GA de esta familia en las regiones principales como US-East-1, US-West-2, Irlanda y Fráncfort. La matriz de disponibilidad actualizada debe consultarse en la consola EC2 antes de contratar reservas o Savings Plans.

Quelle Titelbild: Pexels / Brett Sayles (px:5050305)

También disponible en

Una revista de Evernine Media GmbH