8 min de lectura
68 mil millones de dólares en ingresos trimestrales, una arquitectura de chips con 336 mil millones de transistores y un rack de servidores que consume tanta energía como 100 casas unifamiliares. La GTC 2026 de Nvidia en San Jose no solo mostró nuevos hardware – también desplazó las coordenadas según las cuales los responsables de TI planifican centros de datos, calculan presupuestos en la nube e escriben mapas de ruta de infraestructura.
Jensen Huang estuvo tres horas y media en el escenario del SAP Center. El mensaje central: las cargas de trabajo de IA crecen más rápido de lo que la hardware puede seguir. La respuesta de Nvidia se llama Vera Rubin – una plataforma que debería eclipsar a Blackwell. Además, está el presión de costos de GPU, que ya hoy obliga a los equipos de TI a justificar cada minuto de cómputo. La pregunta ya no es si Nvidia domina – sino qué significa esta dominación para las estrategias de nube europeas en concreto.
Lo más importante en breve
- Vera Rubin entrega 50 petaflops por chip – eso es cinco veces el rendimiento de inferencia en comparación con Blackwell. Un rack NVL72 alcanza 3,6 exaflops (Nvidia Newsroom, marzo de 2026).
- 120 kW por rack obligan al enfriamiento líquido – los centros de datos existentes no pueden operar racks Blackwell sin una reconstrucción. El enfriamiento por aire ya no es suficiente.
- Deutsche Telekom construye la fábrica de IA más grande de Europa – 10.000 GPUs Blackwell en Múnich, inicio de operaciones en el T1 2026, 50 por ciento más de capacidad de cómputo de IA para Alemania (comunicado de prensa de Telekom).
- Acuerdo Groq por 20 mil millones de dólares – Nvidia licencia la tecnología de chips de inferencia del startup y integra al equipo directivo (CNBC, diciembre de 2025).
- AMD alcanza el 80-90 por ciento de paridad CUDA – la competencia se intensifica, pero la migración sigue siendo compleja. Las estrategias multi-proveedor se convierten en el estándar.
Vera Rubin: Cinco veces más rápida que Blackwell
La plataforma Vera Rubin es la respuesta de Nvidia a la necesidad exponencialmente creciente de capacidad de inferencia de IA. El chip de GPU Rubin consta de 336 mil millones de transistores – 1,6 veces más que su predecesor Blackwell. Utiliza memoria HBM4 y ofrece 22 terabytes por segundo de ancho de banda por GPU.
La CPU Vera debajo se basa en 88 núcleos ARM-v9.2 y se comunica a través de NVLink-C2C a 1,8 terabytes por segundo con la GPU. Juntos, esto resulta en un sistema completamente integrado que ofrece 50 petaflops en el modo de inferencia NVFP4.
A escala de rack, se vuelve más impresionante. El Vera Rubin NVL72 – un sistema de 72 GPUs Rubin y 36 CPUs Vera – alcanza 3,6 exaflops en el modo FP4. Para ponerlo en perspectiva: eso es más capacidad de cálculo que la que podían ofrecer todos los supercomputadores más rápidos del mundo hace tres años.
Jensen Huang anunció además la Vera Rubin Ultra – nombre en clave „Kyber“ – que seguirá en 2027. Después está Feynman en la hoja de ruta. El ritmo está claro: Nvidia entrega una nueva arquitectura cada año, no cada dos años como era habitual anteriormente.
„Los pedidos para Blackwell y Vera Rubin alcanzarán una billón de dólares hasta 2027.“
– Jensen Huang, CEO Nvidia, Keynote GTC 2026, aproximadamente (CNBC, 16 de marzo de 2026)
Blackwell Ultra: Lo que ya está funcionando en los hyperscalers
Mientras que Vera Rubin sigue siendo una promesa, la generación Blackwell ya ha llegado a los centros de datos. El B300 – también conocido como Blackwell Ultra – ofrece 15 petaflops en modo FP4 denso y cuenta con 288 GB de memoria HBM3e a 1.400 vatios de potencia térmica de diseño.
Google Cloud ofrece las instancias A4 y A4X con B200 y GB200 ya como Generalmente Disponibles. AWS tiene las instancias EC2 G7e con GPUs Blackwell en vivo en US East – y ha firmado un acuerdo por más de un millón de GPUs de Nvidia hasta 2027, confirmado por Ian Buck, VP de Hyperscale en Nvidia (Reuters, marzo de 2026). Microsoft Azure y Oracle Cloud también han anunciado sistemas basados en Blackwell.
Lo que Blackwell aporta en la práctica: Según los benchmarks respaldados por Nvidia de SemiAnalysis, el sistema GB200 NVL72 entrega diez veces más tokens por vatio que la generación Hopper. Esto significa un décimo de los costos por token en cargas de trabajo de inferencia. El GB300 NVL72 debería ser aún 1,5 veces más eficiente – los equipos de infraestructura que hoy reservan instancias Hopper, calcularán con costos unitarios completamente diferentes en doce meses.
Una restricción importante: Los números de los benchmarks provienen de pruebas que Nvidia cofinanció. Aún faltan comparaciones independientes en entornos de producción. La dirección es correcta – pero los ahorros exactos dependen de la carga de trabajo concreta.
120 Kilowatt pro Rack: La pregunta de infraestructura que nadie quiere hacer
Esto se pone incómodo para los directores de TI. Un GB200 NVL72-Rack consume 120 a 132 kilovatios de potencia continua – de los cuales 115 kW son de refrigeración líquida y 17 kW de refrigeración por aire en la configuración de HPE. En comparación: Un rack H100 consumía entre 10 y 15 kilovatios. Esto es un factor de 8 a 10.
100 de estos racks necesitan 12 megavatios – lo que equivale al consumo de electricidad de 10.000 hogares. Los centros de datos existentes no pueden manejar esta densidad sin una remodelación. La refrigeración líquida se convierte en una necesidad. Las conexiones de red se convierten en un cuello de botella – para grandes clústeres de IA, los operadores a veces esperan de tres a cinco años para obtener capacidad de red.
Nvidia argumenta con la eficiencia por token: Diez veces menos energía por token procesado que la generación anterior. Esto es cierto – pero solo mientras la capacidad total no crezca proporcionalmente. Si las empresas ejecutan simultáneamente más modelos en más GPUs, el consumo absoluto sigue aumentando.
Para los tomadores de decisiones de TI en Europa, esto significa: quien quiera operar cargas de trabajo de IA on-premise o en colocation en los próximos dos años, debe ahora aclarar la infraestructura física. Contrato de suministro de energía, concepto de refrigeración, conexión a la red – estos son los nuevos cuellos de botella, no la disponibilidad de GPUs.
Deutsche Telekom: 10.000 Blackwell-GPUs en Múnich
La Deutsche Telekom ha anunciado junto con Nvidia la Industrial AI Cloud — según el comunicado de prensa de Telekom, una de las fábricas de IA más grandes de Europa. Ubicación: Múnich. Equipado con más de 1.000 sistemas DGX B200 y servidores RTX-PRO, un total de aproximadamente 10.000 GPUs Nvidia Blackwell.
El inicio de operaciones está previsto para el primer trimestre de 2026. Si el cronograma se mantiene, esto aumentará la capacidad de computación de IA en Alemania en aproximadamente 50 por ciento. El grupo objetivo son las empresas alemanas que desean entrenar modelos de IA con sus propios datos — en servidores europeos, bajo la ley europea.
Esto no es un proyecto aislado. Nvidia anunció en GTC París 2025 asociaciones estratégicas con Francia, Alemania, Reino Unido, Italia y España. Se planean 20 fábricas de IA en Europa, de las cuales cinco en escala de Gigafactory. En total, se proporcionarán más de 3.000 ExaFlops de potencia de cálculo Nvidia Blackwell para iniciativas de IA soberana europea.
Para los equipos de TI en la región DACH, esto se traduce en lo siguiente: quienes hasta ahora han reservado capacidad de GPU con hiperescaladores estadounidenses y se preocupan por la soberanía de datos, obtienen con la nube de Telekom una alternativa que debe ser conforme con el DSGVO y el EU-AI Act. La pregunta es si el precio y la disponibilidad pueden competir con AWS y Google.
DGX Spark: El ordenador de IA por 4.699 dólares
Además de los sistemas en rack, Nvidia ha presentado dos productos de escritorio que llevan la infraestructura de IA desde el centro de datos hasta el escritorio.
El DGX Spark cuesta 4.699 dólares y se basa en el superchip GB10 Grace Blackwell. Ofrece 128 GB de memoria unificada, alcanza un petaflop en modo FP4 y puede ejecutar modelos con hasta 200 mil millones de parámetros localmente. Hasta cuatro unidades Spark se pueden conectar para formar un clúster de escritorio.
La DGX Station va más allá: chip GB300, 784 GB de memoria coherente, 20 petaflops FP4. Con esto, los modelos con una billón de parámetros se ejecutan localmente – sin conexión a la nube. Fabricantes como Dell, HP y MSI ofrecerán la Station a partir de la primavera de 2026.
¿Para quién es relevante? Para empresas que no pueden o no quieren enviar datos sensibles a la nube. Equipos de investigación, departamentos de seguridad, industrias impulsadas por el cumplimiento. El DGX Spark convierte la inferencia de IA local en una inversión que se ajusta a un presupuesto de oficina – no a un plan de inversión.
Jensen Huang hizo la comparación explícita durante la GTC: un DGX Spark por 4.699 dólares reemplaza para muchos casos de uso un contrato de nube de varios miles de dólares al mes. Esta es una cuenta que funciona en la mediana empresa – especialmente para equipos que trabajan regularmente con grandes modelos de lenguaje y que no aceptan la latencia de una conexión a la nube. Al mismo tiempo, queda la pregunta del mantenimiento: ¿quién opera el ordenador de IA local, quién actualiza los modelos, quién supervisa la carga? Este es trabajo de infraestructura que hasta ahora se incluía en la factura de la nube.
Acuerdo con Groq: 20 mil millones de dólares para chips de inferencia
En diciembre de 2025, Nvidia cerró el mayor acuerdo de su historia: por unos 20 mil millones de dólares, la empresa licencia la tecnología del startup Groq y se hace con su equipo directivo. Lo importante: Nvidia no compra Groq como empresa – es un acuerdo de IP y talento. Groq continúa existiendo, bajo el nuevo CEO Simon Edwards.
Las Language Processing Units (LPUs) de Groq son chips optimizados específicamente para la inferencia de IA. Procesan tokens significativamente más rápido que las GPUs – un área en la que la cuota de mercado de Nvidia es notablemente más baja (del 60 al 75 por ciento) que en el entrenamiento (más del 90 por ciento).
Jensen Huang lo expresó directamente: „Aunque estamos incorporando empleados talentosos a nuestras filas y licenciando la IP de Groq, no estamos adquiriendo Groq como empresa.“ La Groq-3-LPU presentada en la GTC 2026 muestra la dirección: Nvidia no solo quiere servir el mercado de inferencia con GPUs, sino complementarlo con aceleradores especializados.
CUDA vs. ROCm: ¿Se intensificará la competencia?
Nvidia posee alrededor del 80 por ciento del mercado de aceleradores de IA. El foso no es el hardware – es CUDA. El ecosistema de software existe desde hace 17 años y tiene más de cuatro millones de desarrolladores registrados.
Pero AMD está ganando terreno. El MI300X ofrece 192 GB de memoria HBM3 – 2,4 veces más que la H100 – a un precio 30 a 50 por ciento más bajo. ROCm 7 alcanza, según SemiAnalysis, el 80 al 90 por ciento de paridad con CUDA. El MI350 debería seguir en la segunda mitad de 2025 y proporcionar 35 veces la capacidad de inferencia de la serie MI300.
La realidad en las empresas: Una migración completa desde CUDA apenas se produce. Lo que ocurre son estrategias multi-proveedor. GPUs de AMD para la inferencia optimizada en costos, Nvidia para el entrenamiento y las cargas de trabajo complejas. Quien hoy planea una infraestructura en la nube debería evaluar ambas opciones – no por idealismo, sino por cálculo de costos.
„Cada empresa SaaS se convertirá en una empresa de agentes como servicio.“
– Jensen Huang, Keynote de GTC 2026, en esencia (TechRadar/MSN Liveblog, 16 de marzo de 2026)
Disputa por las exportaciones a China: La dimensión geopolítica
Paralelamente a la ofensiva técnica, en Washington se libra una lucha política por las exportaciones de chips de Nvidia a China. La versión corta: la administración Trump permitió las ventas de H200 a clientes chinos autorizados bajo ciertas condiciones – un máximo del 50 por ciento del volumen nacional de EE. UU., verificado por un laboratorio tercero controlado por EE. UU.
En contra de esto se opone el Senado de EE. UU. Las senadoras Elizabeth Warren y Jim Banks presentaron un proyecto de ley bipartidista que exige la suspensión de todas las licencias de exportación de Nvidia a China. El Comité de Asuntos Exteriores de la Cámara de Representantes está trabajando en una ley con una ventana de revisión de 30 días y una prohibición de exportación de Blackwell de dos años.
Esto es relevante para las estrategias de nube europeas: si China se desmorona como mercado o se ve restringida, el enfoque de Nvidia se desplaza más hacia los mercados occidentales y, en particular, hacia Europa. Las iniciativas de IA soberana y las asociaciones con telecomunicaciones también deben entenderse en este contexto.
Proyección de mercado: 2,5 billones de dólares en gastos de IA en 2026
Los números de Gartner ordenan lo que las anunciaciones de la GTC significan en el panorama general. Los gastos mundiales en IA deberían alcanzar los 2,52 billones de dólares en 2026 — un aumento del 44 por ciento con respecto a 2025. Más de la mitad de esto se destinará a infraestructura: alrededor de 1,37 billones de dólares para servidores, redes, refrigeración y suministro de energía (Gartner, enero de 2026).
Particularmente notable: la infraestructura como servicio optimizada para IA — es decir, capacidad de GPU en la nube — debería duplicarse de 18.300 millones de dólares en 2025 a 37.500 millones de dólares en 2026. Esto equivale a un crecimiento del 105 por ciento. Ningún otro segmento de la nube crece tan rápido.
Al mismo tiempo, Gartner clasifica la IA para 2026 en el «Trough of Disillusionment» — la fase del ciclo de hype en la que los proyectos piloto fracasan en la realidad y las empresas demandan pruebas prácticas de ROI en lugar de presentaciones de visión. Esto significa: las inversiones continúan aumentando, pero también lo hacen las demandas de resultados medibles. Para los responsables del presupuesto de TI, esto es una buena noticia — porque quienes invierten ahora en infraestructura de GPU serán medidos por casos de negocio concretos, no por el hype.
El informe trimestral de Q4 de Nvidia respalda la tendencia: 68.100 millones de dólares en ingresos, de los cuales 62.300 millones en el segmento de centros de datos — un aumento del 75 por ciento con respecto al año anterior. Para el Q1 del año fiscal 2027, Nvidia pronostica 78.000 millones de dólares. La empresa está en camino de convertirse en la primera firma en alcanzar un ingreso anual de 300.000 millones de dólares exclusivamente con hardware de centros de datos (Nvidia Earnings, febrero de 2026).
Qué deben hacer ahora los responsables de TI
La GTC 2026 tiene un mensaje claro: la infraestructura de IA se vuelve más potente, más intensiva en energía y más cara en su base física, pero más barata por token procesado. Para los equipos de TI, esto genera campos de acción concretos.
Primero: Priorizar la planificación energética. Quien quiera operar hardware Blackwell o Rubin on-premise en los próximos 18 meses necesita refrigeración líquida y suministro eléctrico superior a 100 kW por rack. Esto es un proyecto de infraestructura, no un proceso de adquisición.
Segundo: Evaluar múltiples proveedores. AMD MI300X y MI350 ya no son un juego. Para cargas de trabajo de inferencia con modelos claramente definidos, ROCm 7 puede funcionar, con una ventaja de precio del 30 al 50 por ciento. La recomendación: establecer un proyecto piloto con AMD paralelo al stack de Nvidia.
Tercero: Evaluar opciones de nube soberana. La Deutsche Telekom Industrial AI Cloud y ofertas similares europeas hacen que el procesamiento local de IA sea económicamente viable por primera vez para industrias impulsadas por el cumplimiento. Obtener ofertas comparativas antes de firmar el próximo contrato de nube.
Cuarto: Expandir FinOps para costos de GPU. Las instancias de GPU a menudo representan el 70 al 80 por ciento de la factura de la nube para cargas de trabajo de IA. Quien no lo rastrea y optimiza por separado, pasa por alto el bloque de costos más grande.
Preguntas frecuentes
¿Cuál es la diferencia entre Blackwell y Vera Rubin?
Blackwell es la generación actual de GPU de Nvidia, disponible desde 2025 en los hyperscalers. Vera Rubin es la plataforma sucesora con 336 mil millones de transistores, memoria HBM4 y cinco veces la capacidad de inferencia. Vera Rubin debería estar disponible en la segunda mitad de 2026.
¿Cuánto cuesta un sistema GB200 NVL72?
Nvidia no menciona un precio de lista oficial. Proveedores de cloud como Corvex ofrecen capacidad GB200 NVL72 a partir de aproximadamente 4,49 dólares por hora. Se estima que un sistema completo On-Premise cuesta en el rango de millones de mediana cifra.
¿Necesito refrigeración líquida para las GPU Blackwell?
Sí. Un rack GB200 NVL72 consume entre 120 y 132 kilovatios. La refrigeración por aire no es suficiente para esta densidad de potencia. Quien quiera operar Blackwell on-premise debe invertir en infraestructura de refrigeración líquida.
¿Es AMD MI300X una alternativa real a Nvidia?
Para ciertas cargas de trabajo de inferencia, sí. AMD ofrece 192 GB de memoria HBM3 a un precio 30 a 50 por ciento más bajo. ROCm 7 alcanza el 80 al 90 por ciento de paridad CUDA. Para el entrenamiento de modelos complejos, Nvidia sigue siendo la primera opción por el momento.
¿Cuál es el acuerdo de Nvidia con Groq?
Nvidia ha adquirido por aproximadamente 20 mil millones de dólares la tecnología y el equipo directivo del startup de chips de inferencia Groq. Groq continúa existiendo como una empresa independiente. El acuerdo fortalece la posición de Nvidia en aceleradores de inferencia especializados.
¿Qué ofrece la Deutsche Telekom Industrial AI Cloud?
Telekom opera en Munich alrededor de 10.000 GPU Nvidia Blackwell como servicio en la nube. La plataforma está dirigida a empresas alemanas que desean entrenar modelos de IA conforme al DSGVO en servidores europeos, sin enviar datos a hyperscalers estadounidenses.
¿Cuándo llegará Vera Rubin al mercado?
Nvidia ha anunciado que los sistemas basados en Rubin estarán disponibles en la segunda mitad de 2026 en los grandes proveedores de cloud. La variante Ultra Kyber está planeada para 2027.
Selección editorial
- Costos de KI-Cloud fuera de control: Por qué las cargas de trabajo de GPU hacen estallar los presupuestos de TI en 2026
- Lavado de soberanía: Por qué un centro de datos de la UE aún no garantiza la soberanía de los datos
- Apple M5: Qué rendimiento ofrecen realmente estos nuevos chips y dónde alcanzan sus límites
Más del ecosistema MBF Media
Fuente imagen destacada: Pexels / Tara Winstead (px:8386440)