20 marzo 2025

3 min de lectura

En resumen

  • Los gateways de API constituyen la capa de control central para las arquitecturas multi-nube.
  • El limitado de tasa (rate limiting), OAuth 2.0 y mTLS protegen las API frente al uso indebido y los ataques.
  • Los servicios gestionados (Kong, Apigee, AWS API Gateway) reducen considerablemente la carga operativa.
  • El diseño «API-First» acelera la integración de nuevos servicios en la nube hasta un 70 %.
  • La observabilidad sobre todos los puntos finales de API es obligatoria para cumplir con los requisitos normativos y garantizar el rendimiento.

Cada aplicación en la nube es tan segura como sus API. En entornos multi-nube, este desafío se multiplica: cientos de puntos finales repartidos entre distintos proveedores, mecanismos de autenticación heterogéneos y políticas inconsistentes. La gestión moderna de API aporta orden a este caos – siempre que se comprendan los patrones arquitectónicos.

Las API como superficie de ataque en entornos multi-nube

La aplicación empresarial media utiliza hoy en día más de 15.000 API. En configuraciones multi-nube, estas se distribuyen entre AWS, Azure, GCP y nubes privadas. Cada API representa un posible punto de ataque: la autenticación rota, la exposición excesiva de datos y la autorización rota a nivel de objeto encabezan regularmente la lista OWASP API Security Top 10.

El problema no radica en una única API, sino en su suma total: sin gobernanza centralizada surgen arquitecturas descontroladas, API ocultas («Shadow APIs») y estándares de seguridad inconsistentes. Los gateways de API abordan precisamente este problema como capa de control central.

70%
La observabilidad sobre todos los puntos finales de API es obligatoria para el cumplimiento normativo y el rendimiento.
15.000
API. En configuraciones multi-nube, estas se distribuyen entre AWS

Patrones arquitectónicos: gateway centralizado frente a gateway federado

El modelo de gateway centralizado enruta todas las llamadas a API a través de un único punto central. Ventaja: políticas uniformes y monitorización sencilla. Desventaja: punto único de fallo y posible cuello de botella de latencia.

El modelo de gateway federado implementa un gateway propio por proveedor de nube o por dominio, conectados mediante una capa de gestión central. Las políticas se definen centralmente, pero se aplican localmente. Este modelo predomina en entornos multi-nube, ya que minimiza la latencia y aumenta la tolerancia a fallos.

Kong Konnect y Google Apigee X soportan ambos modelos. AWS API Gateway está naturalmente enfocado en el ecosistema de AWS, pero puede proteger también puntos finales externos mediante CloudFront como proxy.

Capa de seguridad: desde el limitado de tasa hasta la confianza cero (Zero Trust)

Limitado de tasa (Rate Limiting) evita ataques DDoS y de fuerza bruta a nivel de API. Los limitadores inteligentes diferencian según clase de cliente, punto final y hora del día, en lugar de aplicar límites genéricos.

OAuth 2.0 y OpenID Connect son el estándar para la autenticación de API. Los tokens JWT con corta duración y la rotación periódica de los tokens de actualización (refresh tokens) reducen al mínimo la ventana de exposición en caso de robo de tokens.

TLS mutuo (mTLS) va un paso más allá: no solo el cliente se autentica ante el servidor, sino también al revés. En arquitecturas de service mesh (Istio, Linkerd), mTLS es el valor predeterminado para el tráfico East-West.

Validación del esquema de API verifica las solicitudes contra la especificación OpenAPI antes de que alcancen el servicio backend. Esto bloquea ataques de inyección y cargas útiles inesperadas directamente en la capa del gateway.

Observabilidad: ver lo que sucede

Quien no supervisa sus API navega a ciegas. Los gateways de API modernos ofrecen tres tipos de señales: métricas (latencia, tasas de error, throughput), registros (detalles de solicitud/respuesta) y rastros (recorrido extremo a extremo a través de microservicios).

Para API con implicaciones normativas – por ejemplo, en el sector financiero o sanitario – el registro completo de solicitudes es obligatorio. Una implementación conforme con la protección de datos implica: redacción (redaction) de las cargas útiles que contengan datos personales identificables (PII), políticas de retención y almacenamiento cifrado.

API-First como paradigma de desarrollo

API-First significa: la especificación de la API se redacta antes del código. Los equipos acuerdan la interfaz antes de iniciar la implementación. Esto podría parecer un enfoque en cascada (waterfall), pero es exactamente lo contrario: desacopla a los equipos y permite el desarrollo paralelo.

Las empresas que adoptan el enfoque API-First informan de una integración de nuevos servicios hasta un 50-70 % más rápida, porque los consumidores ya conocen la API antes de que entre en producción. Servidores simulados (mock servers) basados en la especificación OpenAPI permiten desarrollar interfaces gráficas mientras aún se construye el backend.

Preguntas frecuentes

¿Cuál es la diferencia entre un gateway de API y la gestión de API?

Un gateway de API es el componente en tiempo de ejecución que enruta, autentifica y transforma las solicitudes. La gestión de API abarca además todo el ciclo de vida: diseño, documentación, versionado, portal para desarrolladores, análisis y monetización. El gateway es una parte del stack de gestión.

¿Qué gateway de API resulta adecuado para entornos multi-nube?

Kong Konnect y Apigee X son los candidatos más sólidos para entornos multi-nube, pues pueden desplegarse de forma agnóstica respecto al proveedor. AWS API Gateway es óptimo dentro del ecosistema de AWS, pero presenta limitaciones para escenarios multi-nube. Para configuraciones centradas en Kubernetes, Envoy Gateway constituye una alternativa ligera.

¿Cómo se protegen las API frente a ataques DDoS?

En tres niveles: primero, limitado de tasa (rate limiting) en el gateway con umbrales adaptativos; segundo, integración con sistemas WAF (AWS WAF, Cloudflare) para detectar patrones de ataque conocidos; tercero, detección de bots que distingue automáticamente el tráfico automatizado del consumo legítimo de API. Para API críticas, además: autenticación mediante certificados de cliente.

¿Qué son las Shadow APIs y cómo se identifican?

Las Shadow APIs son puntos finales no documentados que existen sin conocimiento del equipo de API – a menudo código heredado, puntos finales de prueba o prototipos olvidados. Herramientas de descubrimiento de API como Salt Security o Noname escanean el tráfico de red e identifican API activas que no están registradas en el catálogo de API.

¿Merece la pena implementar un portal para desarrolladores de API incluso para API internas?

Sí. Incluso las API internas se benefician de un portal con documentación, entorno de pruebas (sandbox) y onboarding autoservicio. El esfuerzo es reducido (Backstage, Readme.com), pero el efecto es considerable: menos consultas por Slack, integraciones más rápidas y un uso más coherente.

Fuente de imagen: Pexels / Саша Алалыкин

También disponible en

Una revista de Evernine Media GmbH