Un AI Gateway es la pieza que se interpone entre tu código y los proveedores de modelos (OpenAI, Anthropic, Google, modelos locales) para darte una API unificada, observabilidad, routing y control de coste. En 2026, montar un proyecto IA serio sin gateway es como montar una API REST en 2015 sin reverse proxy: técnicamente funciona, pero te cierra puertas.
Si vienes de BYOK explicado y conectar varios modelos en una sola app, un gateway es la siguiente capa: cómo gestionar el lío cuando ya tienes 3-4 proveedores en juego.
Qué hace un AI Gateway
Las funciones core que cualquier gateway decente debe ofrecer:
API unificada: una sola interfaz (típicamente OpenAI-compatible) para hablar con N proveedores. Cambias el modelo modificando una string, no migrando tu código.
Routing: política de a quién llamar (por defecto, fallback si cae uno, A/B testing entre dos, balanceo).
BYOK: usar tus propias API keys de los proveedores, sin pasar por márgenes del gateway.
Observabilidad: logs, traces, métricas (latencia, tokens, coste por usuario).
Caching: prompt caching y response caching para ahorrar tokens.
Guardrails: filtros de PII, jailbreaks, contenido prohibido.
Rate limits y budgets: techos por usuario, equipo o proyecto.
Las opciones más serias en 2026: OpenRouter, LiteLLM, Portkey. Y Levante desde el ángulo europeo + producto integrado. Las comparamos.
OpenRouter
Qué es: marketplace-proxy con catálogo de 300+ modelos de 60+ proveedores. El más fácil de empezar. Compras créditos y enrutas a cualquiera.
Cómo funciona técnicamente:
import openai
client = openai.OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key="sk-or-...",
)
resp = client.chat.completions.create(
model="anthropic/claude-opus-4.7", # o cualquier slug del catálogo
messages=[{"role": "user", "content": "Hola"}],
)Fortalezas:
El catálogo más grande, incluyendo open-weight (Llama, Qwen, DeepSeek, GLM).
API totalmente OpenAI-compatible — migras desde OpenAI cambiando 2 líneas.
openrouter/autoselecciona el mejor modelo automáticamente para el prompt.Prompt caching nativo.
BYOK soportado para evitar el markup.
Sin servidores que mantener.
Debilidades:
Margen sobre el coste base del proveedor (suele ser 5-15%, depende del modelo).
Observabilidad básica (logs sí, pero menos rica que Portkey).
No es self-hostable — datos pasan por su infraestructura.
Sin guardrails enterprise out-of-the-box.
Precio: pay-as-you-go en tokens. Markup variable.
Recomendado si: arrancas un proyecto, no quieres mantener infra y necesitas variedad de modelos rápido.
LiteLLM
Qué es: proxy open-source en Python que traduce requests OpenAI-compatibles a 100+ proveedores. El estándar de facto si te self-hosteas.
Cómo funciona técnicamente:
pip install litellm
litellm --model anthropic/claude-opus-4.7 --port 8000Luego el cliente apunta a http://tu-host:8000 y usa la API OpenAI-compatible.
O en código:
from litellm import completion
resp = completion(
model="anthropic/claude-opus-4-7",
messages=[{"role": "user", "content": "Hola"}],
api_key="sk-ant-...", # tu key directa
)Fortalezas:
Open source (MIT). Puedes auditarlo y self-hostear.
BYOK puro: usas tus keys directas a cada proveedor, sin markup.
Routing y fallback configurables por config YAML.
Tracking de coste con base de datos (Postgres, etc.).
Spend management por equipo.
Compatible con muchísimos proveedores.
Debilidades:
Tienes que mantener un servicio. Más mantenimiento que OpenRouter.
La UI de observabilidad existe pero es más cruda que Portkey.
Performance del proxy depende de cómo lo despliegues.
Curva inicial si configuras routing avanzado por YAML.
Precio: gratis (open source). Coste = lo que tu API te cobre + tu infra.
Recomendado si: ya tienes infra DevOps madura, quieres BYOK puro sin markups, te importa el control y la auditabilidad.
Portkey
Qué es: gateway de pago orientado a producción enterprise. Énfasis en observabilidad, guardrails y compliance.
Cómo funciona técnicamente:
from openai import OpenAI
client = OpenAI(
base_url="https://api.portkey.ai/v1",
default_headers={
"x-portkey-api-key": "pk-...",
"x-portkey-virtual-key": "openai-prod",
},
)Los "virtual keys" son tus credenciales de proveedor abstraídas. El config queda en Portkey, no en tu código.
Fortalezas:
Observabilidad rica: traces completos, latency P50/P99, coste por user/feature.
Guardrails configurables (PII redaction, prompt injection detection, regex filters).
Prompt management con versionado.
Fallback estructurado, retries con backoff.
Cumplimiento enterprise: SOC2, GDPR, HIPAA-ready.
Self-host disponible para tier enterprise.
Debilidades:
Caro en tier enterprise.
El plan free es limitado (rate limits).
Más complejo conceptualmente — invertirás 1-2 días en aprender.
Precio:
Free: hasta cierto volumen.
Production desde 49 €/mes.
Enterprise: a negociar (incluye self-host).
Recomendado si: tienes producto IA en producción seria con SLAs, necesitas observabilidad para diagnosticar incidentes, o vas hacia enterprise.
Levante
Qué es: producto integrado IA-first con AI Gateway europeo nativo. No es un gateway puro: es la app + plataforma alrededor del gateway.
Cómo funciona técnicamente:
App: la aplicación de escritorio open source con BYOK directo a OpenAI/Anthropic/Google + modelos locales (Ollama, LM Studio, vLLM).
Levante Platform: capa empresarial con AI Gateway en Tensorix (infraestructura europea), Zero Data Retention y MCP Control centralizado.
from openai import OpenAI
client = OpenAI(
base_url="https://platform.levanteapp.com/v1",
api_key="lev_...",
)
resp = client.chat.completions.create(
model="claude-opus-4-7", # o gpt-5-5, gemini-2-5-pro, qwen-3-6
messages=[{"role": "user", "content": "Hola"}],
)Fortalezas:
AI Gateway en infraestructura europea (Tensorix). Conformidad RGPD nativa.
Zero Data Retention: ni Levante ni el proveedor guardan los prompts.
Pago por créditos desde €5 (pay-as-you-go), sin seats fijos.
App open source auditable (Apache 2.0 + Commons Clause).
MCP Store integrado — gestiona integraciones de tu equipo desde un panel.
ContextHub: el contexto del equipo unificado entre miembros.
Soporte multi-modelo: Anthropic, OpenAI, Google, modelos chinos open source, modelos locales.
Local-first: las API keys quedan en el keychain del SO si usas la app sin Platform.
Debilidades:
Catálogo de modelos algo más curado (no es 300+ como OpenRouter — son los que hacen sentido productivo en europeo).
Si solo necesitas un proxy técnico, OpenRouter o LiteLLM van más al grano.
Precio:
App: gratis (open source, BYOK).
Platform: pay-as-you-go en créditos desde €5.
Recomendado si: empresa española o europea con compliance RGPD prioritario, equipo mixto que usa varios modelos, quiere BYOK + producto integrado sin montarse el gateway a mano.
Comparativa rápida
|
Característica |
OpenRouter |
LiteLLM |
Portkey |
Levante |
|---|---|---|---|---|
|
Modelo |
SaaS |
Self-host (FOSS) |
SaaS + Self-host enterprise |
SaaS (Platform) + App FOSS |
|
Modelos catalogados |
300+ |
100+ |
100+ |
Curado, los principales |
|
OpenAI-compatible API |
✅ |
✅ |
✅ |
✅ |
|
BYOK |
✅ |
✅ (puro) |
✅ (virtual keys) |
✅ (app y Platform) |
|
Observabilidad |
Básica |
Cruda |
Rica |
Rica (panel + ContextHub) |
|
Guardrails |
❌ |
Algunos |
✅ Avanzados |
Privacy-first by default |
|
RGPD/EU |
⚠️ depende |
⚠️ tu infra |
✅ con DPA |
✅ Tensorix nativo |
|
ZDR |
⚠️ |
⚠️ |
⚠️ |
✅ nativo |
|
Caching |
✅ |
✅ |
✅ |
✅ |
|
Routing/Fallback |
✅ auto |
✅ YAML |
✅ avanzado |
✅ automático |
|
MCP support |
❌ |
❌ |
❌ |
✅ Store + Control |
|
Self-host |
❌ |
✅ |
✅ enterprise |
App sí, Platform no |
|
Modelo de precio |
Markup tokens |
Gratis FOSS |
Suscripción |
Créditos pay-as-you-go |
|
Curva de inicio |
5 min |
30 min |
1-2 días |
5 min |
Decisión por caso de uso
Estoy empezando un proyecto IA personal
OpenRouter o Levante app. Cualquiera te resuelve en minutos. OpenRouter si quieres jugar con modelos exóticos. Levante si quieres app de escritorio con MCP integrado.
Tengo un equipo de 3-10 developers en España
Levante Platform. Pay-as-you-go, RGPD nativo, multi-modelo, MCP Control para equipos. Sin seats — pagas el consumo real.
Estoy escalando un producto IA en producción
Portkey (si presupuesto lo permite) o LiteLLM self-host (si tienes equipo DevOps). Portkey por la observabilidad enterprise y los guardrails. LiteLLM por el control total.
Soy una empresa enterprise (banca, salud)
Portkey enterprise (self-host) o Levante Platform (Tensorix europeo). Ambos tienen DPA, ZDR y compliance. Diferencia: Portkey es internacional, Levante es europeo nativo.
Quiero BYOK puro sin pagar a nadie
LiteLLM. Te montas el proxy, usas tus keys directas, ahorras todo el markup. Coste = solo tu infra.
Necesito compliance RGPD estricta
Levante Platform o Portkey con setup europeo. Levante es más nativo (Tensorix está hecho desde el día 1 para europeos); Portkey requiere configurar regiones EU + DPA.
Errores comunes
Empezar con Portkey siendo un proyecto personal: te complicas la vida. Empieza simple, sube cuando lo necesites.
Self-host LiteLLM sin equipo DevOps: el coste oculto del mantenimiento te come el ahorro de markup.
OpenRouter para empresa española sensible a datos: compliance se te complica si mueves PII por su gateway sin DPA específico.
No medir el coste real: gateway sin observabilidad = factura sorpresa al final del mes. Mira siempre cuánto consume cada feature.
Olvidar el caching: prompt caching de Anthropic + cache de tu gateway pueden ahorrarte 50-70% en prompts repetitivos. Actívalo.
Lo que viene en 2026-2027
Gateways nativos de los proveedores: OpenAI lanzó "Routing API", Anthropic está experimentando. La frontera entre "gateway" y "proveedor" se difumina.
Más enfoque en governance: budgets por feature, quotas, audit logs.
AI Mesh: gateways federados, donde un gateway llama a otro gateway. Empieza a verse en arquitecturas grandes.
Estándares MCP en gateways: que un gateway no solo enrute LLMs, sino también tools/resources MCP. Levante MCP Control ya lo hace; el resto se está sumando.
Conclusión
No hay un "mejor AI Gateway" — hay el adecuado para tu situación. Si arrancas, OpenRouter o la app de Levante. Si escalas, LiteLLM o Portkey. Si eres empresa europea con compliance, Levante Platform.
Lo que sí debes hacer: no pegarte a la API de un proveedor. Aunque uses Anthropic al 100%, mete un gateway entre medio (aunque sea un wrapper sencillo). El día que necesites cambiar —y va a llegar— te ahorrarás el dolor.
Más sobre el ecosistema: conectar varios modelos en una sola app, ahorrar en APIs con enrutamiento inteligente, BYOK explicado y OpenAI vs Anthropic vs Google.



