vLLM vs Ollama: qué inference server elegir para producción 2026
Si vas a servir un LLM open-source en tu propia infraestructura, en 2026 el debate se reduce a dos opciones serias: Ollama (fácil, pensado para developers) y vLLM (rápido, pensado para producción). Casi todos los demás (LM Studio, llama.cpp directo, GPT4All) son variantes de uno u otro mundo.
Esta comparativa compara los dos en lo que importa: throughput real, hardware soportado, ergonomía, y cuándo gana cada uno. Forma parte del cluster IA local.
TL;DR
Ollama: para desarrollo local, prototipos, PCs personales, servidores con un usuario. Setup en 5 min.
vLLM: para producción a escala con tráfico concurrente. 10-20x más rápido bajo carga, pero curva pronunciada.
¿Mac con Apple Silicon? Solo Ollama. vLLM en Apple Silicon no es production-ready a abril 2026.
¿Servidor con GPUs NVIDIA y >5 usuarios concurrentes? vLLM, sin duda.
Filosofía de cada uno
Ollama es easy mode. Instalas, ejecutas ollama run llama3:8b, listo. Wraps internos de llama.cpp con buenos defaults. Una sola línea instala el servidor, descarga el modelo, lo carga en GPU si la tienes. Ideal para developers solo o equipos pequeños.
Ver más en comparativa Ollama vs LM Studio.
vLLM es production mode. Servidor de inferencia diseñado para servir muchos usuarios concurrentes con PagedAttention (un truco de gestión de memoria que evita desperdiciar KV cache). Setup más complejo: Python, dependencias CUDA, modelo descargado por separado, configuración explícita de tensor parallelism y batching.
Benchmarks reales 2026
Throughput bajo carga concurrente
En NVIDIA H100, Llama 3.1 70B (FP16):
Ollama: ~41 tokens/s (1 stream), ~120 tokens/s (10 streams).
vLLM: ~785 tokens/s (1 stream), ~3.200 tokens/s (10 streams).
Diferencia bajo carga: vLLM ~26x más rápido en 10 streams concurrentes.
En NVIDIA Blackwell B200 con NVFP4:
Ollama: ~484 tokens/s.
vLLM: ~8.033 tokens/s. 16.6x ventaja.
Fuentes: Red Hat benchmarks 2025 y SitePoint 2026.
Throughput single-stream
Aquí la diferencia se reduce. Para 1 usuario único, Llama 3.1 8B:
Ollama (Q4_K_M, quantizado): ~62 tokens/s.
vLLM (FP16, sin quantizar): ~71 tokens/s.
Solo ~15% diferencia. Para 1 user, no hay razón para complicarse con vLLM.
Latencia P99
Para SLA-críticos, P99 importa más que la media.
Ollama bajo carga: P99 ~673ms para primer token.
vLLM bajo carga: P99 ~80ms.
vLLM gana ~8x en latencia P99. Crítico para chatbots producción.
Hardware soportado
Ollama
NVIDIA: CUDA, todas las GPUs RTX y datacenter. Bueno.
AMD ROCm: experimental pero usable.
Apple Silicon: nativo via Metal. La única opción seria en M-series.
CPU only: funciona, pero lento. Útil para modelos pequeños (1-3B).
vLLM
NVIDIA: CUDA. Soporte de primer nivel, optimizado para H100, H200, B200, RTX series.
AMD ROCm: producción-ready en MI300, MI250.
Apple Silicon: experimental con Metal/MPS, no production-ready.
CPU: soporte limitado, no recomendado.
Si tienes un Mac y quieres servir LLMs, Ollama es tu única opción real hoy. vLLM en Mac es para experimentar.
Modelos soportados
Ollama
Catálogo curado en ollama.com/library: Llama 3/4, Mistral, Phi-3/4, Gemma, DeepSeek-R1/R2, Qwen, etc. Cada modelo viene en varios quantizados (Q4_K_M, Q5, Q8). Descarga con ollama pull <modelo>.
Custom: puedes crear modelos custom con Modelfile (similar a Dockerfile).
vLLM
Soporta cualquier modelo de Hugging Face en formato compatible. Bajas el modelo de HF, lo apuntas:
vllm serve meta-llama/Llama-3.1-8B-InstructSin curaduría, pero más flexibilidad. Acceso inmediato a modelos nuevos antes de que aparezcan en Ollama.
Quantization: vLLM soporta GPTQ, AWQ, FP8, INT8, NVFP4. Ollama soporta GGUF (formato propio derivado de llama.cpp).
Ergonomía
Ollama
# instalar
curl -fsSL https://ollama.com/install.sh | sh
# descargar y servir
ollama run llama3:8b
# usar via API
curl http://localhost:11434/api/generate -d '{
"model": "llama3:8b",
"prompt": "hola"
}'3 comandos, ya tienes server running. Ideal para incluir en docs de "cómo arrancar local".
API compatible con OpenAI: cambias base_url y casi todo el código de cliente OpenAI funciona contra Ollama.
vLLM
# instalar
pip install vllm
# descargar y servir (asume que el modelo está en disco o HF cache)
vllm serve meta-llama/Llama-3.1-8B-Instruct \
--tensor-parallel-size 2 \
--max-num-seqs 256 \
--gpu-memory-utilization 0.9
# usar via OpenAI-compatible API
curl http://localhost:8000/v1/chat/completions -d '{
"model": "meta-llama/Llama-3.1-8B-Instruct",
"messages": [{"role": "user", "content": "hola"}]
}'Más parámetros que tunear. Pero es el coste de servir 100 users concurrentes a velocidad seria.
Memoria y eficiencia
vLLM usa PagedAttention: gestiona el KV cache como un sistema operativo gestiona memoria virtual. Sin él, servir muchos usuarios desperdicia RAM porque cada KV cache pre-aloca su buffer máximo. Con paged, el cache se asigna por bloques bajo demanda.
Resultado: vLLM puede servir 3-5x más usuarios concurrentes con la misma GPU que Ollama.
Ollama no tiene equivalente. Su gestión de memoria es directa de llama.cpp, que prioriza simplicidad.
API compatibility
Ambos exponen API compatible con OpenAI (chat completions, completions, embeddings parcial). Ventaja: cambiar de un modelo cloud a uno local solo requiere cambiar base_url. Ver BYOK y multi-proveedor para el patrón completo.
vLLM es más fiel a la API OpenAI. Ollama tiene además su API nativa (/api/generate) más sencilla.
Casos donde Ollama gana
Mac (Apple Silicon): única opción seria.
Developer único o equipo de hasta 3 personas.
Prototipo o POC: tiempo de setup importa.
Sin GPU server / NVIDIA: en CPU o GPUs consumer básicas.
Necesitas cambiar de modelo a menudo:
ollama run Xy listo.Modelos pequeños (1-13B) donde el throughput single-stream basta.
Ver casos de uso típicos en Ollama app de escritorio.
Casos donde vLLM gana
Servidor con GPUs NVIDIA datacenter (H100, A100, B200).
Tráfico concurrente (5+ usuarios simultáneos).
SLA estricto en latencia P99.
Modelos grandes (70B+) donde batching importa.
Producción enterprise con miles de requests/min.
Deploy con Kubernetes (vLLM tiene helm charts oficiales).
Híbrido: usar ambos
Patrón típico en empresas que internalizan IA:
Desarrollo local: cada developer corre Ollama en su máquina.
Staging y producción: vLLM detrás de un load balancer en cluster GPU.
Como ambos exponen API OpenAI-compatible, el código cliente no cambia. Solo cambia el base_url.
Coste real
Ollama
Coste de licencia: gratis (MIT).
Coste hardware: tu máquina. Para 70B en M3 Max → 64GB RAM mínimo.
Operación: bajo. Casi cero mantenimiento si solo tu lo usas.
vLLM
Licencia: gratis (Apache 2.0).
Coste hardware: GPUs serias. 1 H100 ≈ $25K-30K compra, ~$2-4/hora cloud (AWS p5).
Operación: medio. Configuración inicial 1-2 días, monitoring continuo.
A escala (>1M tokens/día), self-host con vLLM puede salir 5-10x más barato que API cloud. Por debajo de eso, API cloud (OpenAI/Anthropic) gana en TCO salvo motivo de compliance (RGPD, Zero Data Retention).
Lo que no aparece en benchmarks
vLLM cambia rápido. Mensual hay nuevas optimizaciones (FP4, AOT compilation, etc.). Si no actualizas, te quedas atrás.
Ollama es más estable mes a mes (downside: nuevas features tardan más).
vLLM en producción serio requiere observability propia (Prometheus, Grafana). Ollama tiene logs simples.
Modelos exclusivos de proveedores grandes (GPT-5, Claude) no se sirven en ningún caso. Ambos son para open-source.
Cómo decidir hoy
¿Tu hardware?
├─ Mac (Apple Silicon) → Ollama
├─ PC con GPU consumer (RTX 4090, etc.) → Ollama (suficiente)
├─ Servidor NVIDIA datacenter → ¿concurrencia?
│ ├─ <5 users concurrentes → Ollama o vLLM (ambos van bien)
│ └─ 5+ users concurrentes → vLLM
└─ ROCm AMD MI300 → vLLMPara casos en medio, prueba ambos un día y mide tokens/s en tu carga real. Los benchmarks de internet no reflejan tu caso.
Conclusión
vLLM y Ollama no son competidores 1:1. Resuelven problemas distintos: Ollama optimiza simplicidad, vLLM optimiza throughput producción. Equipos serios usan ambos: Ollama en local dev, vLLM en cluster prod. Los desarrolladores que solo usan Ollama no aprovechan toda la capacidad de sus GPUs en prod; los que solo usan vLLM se complican la vida innecesariamente en local.
Para profundizar:
IA local: guía completa — pillar del cluster.
Ollama vs LM Studio — alternativa Ollama.
Modelos locales vs nube — decisión TCO.
BYOK y multi-proveedor — combinar modelos.
Fuentes verificadas
Ollama vs vLLM (Red Hat) — benchmark oficial.
Ollama vs vLLM 2026 (SitePoint) — benchmarks abril 2026.
vLLM oficial docs — referencia.
Ollama oficial docs — referencia.
Datos verificados el 29 de abril de 2026.



