AIPD para sistemas de IA: cómo cumplir el RGPD en 2026
Si estás desplegando IA generativa, agentes autónomos o cualquier sistema que procese datos personales con modelos LLM, muy probablemente necesitas una AIPD (Análisis de Impacto en Protección de Datos, también llamada DPIA por sus siglas en inglés). El art. 35 del RGPD lo exige siempre que un tratamiento entrañe "alto riesgo" para los derechos y libertades — y la AEPD ha publicado guías específicas confirmando que los sistemas de IA encajan en ese supuesto en la mayoría de casos.
Esta guía explica cuándo es obligatoria una AIPD para IA, cómo realizarla, los riesgos específicos de modelos LLM y agentes autónomos, y cómo se relaciona con el AI Act que entró en vigor en 2025.
Qué es una AIPD y por qué importa en IA
La AIPD es una evaluación previa al tratamiento de datos personales. Documenta:
Qué datos se procesan y con qué finalidad.
Qué riesgos se generan para los titulares.
Qué medidas mitigan esos riesgos.
En IA, los riesgos van más allá del tratamiento clásico:
Inferencias no autorizadas: el modelo deduce datos sensibles de inputs neutros.
Memorización: el LLM reproduce literalmente datos del entrenamiento.
Decisiones automatizadas: art. 22 RGPD.
Falta de explicabilidad: difícil de auditar.
Sesgos: impacto desproporcionado en colectivos.
Sin AIPD, el responsable se expone a sanciones (hasta 20M€ o 4% facturación) y al bloqueo del despliegue por la AEPD.
Cuándo es obligatoria una AIPD para sistemas de IA
El art. 35.3 RGPD lista tres supuestos automáticos:
Evaluación sistemática de aspectos personales basada en tratamiento automatizado, incluida elaboración de perfiles, con efectos jurídicos.
Tratamiento a gran escala de categorías especiales (salud, biométricos, ideológicos, etc.).
Observación sistemática de zonas de acceso público.
A esto, la AEPD añade en su Lista de tratamientos que requieren AIPD supuestos adicionales relevantes para IA:
Uso de nuevas tecnologías que impliquen tratamiento de datos personales.
Tratamiento que pueda implicar discriminación o exclusión.
Tratamientos que combinan datos de múltiples fuentes.
Uso de datos para finalidades distintas a las originales (entrenamiento de modelos).
Resultado práctico: si tu sistema usa LLMs sobre datos personales más allá de un caso trivial (ej: un chatbot interno con datos de clientes), asume que necesitas AIPD.
Casos que SÍ requieren AIPD casi seguro:
RAG corporativo sobre documentos con datos personales.
Agentes autónomos que ejecutan acciones (ej: gestión de tickets con datos cliente).
Sistemas de scoring (riesgo crediticio, RR.HH., compliance).
Análisis de sentimiento de clientes/empleados.
Cualquier IA con decisiones automatizadas con efectos jurídicos.
Casos que pueden NO requerirla:
LLM sobre datos 100% sintéticos o anonimizados (probarlo con tests de re-identificación).
Asistente que solo procesa datos del propio usuario para el propio usuario.
Sistemas piloto a muy pequeña escala.
Aún así, en el contexto IA actual, conviene hacer AIPD aunque no sea estrictamente obligatoria — sirve como documentación de accountability (art. 5.2 RGPD).
Metodología: cómo hacer una AIPD para IA
Las 7 secciones de una AIPD bien hecha:
1. Descripción sistemática del tratamiento
Finalidad del sistema IA (chatbot, agente, scoring...).
Tipos de datos tratados (incluyendo si entrarán prompts con datos personales no estructurados).
Categorías de interesados (clientes, empleados, candidatos...).
Flujos de datos: del usuario al modelo, del modelo a APIs externas, logs, fine-tuning.
Tecnologías: modelo concreto (GPT-5.5, Claude Opus 4.7, modelo open source...), proveedor, ubicación.
2. Necesidad y proporcionalidad
¿Existe una alternativa menos intrusiva? Si un sistema rule-based hace el trabajo, no metas IA.
¿La finalidad es legítima y específica?
¿Los datos son los mínimos necesarios? (Principio de minimización art. 5.1.c).
3. Identificación de riesgos
Específicos de IA, lista no exhaustiva:
|
Riesgo |
Ejemplo |
|---|---|
|
Memorización |
LLM reproduce DNI del training set |
|
Inferencia |
Modelo deduce salud desde texto neutro |
|
Decisiones discriminatorias |
Sesgo en scoring de candidatos |
|
Falta explicabilidad |
Decisión no justificable al titular |
|
Fuga vía prompts |
Empleado pega datos en chat público |
|
Hallucinations sobre personas |
Modelo inventa datos falsos sobre persona real |
|
Fallo cadena de subencargados |
Datos en proveedor sin DPA válido |
4. Evaluación de probabilidad e impacto
Para cada riesgo, asignar:
Probabilidad: baja / media / alta.
Impacto: bajo / medio / alto.
Nivel de riesgo resultante (matriz).
5. Medidas de mitigación
Por cada riesgo identificado, una o más medidas concretas:
Anonimización/pseudonimización antes de pasar al modelo.
DPA con proveedor (guía).
Filtros de PII en input y output.
No fine-tuning con datos personales sin base legal robusta.
Logging mínimo, retención corta, acceso restringido.
Revisión humana de decisiones automatizadas.
Explicabilidad: registrar contexto, prompts, salidas para auditoría.
Bias testing antes de producción.
Control de prompt injection (especialmente en agentes).
Mecanismos de rectificación/supresión funcionales.
6. Consulta al DPO y, si procede, a la AEPD
El DPO debe revisar la AIPD (art. 35.2). Si tras la evaluación quedan riesgos altos no mitigables, consulta previa a la AEPD obligatoria (art. 36).
7. Revisión periódica
Una AIPD no es one-shot. Revisar cuando:
Cambia el modelo o proveedor.
Cambian las finalidades.
Aparecen incidentes.
Cada 12 meses como mínimo.
Ejemplo: AIPD para chatbot interno con RAG
Contexto: empresa B2B despliega un chatbot que responde a empleados sobre políticas y procedimientos, con RAG sobre Confluence interno (donde hay datos de clientes mencionados).
Riesgos clave:
Memorización de datos de clientes citados en docs.
Empleados haciendo prompt con datos personales.
Logs almacenados en proveedor extra-UE.
Mitigaciones:
Filtro PII antes de indexar Confluence (NER + redaction).
Banner de aviso, política y filtro de PII en input.
DPA con cláusulas SCC y proveedor con instancias EU.
Decisión: aprobado con mitigaciones, revisión a 6 meses.
AIPD vs evaluación de impacto del AI Act
El AI Act europeo introduce su propia evaluación: el Fundamental Rights Impact Assessment (FRIA) para sistemas de alto riesgo (art. 27 AI Act).
No son lo mismo:
|
Aspecto |
AIPD (RGPD) |
FRIA (AI Act) |
|---|---|---|
|
Foco |
Datos personales |
Derechos fundamentales |
|
Quién la hace |
Responsable del tratamiento |
Despliegador |
|
Cuándo |
Si hay alto riesgo en datos |
Si sistema es "alto riesgo" |
|
Autoridad |
AEPD / EDPB |
Autoridades AI Act |
Buenas noticias: ambos análisis pueden integrarse en un único documento si el sistema cae en ambos supuestos. Eso es lo recomendable para evitar duplicar esfuerzo.
Plantilla mínima de AIPD para IA
1. Identificación
- Sistema:
- Responsable / Encargado:
- Fecha:
2. Descripción tratamiento
- Finalidad:
- Modelo IA y proveedor:
- Datos tratados:
- Flujos:
3. Base legal y necesidad
- Base legal art. 6:
- Base legal art. 9 (si aplica):
- Análisis necesidad y proporcionalidad:
4. Riesgos identificados
[tabla riesgo / probabilidad / impacto / nivel]
5. Medidas de mitigación
[tabla riesgo / medidas / responsable / plazo]
6. Riesgo residual
- ¿Hay riesgos altos sin mitigar? → consulta AEPD
7. Validación DPO
- Comentarios:
- Fecha:
8. Revisión
- Próxima revisión:
- Eventos que disparan revisión:Errores comunes en AIPDs de IA
Tratarla como trámite: copiar plantillas sin adaptarlas al sistema concreto.
No identificar al subencargado real: el proveedor del LLM (OpenAI, Anthropic) es subencargado y debe constar.
No mencionar entrenamiento: si el proveedor entrena con datos del cliente (algunos lo hacen sin opt-out), es riesgo crítico.
Ignorar prompts: los prompts SON tratamiento de datos, hay que cubrirlos.
Falta de medidas técnicas: solo medidas organizativas no es suficiente para IA.
No revisar cuando el sistema cambia: cambiar de GPT-4 a GPT-5.5 puede cambiar el perfil de riesgo.
Checklist final antes de desplegar IA con datos personales
Recursos y plantillas
Guía AEPD sobre IA y RGPD — referencia oficial española.
EDPB Guidelines 2024 sobre LLMs — directrices europeas.
CNIL guías de IA — autoridad francesa, muy avanzada en IA.
ISO/IEC 42001 — sistema de gestión de IA, complementa la AIPD.
Conclusión
La AIPD para IA en 2026 ya no es opcional — es la pieza que demuestra accountability frente a la AEPD. Hacerla bien protege contra sanciones y, sobre todo, fuerza un diseño responsable desde el inicio. Las empresas que entiendan esto van a desplegar IA mucho más rápido que las que crean que pueden saltársela.
Si te encargas de IA en tu empresa, esta es una de las inversiones de tiempo con mejor ratio coste-impacto que puedes hacer este trimestre.
Para profundizar:
LLMs en empresa y RGPD — pillar del cluster.
DPA con proveedor de IA — clausulado contractual.
AI Act para empresas — marco regulatorio europeo.
Artículo 22 RGPD: decisiones automatizadas — base regulatoria de las decisiones IA.
Fuentes verificadas
Reglamento (UE) 2016/679 — RGPD — texto consolidado.
AEPD Guías sobre IA — autoridad española.
EDPB — European Data Protection Board — directrices europeas.
AI Act — Reglamento (UE) 2024/1689 — Reglamento europeo de IA.
Datos verificados el 30 de abril de 2026.


