El problema que tu DPO ya vio venir
Cada semana nos llega una empresa española con la misma pregunta, formulada de tres formas distintas: "¿qué IA puedo usar sin romper el RGPD?", "¿ChatGPT Enterprise es compliant?", "¿podemos usar Claude si el DPO bloquea?".
Y la respuesta honesta es incómoda. La mayoría de las herramientas top de IA generativa no son conformes al RGPD por diseño. No es un bug, es cómo están construidas: inferencia en EEUU, retención de datos indefinida en algunos planes, políticas de fine-tuning opacas y DPAs que trasladan riesgo al cliente. En 2023 la AEPD bloqueó ChatGPT temporalmente. En 2024 la DPC irlandesa abrió un expediente a X (Grok) por usar datos europeos sin base legal. En 2025 la EDPB publicó sus directrices sobre IA y protección de datos que, traducido del diplomático, dicen: "amigos, la fiesta americana se acaba".
Esta guía no es un post-paraguas. Es lo que te diría si te sientas media hora con nosotros: los 4 riesgos reales, cómo auditar a un proveedor en 10 puntos, una comparativa honesta de las cuatro IAs más usadas y qué hacer si ya estás usando algo que no cumple. Y sí, al final hablamos de Levante Platform — pero solo porque es literalmente el hueco que vemos sin cubrir en España.
Por qué la IA generativa en 2026 es un campo minado RGPD
Hay tres corrientes regulatorias moviéndose a la vez, y cualquiera de las tres por separado ya sería suficiente para complicarte la vida.
Primera: Schrems II sigue vivo. La sentencia del TJUE de 2020 invalidó el Privacy Shield y dejó claro que transferir datos personales a EEUU requiere garantías adicionales caso por caso. El EU-US Data Privacy Framework (DPF) que lo sustituyó en 2023 está ya impugnado ante el TJUE. Max Schrems (noyb.eu) lleva tres rondas ganadas, y la cuarta probablemente también. Cualquier empresa que apoye toda su IA en la presunción de que el DPF aguanta está construyendo sobre arena.
Segunda: el AI Act entra en vigor por fases. El Reglamento (UE) 2024/1689 es ley desde agosto de 2024, pero las obligaciones se escalonan:
Febrero de 2025: prohibiciones absolutas (categorización biométrica, social scoring, manipulación, etc.).
Agosto de 2025: obligaciones para GPAI (modelos de propósito general) — transparencia, documentación técnica, copyright compliance.
Agosto de 2026: obligaciones para sistemas de alto riesgo en producción.
Agosto de 2027: obligaciones plenas para sistemas de alto riesgo integrados en productos regulados.
Si usas IA en selección de personal, concesión de créditos, educación, sanidad o aplicación de la ley, estás en "alto riesgo" y las obligaciones de 2026-2027 te aplican directamente.
Tercera: las sanciones del RGPD son reales. No son teóricas. Meta lleva más de 2.000 millones de euros en sanciones acumuladas. La propia AEPD lleva en 2024-2025 una veintena de sanciones por encima del millón. Y lo relevante aquí: el responsable del tratamiento eres tú, no OpenAI. Si subes los datos de tus clientes a ChatGPT sin base legal, sin información, sin DPA válido, la multa te la llevas tú.
Vale. Entonces: ¿qué IA puedo usar? La respuesta es más larga que un tuit y empieza por entender los riesgos concretos.
Los 4 riesgos concretos de usar IA generativa sin controles RGPD
Cuando hablamos de "IA y RGPD" la gente se imagina un riesgo abstracto de privacidad. Es más concreto. Son cuatro, y cada uno tiene un vector de fallo específico.
Riesgo 1: transferencias de datos a EEUU sin base legal sólida
Esto es Schrems II en estado puro. Si el proveedor procesa datos personales en EEUU (OpenAI, Anthropic, Google, Microsoft por defecto), estás haciendo una transferencia internacional que requiere:
Base legal RGPD (art. 6).
Mecanismo de transferencia RGPD (art. 44-49): actualmente DPF si el proveedor está certificado, o SCCs + TIA (Transfer Impact Assessment).
Información clara al interesado.
El problema práctico: el DPF está en discusión, las SCCs sin TIA no valen desde Schrems II, y un TIA serio para una IA que procesa texto libre es casi imposible de cerrar. No sabes qué hay en los prompts de tu equipo hasta que los auditas. Y no puedes auditar 400.000 prompts al mes.
Riesgo 2: retención indefinida y uso para entrenamiento
Los términos de servicio "gratuitos" y "Plus" de los grandes proveedores casi siempre contemplan usar tus datos para mejorar el modelo. Los planes "Enterprise" lo excluyen, pero la retención para abuse monitoring suele mantenerse 30 días mínimo, y los contratos se reservan el derecho a revisar contenido marcado. Si hay datos de categorías especiales (salud, origen, creencias, afiliación sindical) en esos prompts, la base legal para retenerlos aunque sea 30 días es muy discutible.
Test mental rápido: si tu herramienta actual borrara hoy mismo todo historial, ¿se rompería algo crítico? Si la respuesta es no, probablemente no necesitas que retenga. Si la respuesta es sí, tienes que documentarlo formalmente.
Riesgo 3: fine-tuning y memoria con datos de usuario
Algunas herramientas ofrecen "memoria" o fine-tuning corporativo. Suena bien hasta que te preguntas: si un empleado subió la nómina de un compañero a ese modelo y el modelo la "recuerda", ¿cómo ejercemos el derecho de supresión del art. 17 RGPD? La respuesta técnica es que eliminar un dato de los pesos de un modelo entrenado es, a efectos prácticos, imposible. Hay research (machine unlearning) pero no está maduro para producción. Si tu herramienta hace fine-tuning con datos personales, tienes un problema estructural con el derecho de supresión.
Riesgo 4: ausencia o insuficiencia de DPA
El Data Processing Agreement (DPA) es el contrato art. 28 RGPD entre responsable (tú) y encargado (el proveedor de IA). Sin DPA firmado y con cláusulas adecuadas, el tratamiento es ilegal. Punto. Muchas empresas usan ChatGPT Plus (plan individual, sin DPA empresarial) para tareas de trabajo. Eso es, técnicamente, una infracción del art. 28.
Los DPAs que sí existen (OpenAI, Anthropic, Google, Microsoft) tienen asimetrías que conviene leer con calma: sublimites de responsabilidad, exclusiones amplias, jurisdicción EEUU para arbitraje. No son ilegales per se, pero no son los DPAs que firmarías con un proveedor europeo.
Cómo auditar una herramienta de IA desde el punto de vista RGPD: 10 puntos
Esta es la checklist que aplicamos internamente cuando un cliente nos pregunta "¿podemos usar X?". Funciona para cualquier SaaS de IA. Si un proveedor no sabe responder a estos 10 puntos, la respuesta es no.
¿Dónde se ejecuta la inferencia? País y región concretos. "En Azure" no vale; necesitas la región (West Europe vs East US cambia todo).
¿Quién es el responsable y el encargado en el flujo? RGPD-lenguaje. Tiene que estar escrito en el DPA.
¿Existe DPA firmable con cláusulas art. 28? Que lo envíen. Léelo con tu DPO.
¿Cuál es la política de retención por defecto y cómo se modifica? Con números: días, tipo de dato, proceso de supresión.
¿Los datos del cliente se usan para entrenamiento o mejora del modelo? Respuesta binaria. Si hay matices, documentados.
¿Hay mecanismo formal de Zero Data Retention (ZDR)? No "promesa de no entrenar", contrato con cláusula específica.
¿Qué subprocesadores usan y dónde están? Lista completa (CDN, observabilidad, analítica). Cualquier subprocessor en EEUU afecta al análisis.
¿Qué transferencias internacionales hay y bajo qué mecanismo? DPF, SCCs, BCRs, con TIA o no.
¿Soportan ejercicio de derechos (acceso, rectificación, supresión) de forma operativa? Con SLAs.
¿Tienen certificaciones relevantes? ISO 27001, ISO 42001 (gestión de IA), SOC 2 Tipo II, ENS en España si es sector público.
Si el proveedor tarda más de una semana en contestar a esto, ya te ha dicho mucho.
ChatGPT, Claude, Copilot y Gemini vs RGPD: comparativa honesta
Vamos a hacer lo que el SERP no hace: mojarnos. Esta tabla es para 2026-04, con los planes empresariales (no los individuales) y leyendo los DPAs públicos de cada proveedor. Si contratas un plan inferior, asume que todo empeora.
|
Dimensión |
ChatGPT Enterprise |
Claude for Enterprise |
Microsoft Copilot |
Google Gemini Enterprise |
|---|---|---|---|---|
|
DPA empresarial |
Sí |
Sí |
Sí |
Sí |
|
Inferencia en Europa |
Opcional (EU data residency) |
Parcial (AWS EU) |
Sí (Azure EU) |
Sí (GCP EU) |
|
Zero Data Retention real |
Opcional con solicitud |
Opcional (ZDR API) |
No (retención 30d default) |
No |
|
No entrenamiento con tus datos |
Sí |
Sí |
Sí |
Sí |
|
Transferencia EEUU para support |
Sí |
Sí |
Sí |
Sí |
|
Sub-procesadores EEUU |
Sí |
Sí |
Sí (Microsoft global) |
Sí |
|
Certificación ISO 42001 |
En curso |
En curso |
Anunciada |
Anunciada |
|
Compatibilidad MCP |
Limitada |
Nativa |
Vía plugins |
Limitada |
La lectura sin filtro:
ChatGPT Enterprise es el más maduro en cumplimiento formal, pero su inferencia sigue teniendo un pie en EEUU y el DPF como muleta. Para datos no sensibles funciona; para RRHH, salud o legal hay que pensárselo dos veces.
Claude for Enterprise tiene mejor narrativa de seguridad y un ZDR API real (solicitable), pero la infraestructura sigue siendo AWS con mezcla EU/EEUU. Mejor que la media, no un 10.
Microsoft Copilot hereda el compliance de Microsoft 365 (que es bueno) pero la retención por defecto de los prompts de Copilot es de 30 días mínimo en producto estándar, y eso es mucho en contextos sensibles.
Google Gemini Enterprise tiene la inferencia mejor localizada en Europa técnicamente, pero los subprocesadores globales de Google complican el análisis de transferencias.
Ninguno es una respuesta "compliant por diseño" para una empresa en sector regulado. Todos requieren configuración específica, DPAs negociados y en algunos casos addendums. Si vas a usarlos, hazlo con el DPO sentado al lado.
Qué hacer si ya estás usando una herramienta no conforme
Aquí aterrizamos. Este es el caso más común: ya hay equipos usando ChatGPT Plus, Claude individual o "ese GPT personalizado que hizo el de marketing" desde cuentas personales. No panic, pero no cero panic.
Paso 1: inventario real, no declarado
Saca del IdP (Okta, Entra ID, Google Workspace) el listado de SaaS con sign-in activo. Cruza con la tarjeta corporativa y las notas de gastos. El inventario declarado suele ser un tercio del real. Los otros dos tercios son cuentas personales con datos corporativos dentro. Esto es Shadow AI y en 2026 es el principal vector de fuga de datos en empresas españolas.
Paso 2: triaje por sensibilidad del dato
No todas las herramientas de IA merecen la misma reacción. Clasifica en tres niveles:
Nivel rojo: salud, menores, credenciales, información financiera sensible, datos judiciales. Corte inmediato, migración urgente.
Nivel naranja: RRHH, clientes (nombres, emails, contratos), estrategia comercial, datos de proveedores. Plazo de migración 30-60 días.
Nivel verde: texto público, contenido de marketing, ideación. Regularizar en 90 días.
Paso 3: DPA o corte
Para lo que queda en Naranja/Verde y que vas a mantener: DPA firmado con el proveedor. Si el proveedor no firma un DPA que tu DPO acepte, corte.
Paso 4: política de uso + formación
Una Política de Uso Aceptable de IA de 1-2 páginas, no de 30. Que diga: qué herramientas están aprobadas, qué datos no se suben jamás, qué alternativa usar para datos sensibles. Formación obligatoria de 30 minutos al año. Esto no es burocracia, es cobertura real ante una inspección.
Paso 5: arquitectura objetivo
Si eres una empresa con más de 20 personas usando IA, el modelo de "cada uno su cuenta" no escala. Necesitas una capa unificada: AI Gateway único, control de quién usa qué modelo, límites de gasto, auditoría centralizada. Esto nos lleva a la siguiente sección.
Qué buscar en una IA europea conforme al RGPD (y cómo encaja Levante)
Tras auditar decenas de SaaS, estos son los cinco criterios que diferencian una IA realmente europea compliant de una con sello "EU" de marketing:
Inferencia en infraestructura europea con operador europeo. No "AWS Frankfurt" — ese es territorio EEUU con servidores en Alemania. Hablamos de operadores sujetos a jurisdicción europea sin cláusulas CLOUD Act aplicables.
Zero Data Retention contractual. Cláusula específica, no "política de privacidad". Si no está en el DPA, no existe.
Multi-proveedor con enrutamiento controlado. Atarte a un único modelo (aunque sea europeo) te deja expuesto si cambia su política. Mejor una capa con varios modelos y política definida por caso de uso.
Control granular de acceso y auditoría. Quién usa qué modelo, con qué límite de gasto, con trazabilidad de prompts a nivel de organización (sin almacenar el contenido si así se configura).
Open-source y auditable. Si la capa que media entre tu equipo y los modelos es una caja negra, vuelves al problema inicial — solo cambia el propietario.
Levante Platform es nuestra respuesta a estos cinco criterios. Inferencia sobre Tensorix (nuestra infraestructura de inferencia europea), Zero Data Retention en el DPA, AI Gateway con una sola API key para OpenAI, Anthropic, Google y modelos open-source, gestión centralizada de MCP para equipos y código abierto en nuestro código en GitHub. No es casualidad que lo hayamos construido así: es que no encontramos nadie en España que lo hiciera bien.
Si esto te interesa, te recomiendo un despiece relacionado: los tres sistemas de telemetría de Claude Code. No es un post sobre RGPD, pero te abre los ojos a cuántos datos envía a la nube una herramienta de IA aparentemente "local".
El argumento real para Platform: Zero Data Retention sobre Tensorix
Porque sabemos que aquí es donde el lector técnico pega el freno — "¿otra promesa de ZDR?" — nos vamos a mojar. Esto es lo que significa ZDR en Levante Platform, en concreto:
No almacenamiento de prompts ni completions. Los mensajes pasan por la infraestructura, se generan las respuestas, y se descartan. No quedan en disco.
Logs sin contenido. Lo que se registra es metadato (tokens, latencia, modelo, usuario) para facturación y troubleshooting, no el cuerpo del mensaje.
Infraestructura sujeta a jurisdicción europea. Tensorix es operador europeo, contratos bajo derecho español/europeo, sin dependencias directas de EEUU para la inferencia de los modelos open-source y los modelos propietarios están aislados cuando lo permiten.
DPA con cláusulas RGPD. Firmable por email o en la negociación enterprise. Con TIA hecho por nosotros, no por ti.
No somos perfectos: los modelos propietarios (Anthropic, OpenAI) siguen siendo lo que son — los usamos con ZDR API cuando está disponible, y con Tensorix cuando el modelo es open-source. Lo decimos porque es la verdad.
FAQ: 10 preguntas reales que nos hacen sobre IA y RGPD
1. ¿Qué es Zero Data Retention exactamente?
Es una configuración contractual y técnica por la que el proveedor se compromete a no almacenar los datos que le envías para inferencia más allá del tiempo estricto de procesamiento. No es lo mismo que "no entrenamos con tus datos" — es más estricto. Para que sea real, tiene que estar en el DPA y verificarse en la arquitectura.
2. ¿Schrems II aplica a herramientas de IA?
Sí, si la herramienta transfiere datos personales a EEUU (o a cualquier país sin decisión de adecuación). No hay excepción para IA. La sentencia habla de transferencias; el medio (API, SaaS, agente IA) es indiferente.
3. ¿El DPA de OpenAI me cubre legalmente?
Te cubre formalmente el art. 28, pero no cierra el problema de transferencias internacionales (art. 44-49) ni la base legal (art. 6). El DPA es condición necesaria, no suficiente. Tu DPO tiene que validarlo para tu caso concreto.
4. ¿Puedo usar ChatGPT Plus en trabajo si voy con cuidado?
Técnicamente no. ChatGPT Plus es un plan individual sin DPA empresarial ni ZDR. Si subes datos personales (incluyendo datos de colegas o clientes), es una infracción del RGPD aunque "vayas con cuidado". El uso empresarial requiere plan Team o Enterprise con DPA firmado.
5. ¿Qué pasa con los empleados que ya usan IA sin permiso?
Shadow AI. Inventario, triaje y regularización. No sanciones iniciales — la gente usa estas herramientas porque les hace la vida más fácil. Si les quitas el acceso sin darles alternativa, usarán sus teléfonos. Mejor darles una capa corporativa con acceso a varios modelos bajo control.
6. ¿Una IA "europea" es siempre mejor para RGPD?
Casi siempre, sí. Pero "europea" hay que demostrarlo con: infraestructura, operador, DPA bajo derecho europeo, subprocesadores. Hay SaaS con HQ en Madrid pero todo el backend en AWS us-east-1 — eso sigue siendo territorio EEUU para efectos prácticos.
7. ¿Necesito hacer una Evaluación de Impacto (EIPD/DPIA)?
Si el tratamiento es "de alto riesgo" (art. 35 RGPD), sí. Y usar IA generativa con datos personales a escala casi siempre entra en "alto riesgo" — volumen alto, tecnología nueva, decisiones automatizadas. Con IA, haz DPIA por defecto. Se hace una vez, se actualiza cuando cambia el tratamiento.
8. ¿El AI Act sustituye al RGPD?
No. Se suman. El AI Act regula el sistema de IA (cómo se diseña, prueba, documenta y despliega), el RGPD regula los datos personales que procesa. Un chatbot de atención al cliente tiene obligaciones de ambos reglamentos.
9. ¿Qué multas se han puesto ya por IA y RGPD?
La más sonada: Italia bloqueó temporalmente ChatGPT en 2023 y le impuso 15 millones de euros en 2024 por falta de base legal e insuficiente verificación de edad. En España, la AEPD abrió en 2025 varios procedimientos por uso indebido de IA con datos de clientes en sectores financiero y sanitario. Los números reales van creciendo trimestre a trimestre.
10. ¿Por dónde empiezo si soy una empresa de 50 personas?
Tres pasos, en orden: (1) inventario de herramientas de IA en uso (incluido Shadow AI), (2) DPIA básica para las 2-3 herramientas principales, (3) decisión arquitectónica: mantener fragmentado vs consolidar en una capa única. Si eliges consolidar, mira Levante Platform — te ahorra meses de auditoría proveedor a proveedor.
Qué hacer ahora
Si has llegado hasta aquí, probablemente estés en una de estas tres situaciones. Te dejo la siguiente acción por cada una:
"Mi empresa todavía no usa IA formalmente": perfecto, estás a tiempo de hacerlo bien. Define la política antes de adoptar. Evita que el primer uso sea Shadow AI.
"Usamos IA de grandes proveedores con plan enterprise": revisa DPA y configuración de retención. Haz la DPIA. Plantea si el ratio coste/riesgo compensa frente a una alternativa europea para los datos sensibles.
"Tenemos caos de Shadow AI": inventario esta semana, política el mes que viene, arquitectura objetivo el trimestre que viene. No hay atajo, pero tampoco hace falta un proyecto de 12 meses.
Y si quieres que te ahorremos el trabajo, mira cómo resolvemos esto nosotros en Levante Platform. Inferencia europea con Zero Data Retention, AI Gateway con una sola API key, política de privacidad detallada y código abierto para que auditéis la capa que media entre vuestro equipo y los modelos. Es lo más cercano a "IA conforme al RGPD por diseño" que hemos encontrado. En parte porque lo hemos construido nosotros. Y si falta algo, pídelo en feedback — el roadmap se decide así.
La IA útil no tiene por qué costar la soberanía de vuestros datos. En 2026 ya no hay excusa.
