La pregunta más repetida en cualquier comité legal que tenga que aprobar IA generativa en una empresa europea no es "¿es buena la IA?". Es: ¿podemos mandar nuestros datos a OpenAI/Anthropic/Google sin romper el RGPD?
La respuesta corta es "sí, con condiciones, y con un calendario muy frágil". La respuesta larga depende de Schrems II, del Data Privacy Framework, de la Sección 702 de FISA que sunsetiza el 20 de abril de 2026, y de qué proveedor concreto uses.
Vamos a repasar todo lo que necesitas para meter un LLM americano en producción con datos de usuarios europeos sin que tu DPO te llame por teléfono el miércoles a las 9 AM.
Por qué esto es un problema en primer lugar
La mayoría de LLMs frontier que querrás usar en producción tienen su infraestructura en EE.UU.: OpenAI corre sobre Azure (parcialmente en EU), Anthropic sobre AWS y Google Cloud (multi-region), Google sobre Vertex AI (con regiones EU). Cada vez que mandas un prompt con datos personales, estás haciendo una transferencia internacional de datos. El RGPD prohíbe transferencias a países sin nivel adecuado de protección, salvo que uses uno de los mecanismos que el propio reglamento permite (Capítulo V del RGPD).
Si el AI Act es la regulación específica de IA, el RGPD sigue siendo la base jurídica que se aplica a cualquier procesamiento de datos personales, IA incluida. Si el pillar de IA y RGPD para empresas te aclara el panorama general, este post entra en el cuello de botella concreto: la transferencia internacional.
Schrems II en 30 segundos (2020)
El Tribunal de Justicia de la UE invalidó el Privacy Shield en julio de 2020 (asunto C-311/18). El motivo: los programas de vigilancia masiva de EE.UU. (Sección 702 de FISA, Executive Order 12333) permitían a la NSA acceder a datos europeos sin garantías equivalentes a las del RGPD.
Consecuencias prácticas para empresas europeas:
Cualquier transferencia a EE.UU. necesita un mecanismo válido (SCCs, BCRs, derogaciones).
Las SCCs no bastan por sí mismas si no hay garantías suplementarias.
Hace falta un TIA (Transfer Impact Assessment) documentado.
Marco actual en 2026: Data Privacy Framework
Tras varios años de limbo, en julio de 2023 la Comisión Europea adoptó el EU-U.S. Data Privacy Framework (DPF) como nueva decisión de adecuación parcial. EE.UU. modificó algunas garantías de su sistema de inteligencia (Executive Order 14086) y la Comisión decidió que era suficiente.
Estado a abril de 2026:
Más de 3.500 entidades estadounidenses están auto-certificadas, incluyendo OpenAI, Anthropic y Google (dataprivacyframework.gov).
En septiembre de 2025 el Tribunal General desestimó el recurso Latombe contra el DPF, pero Latombe lo apeló ante el TJUE en octubre de 2025.
El TJUE (más estricto históricamente que el Tribunal General) tiene previsto pronunciarse a finales de 2026 o en 2027. Una sentencia tipo Schrems III podría volver a invalidarlo.
Crítico: la Sección 702 de FISA, la disposición que ha tumbado todos los acuerdos previos (Safe Harbor en 2015, Privacy Shield en 2020), sunsetiza el 20 de abril de 2026. Su renovación o no afecta directamente a la viabilidad del DPF.
Traducido: el DPF funciona hoy, pero no apuestes el negocio a que dure.
Mecanismos válidos para LLMs
1. DPF (Data Privacy Framework)
Si el proveedor está auto-certificado en el DPF, es el mecanismo más sencillo. Lo verificas en la lista pública del programa DPF y lo documentas en tu registro de actividades.
OpenAI: certificada DPF.
Anthropic: certificada DPF.
Google (LLC + Cloud): certificada DPF.
Microsoft: certificada DPF (afecta a Azure OpenAI).
AWS: certificada DPF (afecta a Bedrock).
Verifica siempre en dataprivacyframework.gov que el certificado sigue activo. No es eterno.
2. SCCs (Standard Contractual Clauses)
Las cláusulas contractuales tipo aprobadas por la Comisión Europea en 2021. Para un LLM cloud lo habitual es el Módulo 2 (controlador en EU → procesador fuera de EU) o el Módulo 3 (procesador → procesador) si tu proveedor de IA actúa como sub-procesador.
Las SCCs no son automáticas: requieren TIA (siguiente sección) y, según el resultado, medidas suplementarias (cifrado en tránsito y en reposo, pseudonimización del prompt, etc.).
3. BCRs (Binding Corporate Rules)
Reglas corporativas vinculantes aprobadas por la AEPD (en España) tras un proceso largo. Útiles para grupos multinacionales con filiales en EU; raras en proveedores SaaS LLM, pero algunas big tech sí las tienen.
4. Derogaciones del Art. 49
Excepciones tasadas: consentimiento explícito del interesado, ejecución de contrato, interés vital. No sirven para producción regular: la AEPD y la EDPB las interpretan de forma estricta y no admiten que sean la base habitual de un servicio.
TIA: Transfer Impact Assessment para IA
El TIA es la evaluación formal que tienes que hacer antes de transferir. La EDPB la describe en su Recomendación 01/2020 y es revisión obligatoria post-Schrems II.
Para IA, hay seis ejes específicos a evaluar:
Quién accede a los datos: ¿el modelo entrena con tu input? Si sí, ¿en qué jurisdicción? Si no, ¿hay logs persistentes y dónde se almacenan?
Marco legal del país receptor: en EE.UU., FISA 702, EO 12333, CLOUD Act. Cómo afectan al proveedor concreto.
Garantías suplementarias técnicas: cifrado, pseudonimización, Zero Data Retention.
Garantías contractuales: cláusulas adicionales sobre auditoría, notificación de government access requests, redirección a regiones EU.
Riesgo residual: qué probabilidad real hay de acceso por autoridades del país receptor a tus datos concretos.
Derechos efectivos del interesado: ¿puede un ciudadano europeo demandar al proveedor americano y obtener tutela efectiva?
El TIA se documenta y se conserva. Si te audita la AEPD, lo van a pedir.
Cláusulas adicionales que tienes que negociar (o exigir)
Sea con DPF o con SCCs, hay cláusulas que cierran agujeros:
Zero Data Retention real: Anthropic y OpenAI ofrecen ZDR para enterprise. Documenta el flag concreto y cómo se audita.
Cifrado: TLS 1.3 mínimo en tránsito; AES-256 en reposo donde haya almacenamiento (logs, fine-tuning, embeddings).
Region pinning: si el proveedor ofrece región EU (como Anthropic en Bedrock Frankfurt o Google en Vertex AI Frankfurt), úsala y documenta.
Government access notification: cláusula que obligue al proveedor a notificarte (cuando legalmente pueda) cualquier petición gubernamental sobre tus datos.
Audit logs accesibles: que puedas pedir y revisar quién accedió y cuándo.
Sub-processors list: lista pública y mecanismo de oposición a cambios.
Estos detalles los cubre el DPA con tu proveedor de IA en profundidad.
Estado por proveedor — abril 2026
Anthropic
DPF: ✅ certificada.
SCCs: ✅ disponibles en su DPA.
Región EU: AWS Bedrock Frankfurt (eu-central-1) con cross-region inference RGPD-compliant. Google Vertex AI Frankfurt (europe-west3) ofrece procesamiento genuino in-region. Microsoft Foundry Sweden Central es la única región Azure con Claude dentro de EU.
ZDR: disponible para enterprise.
Caveat: en octubre 2025 Anthropic amplió uso de Google Cloud TPU; Google Cloud aparece como sub-procesador.
OpenAI
DPF: ✅ certificada.
SCCs: ✅ vía Azure OpenAI o directamente.
Región EU: OpenAI ofrece data residency en Reino Unido y otras regiones para Enterprise y Education (lanzado febrero 2025). Azure OpenAI Sweden Central / France Central / Germany West Central desde hace tiempo.
ZDR: disponible.
Caveat: OpenAI consumer (ChatGPT Plus) no tiene los mismos controles que Enterprise; muchas empresas se equivocan aquí.
Google (Vertex AI / Gemini)
DPF: ✅ certificada.
SCCs: ✅.
Región EU: Vertex AI tiene múltiples regiones europeas (Belgium, Frankfurt, Madrid, Milan, Paris, etc.). Algunos modelos Gemini solo procesan en EE.UU. todavía; verifica modelo a modelo.
ZDR: vía Vertex AI con configuración explícita.
Microsoft Azure OpenAI
DPF: ✅ Microsoft certificada.
SCCs: ✅.
Región EU: amplia cobertura (varias regiones europeas).
ZDR: por defecto en Azure OpenAI (no entrena con tus datos).
Caveat: Microsoft tiene su propio compromiso "EU Data Boundary" que añade garantías adicionales sobre soporte y telemetría.
Mistral
DPF: irrelevante, es proveedor europeo (Francia). Sin transferencia internacional.
Modelo recomendado para casos donde la transferencia es bloqueante.
Cuándo el self-hosted es la respuesta correcta
A veces, después de tres reuniones con legal, la conclusión es: "esta línea de producto no puede usar LLM americano". Sectores donde lo vemos seguido:
Salud y datos clínicos sujetos a la Ley 3/2018 LOPDGDD y al RGPD reforzado.
Sector público / administraciones: ENS, esquemas nacionales de seguridad.
Datos especialmente protegidos: art. 9 RGPD (ideología, religión, salud, biometría, orientación sexual).
Procesamiento masivo de menores.
Defensa y dual use.
En esos casos, la opción es self-host de modelos abiertos (Mistral, Llama 3.3, Qwen, GLM, DeepSeek si te conviene) en infraestructura europea. Si vienes del pillar de IA local o has visto los modelos chinos open source, el patrón es el mismo: pesos descargados, inferencia en tu data center o en cloud europeo, cero transferencia.
Levante Platform ofrece exactamente esto: AI Gateway con Zero Data Retention y Tensorix como capa de inferencia europea, donde los datos no salen de la UE ni siquiera para el modelo cloud.
Enforcement reciente — qué están haciendo las autoridades
AEPD: en 2025 abrió expedientes informativos contra varias empresas españolas por usar ChatGPT con datos de usuarios sin documentar la transferencia. Resoluciones esperadas a lo largo de 2026.
Irish DPC: lleva los casos contra Meta y Google sobre transferencias estructurales. La línea sigue siendo dura post-Schrems II.
CNIL (Francia): publicó en diciembre de 2025 una guía específica sobre IA generativa y transferencias, exigiendo TIA documentado para cualquier proveedor americano.
EDPB: en su Opinión 28/2024 sobre LLMs y datos personales clarificó que el LLM en sí puede ser dato personal cuando memoriza training data.
Checklist práctica
Antes de aprobar un LLM americano para producción europea:
El elefante en la habitación: ¿qué pasa si cae el DPF?
Tres escenarios:
DPF se mantiene (escenario base): seguimos como hasta ahora, monitorizando.
DPF cae pero hay sucesor rápido (ya pasó dos veces): periodo gris de 6-18 meses con SCCs + TIA mientras se cocina el sustituto. Riesgo gestionable si tienes la documentación al día.
DPF cae y no hay reemplazo: escenario incómodo. Los proveedores americanos cambiarán DPAs y empujarán SCCs reforzados, pero muchas empresas tendrán que migrar a EU-only o a self-hosted. Es el escenario para el que conviene tener plan.
La FISA 702 sunsetiza el 20 de abril de 2026 según el calendario actual. Su renovación es prácticamente segura, pero los términos importan: si Congress endurece las salvaguardas, el DPF aguanta mejor en TJUE; si las afloja, Schrems III tiene más recorrido.
Conclusión
Hoy, abril de 2026, se puede usar IA americana en producción europea conforme a RGPD, con DPF + SCCs + TIA + ZDR + región EU + AIPD documentada. No es un trámite, es una pila de documentos que tu DPO tiene que poder enseñar el día que llame la AEPD.
Lo prudente es tener documentación impecable hoy y plan B operativo (self-hosted en EU) para mañana. Si pierdes una semana porque cae el DPF y no estabas preparado, mejor que se note poco.
Datos verificados con Comisión Europea, DPF Program Overview, EDPB Recomendación 01/2020, AEPD y CNIL (abril 2026).



