La Unión Europea vuelve a situarse ante una encrucijada que pone a prueba su identidad política y tecnológica. Mientras Bruselas estudia flexibilizar el Reglamento General de Protección de Datos (RGPD) para no quedar rezagada en el desarrollo de la inteligencia artificial (IA), al mismo tiempo ha decidido aplazar hasta diciembre de 2027 la aplicación efectiva de la Ley de IA para sistemas considerados de alto riesgo. Dos movimientos aparentemente contradictorios que evidencian la dificultad de Europa para competir en la carrera global de la IA sin erosionar los principios que han definido su modelo digital.
Desde su entrada en vigor en 2018, el RGPD convirtió a la UE en un referente mundial en la protección de datos personales. Sus principios de minimización, consentimiento informado y limitación de finalidad marcaron un estándar que inspiró legislaciones similares en otros países. Sin embargo, el auge de la IA generativa ha tensionado ese marco normativo hasta el límite. Modelos como ChatGPT, Gemini o Claude requieren enormes volúmenes de datos para entrenarse, aprender patrones y mejorar su precisión, una lógica que choca frontalmente con una regulación diseñada para restringir el uso masivo de información personal.
Según ha revelado el diario Politico, la Comisión Europea valora reclasificar el desarrollo de sistemas de IA como una actividad de “interés público” o equiparable a la investigación científica. Esta reinterpretación permitiría reutilizar datos anonimizados sin necesidad de solicitar un nuevo consentimiento a los ciudadanos, un cambio que podría suponer un punto de inflexión en la política de privacidad europea.
Para Sergio García Estradera, gerente de la consultora tecnológica i3e, esta propuesta va mucho más allá de un ajuste técnico. “Supone un cambio ideológico profundo”, advierte. “Redefinir la investigación científica para incluir productos comerciales abre la puerta a una erosión sistemática de los derechos digitales”. A su juicio, la UE corre el riesgo de diluir una de sus principales señas de identidad en un intento por acelerar la innovación.
El debate no es menor. Mientras Estados Unidos apuesta por un enfoque más laxo y China impulsa el desarrollo de la IA bajo un fuerte control estatal, Europa ha tratado de situarse en un punto intermedio, donde la innovación conviva con la protección de los derechos fundamentales. “Europa llega tarde a la carrera de la IA”, reconoce García, “pero no puede traicionar los principios que la han definido. La privacidad no debería ser una moneda de cambio, sino una ventaja competitiva si se integra en un marco de innovación responsable”.
El aplazamiento de la Ley de IA en Europa
A esta revisión del RGPD se suma otra decisión controvertida: el retraso en la aplicación de la Ley de IA para sistemas de alto riesgo, aprobada en 2024 como la primera gran regulación integral del mundo sobre esta tecnología. La normativa debía entrar en vigor progresivamente, pero Bruselas ha decidido conceder más de un año adicional antes de exigir su cumplimiento pleno.
El argumento oficial apunta a la necesidad de ganar tiempo para definir estándares técnicos comunes y reducir la carga administrativa para las empresas, un alivio que, según estimaciones comunitarias, podría suponer un ahorro de hasta 225 millones de euros. Sin embargo, el coste de esta prórroga podría ser elevado en términos de seguridad y confianza.
Durante este periodo, tecnologías especialmente sensibles —como los sistemas de identificación biométrica, los algoritmos de evaluación crediticia o la gestión inteligente del tráfico urbano— seguirán operando sin un marco regulatorio plenamente exigible. “Posponer la regulación significa convivir con tecnologías que manejan información crítica sin estándares claros de seguridad”, alerta García Estradera.
Un vacío legal en un contexto de riesgo creciente
El aplazamiento se produce, además, en un momento especialmente delicado desde el punto de vista de la ciberseguridad. Los ciberataques crecen a un ritmo cercano al 30% anual y la propia IA se ha convertido en un nuevo vector de ataque, tanto para automatizar intrusiones como para generar desinformación o suplantaciones sofisticadas.
“La simplificación administrativa no debe traducirse en desprotección”, subraya el experto. En su opinión, el retraso normativo obliga a las empresas a asumir una responsabilidad adicional. “Deben anticiparse con auditorías de sistemas, autenticación robusta y monitorización continua. De lo contrario, la falta de regulación puede convertirse en un riesgo sistémico”.
Este escenario genera inquietud entre expertos y organizaciones de defensa de los derechos digitales, que temen que el equilibrio entre innovación y protección se incline demasiado hacia el primero. La confianza del ciudadano, recuerdan, es un activo clave para la adopción de nuevas tecnologías, y cualquier percepción de descontrol puede frenar su aceptación social.
Innovar sin perder el rumbo
Europa intenta así hacer frente a gigantes tecnológicos como Estados Unidos y China, pero lo hace atrapada entre presiones económicas, tensiones políticas y dilemas éticos. La Comisión Europea prevé presentar en los próximos meses una propuesta formal de revisión del RGPD, mientras la Ley de IA permanece en pausa, a la espera de un marco técnico definitivo.
La pregunta de fondo sigue abierta: ¿puede la Unión Europea liderar la innovación tecnológica sin renunciar a los valores que la han convertido en un referente global en derechos digitales? Para muchos expertos, la respuesta dependerá de si Bruselas logra transformar la privacidad en un elemento diferenciador y no en un obstáculo, demostrando que es posible competir en la era de la inteligencia artificial sin sacrificar la confianza de los ciudadanos.









