Saltar a contenido principal

El Tribunal Regional de Múnich ha dictado una sentencia que, probablemente, marcará un antes y un después en el acercamiento de empresas, desarrolladores y usuarios a la inteligencia artificial (IA) en Europa.

El caso GEMA vs. OpenAI, que enfrenta a la poderosa sociedad de gestión de derechos alemana con uno de los principales desarrolladores globales de IA generativa, sienta un precedente jurídico que reconfigura las bases de la innovación tecnológica en el continente.

El tribunal concluyó que el modelo ChatGPT infringió derechos de autor al haber sido entrenado con letras de canciones y al ser capaz de reproducirlas íntegramente. Según el fallo, esa capacidad demuestra un uso no autorizado de obras protegidas, constituyendo un acto de reproducción que requiere licencia.En otras palabras: la forma en que se entrenan los modelos de IA puede implicar responsabilidad legal directa.

La sentencia rechaza de forma expresa que las excepciones de minería de textos y datos —una de las grandes defensas jurídicas de los desarrolladores de IA— cubran los casos en los que los modelos “memorizan” y reproducen contenidos protegidos. Con esta decisión, el tribunal alemán no solo eleva el listón de cumplimiento, sino que envía un mensaje contundente al ecosistema tecnológico europeo: el uso de datos protegidos exige transparencia, trazabilidad y autorización previa.

El Tribunal Regional de Múnich ha dictado una sentencia que, probablemente, marcará un antes y un después en el acercamiento de empresas, desarrolladores y usuarios a la inteligencia artificial (IA) en Europa.

Desde la perspectiva empresarial, las implicaciones son profundas. El fallo introduce una capa adicional de riesgo en la cadena de valor de la IA y obliga a repensar cómo se gestionan los datos, los contratos de licencia y las políticas internas de cumplimiento. Las organizaciones que desarrollen, adquieran o integren soluciones de IA deberán asegurarse de que sus proveedores puedan acreditar la legitimidad del entrenamiento y la procedencia de los datos.

Este cambio no ocurre en el vacío. En paralelo, el Reino Unido ha ofrecido un contrapunto relevante con el caso Getty Images vs. Stability AI. La High Court británica desestimó la mayoría de las pretensiones de Getty al considerar que el modelo Stable Diffusion no copió literalmente las obras, sino que aprendió patrones estadísticos. Esa distinción —entre reproducir y aprender— abre un debate sobre dónde termina el uso legítimo de los datos y dónde comienza la infracción.

El fallo introduce una capa adicional de riesgo en la cadena de valor de la IA y obliga a repensar cómo se gestionan los datos, los contratos de licencia y las políticas internas de cumplimiento.

Sin embargo, el tribunal británico sí apreció infracción de marca registrada por la aparición de las marcas de agua de Getty en imágenes generadas. Este detalle subraya un aspecto que los consejos de administración no pueden pasar por alto: los conflictos jurídicos derivados de la IA trascienden el copyright y se extienden a las marcas, la competencia desleal, la privacidad y la protección del consumidor.

Para las empresas europeas, el mensaje es claro. El marco regulatorio avanza hacia una mayor exigencia de trazabilidad, licenciamiento y gobernanza de datos. La reciente aprobación del AI Act europeo y decisiones como la del caso GEMA refuerzan la idea de que la innovación solo será sostenible si es jurídicamente sólida.

En este nuevo contexto, la gestión del riesgo asociado a la IA debe abordarse con la misma seriedad que los riesgos financieros o de cumplimiento normativo.Será esencial incorporar políticas de auditoría de datos, revisar cláusulas contractuales con proveedores tecnológicos y promover prácticas de IA responsable, no como ejercicio de reputación, sino como pilar de sostenibilidad competitiva.

Paradójicamente, este endurecimiento regulatorio puede convertirse en una oportunidad. Europa, al definir con mayor claridad los límites legales, ofrece a las empresas un marco de certidumbre para innovar dentro de reglas conocidas. Las compañías que se anticipen —garantizando licencias, trazabilidad y transparencia— no solo reducirán riesgos, sino que ganarán ventaja competitiva frente a competidores menos preparados.

El caso GEMA vs. OpenAI marca, por tanto, un punto de inflexión. No se trata solo de un litigio sobre derechos de autor, sino de una señal inequívoca sobre cómo deberá construirse la próxima generación de inteligencia artificial: ética, autorizada y jurídicamente responsable.

Las empresas que comprendan esta nueva lógica no verán la regulación como una barrera, sino como el terreno firme sobre el que edificar su futuro digital.

SUSANA CHECA - UNIE

 

 

 

 

Susana Checa

directora del Grado en Derecho y del Máster en Acceso a la Abogacía y Procura en UNIE Universidad