Ley sobre Inteligencia Artificial (IA): Todo lo que debes saber sobre la nueva regulación en España y la Unión Europea

.

La Unión Europea ha propuesto una Ley de Inteligencia Artificial (IA Act) con el objetivo de regular el uso de la IA en todos los sectores, excepto el militar. La ley clasifica las aplicaciones de IA en función de su riesgo y las regula en consecuencia. Se prevé que la normativa se apruebe hacia finales del año y España será uno de los lugares de prueba para poner en práctica la ley.

La Ley sobre Inteligencia Artificial (IA)

La Unión Europea ha propuesto una Ley de Inteligencia Artificial (AI Act) que busca establecer un marco normativo y jurídico común para la IA en todos los sectores, a excepción del militar. El objetivo principal de la ley es fomentar la innovación en el sector tecnológico a la vez que se garantiza la seguridad y protección de los ciudadanos.

regulación IA

Ámbito de aplicación de la normativa

La ley se aplicará a cualquier sistema de IA utilizado en la Unión Europea, independientemente de su lugar de origen o de si se trata de un producto o servicio. Esta regulación afectará a empresas tanto grandes como pequeñas y pretende abarcar tanto el desarrollo como la comercialización de estos sistemas.

Clasificación de los sistemas de IA en función de su riesgo

La IA será clasificada en función de su nivel de riesgo para los individuos y la sociedad. Según esta clasificación, se establecerán niveles de exigencia en el cumplimiento de las obligaciones y requisitos de la ley, en lo que se refiere a evaluaciones técnicas, registro de información y notificación de incidentes.

  • Sistemas de IA de bajo riesgo

Estos sistemas no representan un riesgo significativo para la seguridad de las personas ni para los derechos fundamentales, por lo que estarán exentos de regulación, salvo para cumplir con los requisitos de información y transparencia.

Asimismo, se promoverá la existencia de códigos éticos y mecanismos voluntarios de autorregulación para que los agentes que desarrollen y comercialicen estos sistemas actúen de forma responsable.

sistemas de IA

  • Sistemas de IA de riesgo medio

Los sistemas de IA de riesgo medio presentan un nivel de riesgo mayor que los sistemas de bajo riesgo, pero no tanto como para ser calificados como sistemas de alto riesgo. Estos sistemas requerirán una evaluación obligatoria de la conformidad antes de su comercialización, así como el cumplimiento de una serie de requisitos específicos y obligaciones.

  • Sistemas de IA de alto riesgo

Los sistemas de IA de alto riesgo representan una amenaza significativa para la seguridad de las personas y los derechos fundamentales, por lo que se les aplicará la normativa más rigurosa. Además de una evaluación obligatoria de la conformidad antes de su comercialización, estos sistemas también estarán sujetos a requisitos de transparencia y rendición de cuentas, así como otros requisitos específicos, como la notificación de incidentes, el mantenimiento de registros o la creación de planes de contingencia.

Regulación de los sistemas de IA según su riesgo

La nueva Ley sobre Inteligencia Artificial (IA) clasifica las aplicaciones de la IA en función de su riesgo y las regula en consecuencia, estableciendo unos criterios de evaluación de la conformidad para los sistemas antes de su comercialización.

Regulación de los sistemas de IA según su riesgo

Sistemas de IA de bajo riesgo

Las aplicaciones de IA de bajo riesgo no se regulan en absoluto, pero se prevé una serie de principios éticos y un código de conducta voluntario para estos sistemas. Entre las aplicaciones de bajo riesgo se encuentran las herramientas de chatbot, filtrado de spam, análisis de sentimiento, asistentes virtuales y herramientas para la edición de texto.

Sistemas de IA de riesgo medio

Los sistemas de IA de riesgo medio requerirán una evaluación obligatoria de la conformidad antes de su comercialización, para garantizar que se adhieren a los requisitos legales y éticos, evitando cualquier problema para los consumidores o usuarios.

También se impondrán una serie de prohibiciones relacionadas con prácticas peligrosas o dañinas para la seguridad de los usuarios, así como nuevos requerimientos de documentación que detallen cómo se ha evaluado la conformidad.

Se consideran sistemas de IA de riesgo medio aquellos que controlan los procesos de ensayo clínico, sistemas de apoyo a los procesos judiciales, sistemas de reconocimiento de patrones en la detección de delitos, sistemas en instituciones de móviles, robots y drones diseñados para interactuar con seres humanos y sistemas de reclutamiento de personal.

reconocimiento biométrico por IA

Sistemas de IA de alto riesgo

Los sistemas de IA de alto riesgo tendrán una evaluación obligatoria de la conformidad aún mayor que los sistemas de IA de riesgo medio, junto a una serie de requisitos adicionales y un mayor nivel de documentación.

La ley prohíbe la vigilancia biométrica, el reconocimiento de emociones por IA y los sistemas policiales predictivos, entre otras prácticas de IA.

Los sistemas de IA de alto riesgo son aquellos que se encuentran en el ámbito de los coches autónomos, sistemas de transporte inteligente, sistemas de diagnóstico y tratamiento médico, sistemas que controlan infraestructuras críticas como la energía o alimentación, sistemas de reconocimiento facial y sistemas de inteligencia artificial militar.

Requisitos para los fabricantes y responsables de los sistemas de IA

Los fabricantes y responsables de los sistemas de IA deben garantizar que los sistemas cumplan con los requisitos de evaluación obligatoria de la conformidad especificados en la ley, incluyendo documentación detallada, la recopilación de datos necesarios para una evaluación de conformidad y la declaración de que el sistema cumple con las regulaciones y normativas aplicables.

Además, deben comprometerse a elaborar informes regulares sobre el uso del sistema y cómo se está adaptando a las necesidades de los usuarios, junto con una serie de principios éticos que deberían cumplirse en cada aplicación, con el fin de garantizar su buen funcionamiento y minimizar cualquier posible impacto negativo que puedan tener los sistemas de IA en los usuarios.

Prohibiciones de la Ley de IA

Prohibiciones de la Ley de IA

La Ley de Inteligencia Artificial establece una serie de prohibiciones para ciertas prácticas de IA que son consideradas peligrosas para la privacidad y los derechos humanos. A continuación, se detallan las principales:

Vigilancia biométrica

La vigilancia biométrica por IA queda prohibida por la Ley, ya que esta tecnología permite la identificación de personas a través de rasgos físicos y características únicas como el rostro, las huellas dactilares o el iris del ojo.

Esta práctica es considerada una amenaza para la privacidad y la protección de datos personales, y su uso queda limitado para campos específicos como la seguridad, investigación y justicia, previa autorización legal y bajo estrictas garantías.

Reconocimiento de emociones por IA

Otra práctica prohibida por la Ley de IA es el reconocimiento de emociones a partir de datos biométricos o rasgos faciales, mediante el uso de algoritmos de aprendizaje automático.

Esta técnica tiene implicaciones éticas y resulta especialmente invasiva para la privacidad y la intimidad, ya que puede identificar a personas por su comportamiento y estado emocional y resultar discriminatorio o perjudicar su reputación.

Sistemas policiales predictivos

La Ley de IA también prohíbe el uso de sistemas policiales de predicción sobre posibles delitos o comportamientos sociales, ya que estos sistemas están basados en criterios subjetivos que pueden llevar a errores discriminativos y generar perjuicios a ciertos grupos sociales o minorías.

La utilización de estos sistemas está limitada a la predicción de delitos contra la seguridad pública y solo se puede aplicar bajo supervisión y evaluación rigurosas para prevenir el sesgo y la discriminación.

sistemas inteligentes de seguridad

Requerimientos de transparencia para los sistemas de IA de alto riesgo

La Ley sobre Inteligencia Artificial (IA) establece requisitos específicos para los sistemas de IA de alto riesgo, definidos como aquellos que pueden causar daño físico o financiero, discriminación o violación de derechos fundamentales. Estos sistemas estarían sujetos a una evaluación obligatoria de la conformidad antes de la comercialización.

Evaluación obligatoria de la conformidad antes de la comercialización

La evaluación de conformidad se llevará a cabo según criterios técnicos. Los fabricantes y responsables de estos sistemas deben garantizar que cumplen los requisitos de calidad y confiabilidad, que se explicarán detalladamente en una serie de medidas técnicas de seguridad y privacidad. Además, se establecerán planes de contingencia en caso de que ocurra una situación de emergencia.

Medidas para minimizar sesgos y aumentar la transparencia

En cuanto a la minimización de sesgos discriminatorios, se establecerán medidas para evitar la discriminación en la selección de datos y en la selección de las variables que se usan en el modelo de inteligencia artificial.

Los sistemas no deben incorporar datos personales que puedan discriminar a ciertos grupos de población. Además, se exigirán datos de calidad a las empresas que proporcionen datos de entrenamiento, para evitar que datos sesgados afecten negativamente a la precisión del sistema.

En cuanto a la transparencia, los sistemas de IA de alto riesgo estarán sujetos a requerimientos de información claros y significativos que permitan a las personas entender el funcionamiento de los mismos y la lógica detrás de los resultados obtenidos. Las empresas deben proporcionar información detallada sobre el proceso de toma de decisiones y los datos utilizados para entrenar el modelo de IA.

robots en la industria

Requisitos por parte de los fabricantes y responsables de los sistemas de IA

Los fabricantes y responsables de los sistemas de IA deberán proporcionar información precisa y clara sobre el uso de los sistemas, incluyendo las limitaciones en cuanto a su uso. También deberán garantizar que los sistemas de IA se usen de forma ética y responsable, y que no causen daño a las personas.

Implementación de la Ley de IA en España y la UE

La Ley de Inteligencia Artificial propuesta por la UE establece un marco normativo y jurídico común para la IA en todos los sectores, excepto el militar. La clasificación de las aplicaciones de IA en función de su riesgo ha sido una de las medidas más impactantes de la ley. España, junto con otros países miembro de la UE, implementará esta nueva normativa antes de finales de año, con el fin de regular su uso y establecer un marco regulatorio para todo el sector de la IA.

Regulación de la IA en España

En España, ya se ha regulado la IA a través de la Estrategia España Digital 2025 y la Estrategia Nacional de Inteligencia Artificial (ENIA). Además, la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, establece medidas para minimizar sesgos y aumentar la transparencia y la rendición de cuentas en las administraciones públicas que utilizan algoritmos. Estas regulaciones están en línea con los objetivos principales de la Ley de IA propuesta por la UE, que también busca minimizar riesgos y evitar discriminación.

Implementación de la Ley de IA en España

Amnistía Internacional y la Ley de IA

Amnistía Internacional ha solicitado al Parlamento Europeo que se prohíba el uso de sistemas que elaboran perfiles racistas y discriminatorios, así como herramientas de identificación biométrica remota en la Ley de IA.

La organización también ha pedido que se prohíba el uso de tecnologías de vigilancia masiva. La UE ha tomado en cuenta estas recomendaciones y se espera que su legislación contemple estas prohibiciones.

Aprobación de la Ley de IA por el Parlamento Europeo

La propuesta de ley ha sido aprobada por el Parlamento Europeo con una mayoría de votos a favor, lo que representa un gran avance en la regulación de la IA en la UE.

La legislación establece un marco regulatorio para todo el sector de la IA y busca establecer un nuevo estándar global para la supervisión de la IA en todo el mundo. La fecha para su aprobación definitiva se acerca y se espera que entre en vigor antes de finales del año.

España como lugar de prueba para su implementación

La implementación de la Ley de IA en España será un gran paso en su aplicación práctica en la UE. España será uno de los lugares de prueba para poner en práctica la ley, lo que permitirá la evaluación y mejora de la regulación en otros estados miembros. La regulación de la IA tiene un gran potencial para garantizar su uso responsable y seguro, y España será un actor clave en su implementación práctica.

Ética en la Inteligencia Artificial

La ética en la Inteligencia Artificial (IA) es un tema de gran relevancia y preocupación en la actualidad. Con el aumento del uso de la IA en diferentes sectores, es necesario desarrollar sistemas éticos y confiables que puedan ser utilizados de manera responsable.

Desarrollo ético y confiable de la IA

El desarrollo ético y confiable de la IA es un objetivo fundamental de la Ley de IA. Para lograrlo, se requiere un enfoque centrado en el ser humano y el respeto a los derechos fundamentales. Además, se hace necesario garantizar la seguridad y privacidad de los datos personales, así como el control humano sobre la IA.

Realización de evaluaciones de impacto

La realización de evaluaciones de impacto es otra parte importante de la ética en la IA. Estas evaluaciones permiten identificar posibles efectos negativos o potenciales riesgos que puede tener el uso de la IA en diferentes sectores. Además, ayudan a establecer medidas para mitigar estos riesgos y garantizar su uso responsable.

Algunas medidas que pueden establecerse son:

  • Evaluaciones periódicas del desempeño de los sistemas de IA
  • Garantizar la transparencia en el desarrollo de la IA
  • Desarrollar sistemas de IA que respeten la privacidad de los datos personales
  • Establecer medidas para minimizar la discriminación y el sesgo en los sistemas de IA

Ética en la Inteligencia Artificial

Promoción de la minimización de sesgos discriminatorios

La minimización de sesgos discriminatorios es otra preocupación relevante en la ética en la IA. La IA puede reflejar y potenciar los prejuicios y la discriminación existentes en la sociedad, por lo que es necesario establecer medidas para minimizar estos sesgos.

Algunas medidas que pueden establecerse son:

  • Realizar evaluaciones de impacto que identifiquen y aborden los posibles sesgos
  • Asegurar la diversidad y representatividad de las personas involucradas en el desarrollo de la IA
  • Establecer medidas para garantizar la transparencia y la rendición de cuentas en el uso de la IA

Transparencia y rendición de cuentas en la creación de sistemas de IA

La creación de sistemas de IA debe ser transparente y estar sujeta a rendición de cuentas. Es importante que las personas puedan entender cómo funcionan estos sistemas y cuál es su impacto en su vida cotidiana. Además, las personas deben tener un grado de control sobre su interacción con los sistemas de IA, y también se hace necesario establecer responsabilidades claras para los creadores y usuarios de la IA.

Algunas medidas que pueden establecerse son:

  • Garantizar la transparencia en el funcionamiento de los sistemas de IA
  • Establecer mecanismos de control humano y mecanismos de apelación
  • Establecer responsabilidades claras para los creadores y usuarios de la IA

Mira nuestras
Últimas noticias relacionadas
¡Suscríbete a nuestra Newsletter!

¡Suscríbete a nuestra revista!