Directivos y Empresas

Hacia una mayor ética ¿de la mano de la IA?

Joan Casas-Roma, investigador del grupo Smartlearn, de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC), ha publicado un escruto sobre las posibilidades que brinda la tecnología inteligente desde el punto de vista de la ética.

La dimensión ética ha sido objeto de múltiples trabajos de investigación en la inteligencia artificial, sin embargo, el conocimiento actual incrementa el potencial para considerar más beneficios en el avance de esta materia. Queda claro en la reflexión del investigador que los desafíos éticos de la humanidad no son un problema tecnológico, sino social.

Lo que puede hacer la tecnología es empoderar a las personas para avanzar hacia un mundo más éticamente deseable. Esto implica repensar en modelos y tecnologías, sobre todo en algoritmos de inteligencia artificial, de forma que los usuarios se apoyen en ellas.

En una mirada retrospectiva, Casas-Roma recuerda las tres leyes formuladas por Isaac Asimov hace 80 años:

  1. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de las que entren en conflicto con el punto anterior.
  3. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con lo establecido antes.

En ese momento apenas había tecnología, el mundo se movía por otros cauces, sin ordenadores ni internet, pero Asimov dejaba ver que el ser humano temía que las máquinas inteligentes que él mismo había diseñado se rebelasen contra su especie. Con la aparición de la computación, esos miedos se disiparon al tratarse de datos objetivos. “Se derivaba de un algoritmo de la misma manera que se deriva de un cálculo matemático. La inteligencia artificial era objetiva y, por lo tanto, nos ayudaba a eliminar los sesgos humanos», explica Joan Casas-Roma.

Pero la objetividad no era tal, dado que los algoritmos replicaban el punto de vista de una persona que lo había programado, por tanto no se eliminaban los sesgos humanos, sino que los trasladaba a una máquina. Así que, volviendo al punto inicial, el ser humano decidió actuar para contener los efectos nocivos de la tecnología. «La pregunta ética de la inteligencia artificial nació de la necesidad de construir un caparazón para que los efectos indeseables de la tecnología sobre los usuarios no siguieran perpetuándose. Era necesario hacerlo», subraya Casas-Roma.

Con este necesario contexto, la pregunta clave es ¿cómo puede la tecnología ayudarnos a avanzar en la construcción de un futuro éticamente deseable?

valores-de-la-IA

Ética y tecnología: un enfoque idealista

 

Para el experto, se puede repensar la tecnología desde un enfoque de idealismo ético bajo el cual la inteligencia artificial debería reunir las siguientes características:

Una sociedad más cooperativa

 

Desde el modelo descrito, Casas-Roma señala el camino hacia una sociedad más cooperativa para afrontar los grandes desafíos globales. Ejemplo de esa cooperación puede darse en el mundo de la educación online. «La tecnología podría fomentar más sensación de cooperación y crear un mayor sentimiento de comunidad. Por ejemplo, en lugar de tener un sistema que solo haga correcciones automáticas de los ejercicios, podría también enviar un mensaje a otro compañero o compañera del curso que haya solucionado el problema para facilitar que el estudiantado se ayude. Es solo una idea para entender cómo el diseño de la tecnología puede llevarnos a interactuar de forma en que se fomente la comunidad y la cooperación», sostiene el investigador.

«No es tanto un tema de datos o de algoritmos. Es un tema de repensar cómo interactuamos y cómo querríamos hacerlo, qué es lo que habilitamos mediante una tecnología que se impone como medio», concluye Joan Casas-Roma.

Salir de la versión móvil