Directivos y Empresas

Computación afectiva e IA para mejorar los procesos de rehabilitación en los pacientes

Gracias al análisis y la identificación de las emociones, un proceso de rehabilitación para un paciente con patologías neurológicas se puede hacer mucho más rápido y sencillo. Lo puede demostrar Jafet Rodríguez, Profesor, investigador y director de la carrera de Ingeniería en Sistemas y Gráficas Computacionales en la Universidad Panamericana de México, gracias a un proyecto que lidera sobre cómputo afectivo e inteligencia artificial.

Muchos gurús han pedido parar los desarrollos y entrenamientos de la Inteligencia Artificial generativa. Nos han metido cierto miedo, pero ¿qué es lo que se debe parar exactamente y cuál es su punto de vista?

La cuestión es que se ha producido un gran avance, pero de forma desmedida. Realmente no se ha considerado en qué situaciones se puede utilizar la inteligencia artificial. Esta solicitud específica se ha hecho por el rápido avance de la tecnología y se necesita una pequeña pausa para poder analizar cómo debería seguir creciendo todo y en qué sectores está más indicada esta evolución.

En mi opinión, en ciertas áreas puede haber progresos muy interesantes, de hecho, la medicina ha avanzado mucho gracias a esto. Uno de estos avances se ha dado en la computación afectiva, demostrándose que se puede ayudar mucho a las personas en procesos de rehabilitación.

Pero sí, es un tema en el que hay que tener cierto cuidado y que no se entrenen redes de IA para cualquier propósito.

Computación afectiva e IA

La IA ha estado detrás de la gestión de la pandemia de la Covid-19 y del desarrollo de la vacuna. ¿Se ha abierto la puerta a un nuevo paradigma en la investigación de terapias?

Específicamente en el desarrollo de las vacunas, no estoy seguro de que la IA haya tenido influencia, porque recordemos que esta tecnología requiere que entrenemos redes neuronales. A todos nos cogió por sorpresa la llegada de la pandemia y no había datos para contrastar y por ello fue sumamente complicado poder entrenar algún sistema.

Mediante este proyecto, se agrega una diadema a los pacientes y por medio de ella se hace una lectura de ondas cerebrales, apoyado por lo que ven a través de unas gafas de realidad virtual

De hecho, en las últimas semanas se ha encontrado que muchas publicaciones científicas han tenido que ser retiradas. Se han encontrado artículos en los que los datos que se usaron no se acercaban a la realidad.

No obstante, en cuestiones de medicina y rehabilitación sí que se han dado grandes pasos hacia adelante. Nos ha llamado mucho la atención el conocimiento que podemos tener sobre las emociones o la capacidad de personalizar terapias para pacientes. Todo ello facilita el poder ayudar en el bienestar de las personas.

El proyecto del profesor sobre computación afectiva e IA

Háblenos sobre su investigación MoonWalker EEG-VR. ¿En qué consiste este proyecto y qué herramientas son esenciales en él?

Este proyecto surge porque en México tenemos una gran cantidad de personas que sufren de alguna discapacidad. Particularmente, tenemos mucha población que problemas de marcha y no pueden caminar correctamente. Hay una serie de centros en el país llamados Crip a los que acuden los pacientes para tratarse mediante exoesqueletos.

En este proceso, tienen que hacer memoria muscular para seguir avanzando en su proceso de recuperación. Sin esta memoria, las sesiones no se aprovechan eficazmente y el periodo de trabajo se alarga notablemente.

Hoy en día, existen robots justamente diseñados para enseñar a personas cómo emitir ciertas emociones y que sea más fácil la interacción. No obstante, máquinas o robots no nos van a reemplazar a las personas

Mediante este proyecto, se agrega una diadema a los pacientes y por medio de ella se hace una lectura de ondas cerebrales, apoyado por lo que ven a través de unas gafas de realidad virtual. El paciente, de forma muy inmersiva, ve cómo está caminando por la luna y la diadema puede identificar cuál es el estado afectivo de las personas en ese momento.

Nos interesa saber si se sienten muy conectados con la situación, si sienten frustración o que nivel de excitación tienen los pacientes. Dependiendo de estos factores, modificamos el volumen de la música y la iluminación en el entorno que están.

Lo que hemos visto es que este sistema ha ayudado a mejorar la atención y el esfuerzo que realizan los pacientes. Seguiremos trabajando en estas investigaciones con la U-Tad y la Universidad Panamericana de México.

Usted se refiere a la computación afectiva como base para mejorar tratamientos de rehabilitación a personas con movilidad reducida. ¿Por qué se ha basado en las emociones?

Gran parte de los pacientes que sufren de problemas de marcha atienden a patologías neurológicas. Entre ellas, existen las del tipo verbal, con lo que la diadema que manejamos es la que aporta la información que necesita el terapeuta.

Se reconocen emociones en aquellas personas que no pueden expresarlas, sea de manera verbal o de manera gestual. El proyecto también tiene influencia sobre personas que están dentro del espectro autista, ya que el cómputo afectivo puede facilitar sus interacciones.

¿Esta forma de fusionar emociones entre humanos y máquinas puede romper mitos sobre esa distancia que siempre ha existido entre robots y personas?

Definitivamente sí, cada vez tenemos más sistemas que reconocen mejor las emociones humanas. Hay una amplia gama de emociones y el reto es poder entender el mayor número posible de ellas. Hoy en día, existen robots justamente diseñados para enseñar a personas cómo emitir ciertas emociones y que sea más fácil la interacción.

No obstante, máquinas o robots no nos van a reemplazar a las personas, son sólo herramientas de ayuda que pueden entender ciertas emociones, pero no detalles tan específicos. Un robot no me va a decir si estoy enamorado o no, por ejemplo.

Máquinas vs. Emociones

¿Cómo se le entrena a una máquina para reconocer las emociones de los individuos?

Es complejo y un proceso largo en el tiempo. El área de cómputo efectivo se fundó en 1995 y desde entonces se ha trabajado en distintas vías. En un primer momento, se abordó el reconocimiento facial para identificar expresiones de la cara.

Detalles y movimientos de la boca, nariz y ojos han sido revisados por muchos terapeutas y psicólogos para validar toda esa información visual. Con todos estos datos se han entrenado redes de IA para poder captar emociones en base a imágenes.

El siguiente paso que dimos fue en la voz. Dependiendo de la entonación, un sistema puede identificar emociones. Nuevamente, expertos de diversos campos han ayudado a entrenar a los sistemas.

La última etapa del proyecto ha sido el estudio de patrones fisiológicos, principalmente la lectura de ondas cerebrales y la respuesta galvánica de nuestra piel. Con estos otros datos, también hemos podido entrenar al sistema. Han pasado muchos años para llegar a este punto, pero todavía nos queda un gran camino por recorrer.

Saliendo del ámbito sanitario, es obvio que su aplicación puede tener impacto en otros campos como el neuromarketing, entre otros. ¿Qué potencial tiene la computación afectiva en los negocios en general?

El potencial es muy amplio, pero justamente en la disciplina del neuromarketing es donde más se ha utilizado la computación afectiva. En el mercado hay herramientas como unas gafas que analizan lo que estamos viendo.

En un supermercado, por ejemplo, estas gafas monitorizan detalles que nos llaman la atención como el etiquetado de productos, los colores y otros detalles que enriquecen mucho el conocimiento que se quiere obtener de los clientes.

Gracias a ello, los negocios pueden adaptarse y ser más eficaces para llamar la atención de los consumidores. Un ejemplo más cercano es Amazon. La plataforma nos hace recomendaciones de productos muy precisas porque ha hecho un buen análisis de nuestro perfil.

Pero el potencial de la computación va más allá. Entre U-Tad y la Universidad Panamericana estamos trabajando en temas de narrativas para el entretenimiento.

Imagine un videojuego cuya historia pueda ir cambiando en base a las emociones analizadas. Igual sucede con una película de terror… Otro ámbito con potencial es la educación, en donde se puede estudiar la mejor forma de aprendizaje de cada alumno. El camino es muy amplio y tiene mucho futuro.

La carrera mundial en la IA

Es evidente que la carrera por el desarrollo de la IA ha tomado velocidad de crucero. ¿Cómo ve a Europa y España en este nuevo mindset?

Hemos visto desarrollos muy fuertes en Estados Unidos. Elon Musk está apoyando a compañías que tienen tecnología puntera en IA, pero Europa también va muy bien en esta carrera. Me ha sorprendido España, ya que en mi colaboración con U-Tad he trabajado con personas muy expertas y punteras en el ámbito de la IA.

Hay que destacar que muchos de los dispositivos que salen al mercado vienen de Europa y creo que España no se está quedando atrás.

¿Hay talento suficiente para todo lo que pueden abarcar las nuevas tecnologías? Expónganos su valoración como docente. 

La realidad es que no hay suficiente talento. El avance de las tecnologías va a velocidad de crucero y siempre nos faltan personas. Las grandes compañías en el mundo siguen buscan talento en estos temas porque cuantas más personas sumen, mejores proyectos van a salir a la luz.

En México, por ejemplo, tenemos un déficit de más de 10.000 desarrolladores. No conozco la cifra en Europa, pero estoy seguro de que el número es bastante alto también. Aquellos que se formen en estas tecnologías, pueden elegir donde trabajar, sin problemas.

 

Salir de la versión móvil