Pautas de responsabilidad en el uso de la inteligencia artificial

.

Una gran consultora como McKinsey ha lanzado una guía para que los CEO´s actúen de manera ética y responsable en la adopción de la IA para sus negocios. Además de beneficios, hay varios riesgos a tener en cuenta en esta tecnología.

La inteligencia artificial está en boca de todos los grandes directivos. Los CEOs son conscientes de que implementar esta tecnología se puede traducir en rentabilidad y beneficios para el futuro. Sin embargo, no vale todo tal y se desprende del informe “Liderar tu organización hacia una IA responsable” de McKinsey & Company, en el que se analizan los posibles riesgos de la aplicación de la IA en las compañías y los recursos en manos de sus directivos para prevenir, evitar y reducir los peligros en estos procesos, alineándolos con los valores de la empresa.

Y es que según la consultora los daños de un mal uso de la IA pueden ser significativos, afectando no solo a la reputación de las compañías, sino también a empleados, individuos y sociedad ya que, incluso los usos aparentemente inocuos de la IA pueden tener graves implicaciones en cuanto a sesgos significativos en el análisis de los datos, violaciones de la privacidad e incluso discriminación a distintas minorías.

Se ha duplicado el uso de la IA en las empresas.

Gran crecimiento de en el uso de la IA

Para poner en contexto el impacto de la estos sistemas en el mundo de la empresa, hay que destacar que el porcentaje de entidades que han incorporado al menos una capacidad de IA en sus procesos de negocio se ha duplicado en 2018 respecto al año anterior según la Encuesta sobre la adopción de IA de McKinsey.

En este sentido, los CEO están bajo el foco de atención para garantizar una aplicación responsable de los sistemas de IA más allá del cumplimiento de las leyes aplicables. Su rol es vital, ya que deben tener un sólido conocimiento práctico de los desarrollos de la IA para poder orientar al conjunto de la empresa en tres áreas clave.

En primer lugar, deben clarificar la forma de trasladar los valores de la empresa a las aplicaciones de IA a través de directrices sobre los objetivos marcados, con el fin de seleccionar los procesos candidatos a la automatización. En segundo lugar, los CEO deben guiar a la compañía con definiciones y métricas para evaluar la IA ante posibles sesgos e imparcialidad en el análisis.

Por último, es necesario establecer una jerarquía de valores de empresa y destacar el papel de la diversidad en la selección de talento. El desarrollo de la IA siempre implica contrapartidas, especialmente las relacionadas con la precisión de los algoritmos y la transparencia en su toma de decisiones, por lo que el criterio de la dirección es esencial para que los equipos tomen las decisiones más acertadas.

Además, un equipo con personas diversas aporta una variedad de experiencias con enfoques innovadores, necesarios para resolver problemas de calado. Los líderes deben considerar todo tipo de diversidad: de género, edad, etnia, disciplina y experiencia.

5 áreas de impacto en la responsabilidad de la IA

El informe destaca cinco áreas que exigen un sólido liderazgo desde la dirección de las compañías para poder hacer frente a los problemas más comunes: 

  1. Una adquisición apropiada de datos: cuantos más datos se recojan, mayor precisión tendrá la aplicación de IA, pero en ocasiones esta puede ser percibida como una invasión de la privacidad. Los directivos deben vigilar de dónde se adquieren esos datos y cómo se utilizan.
  2. Adecuación del conjunto de datos: asegurar que los conjuntos de datos reflejan con precisión todas las poblaciones analizadas, evitando sesgos para no privilegiar a grupos mayoritarios.
  3. Imparcialidad en la aplicación de IA: incluso cuando las series de datos reflejan de forma veraz a las poblaciones reales, los resultados de la IA pueden ser imparciales debido a sesgos históricos, ya que estos análisis no tienen en cuenta el contexto y las implicaciones de estas decisiones.
  4. Cumplimiento normativo y compromiso: con la incipiente oleada regulatoria, los directivos deben asegurarse de que sus organizaciones cumplen con la legislación y, por ejemplo, no compren o vendan datos obtenidos sin consentimiento.
  5. Explicación del modelo de IA: en ocasiones, es necesaria una explicación del modelo que se ha llevado a cabo para llegar a una u otra conclusión, especialmente en los usos de la IA relacionados con la búsqueda de trabajo o con préstamos financieros (en los que los candidatos rechazados querrán entender los motivos).
El uso responsable de la IA impacta en la reputación de las organizaciones.

Beneficios desde la ética y el uso responsable

En definitiva, los directivos que refuerzan sus valores corporativos estableciendo equipos diversos, crean un lenguaje generando puntos de referencia para guiar a la IA, y establecen un compromiso con los equipos de desarrollo de esta tecnología, hacen posible un uso responsable de la IA. Por ello, una IA responsable genera confianza tanto en los empleados como en los consumidores.

Los empleados confiarán en la información que la IA les brinde y estarán más dispuestos a aplicarla en su trabajo diario, ayudando a idear nuevas formas de usar esta tecnología para crear valor. En cuanto a los consumidores, una vez que se adquiere su confianza estarán dispuestos a utilizar productos relacionados con la IA, ganando las compañías el derecho a usar sus datos de forma adecuada y ayudando a mejorar continuamente los procesos de IA.

Se trata de un círculo virtuoso que impulsa la reputación de la marca y la capacidad de una organización para innovar y competir y, lo más importante, permite a la sociedad beneficiarse del poder de la IA en lugar de sufrir sus consecuencias menos deseadas.

Mira nuestras
Últimas noticias relacionadas
¡Suscríbete a nuestra Newsletter!

¡Suscríbete a nuestra revista!