En un mundo aturdido por el exceso de mensajería y propaganda es fácil que los propios emisores de 'información' se acaben confundiendo con sus deseos o sus exageraciones. Algo así es lo que el Boston Consulting Group (BCG) ha descubierto en torno a la inteligencia artificial responsable (RAI) desplegada en grandes corporaciones, incluyendo un cierto grado de oscurantismo al respecto.

En una encuesta entre directivos de más mil grandes organizaciones de casi todo el mundo (excepto África, para ser precisos) y nueve grandes sectores de actividad, el BCG se sorprendió con que, en general, las compañías tienden a estar más atrasadas de lo que sus responsables creen o declaran creer.

Es la primera consulta de estas características realizada por el grupo, a través de su equipo GAMMA, especializado en datos y analítica, que cuenta con un equipo de más de 1.300 informáticos e ingenieros.

La dimensión de las empresas consultadas se cifra en que tengan al menos 500 millones de dólares (unos 420 millones de euros) en ingresos anuales y un mínimo de 2.000 empleados. El bloque mayoritario (48% agregado) oscila entre 5.000 y 20.000 empleados.

Los ejecutivos que respondieron son en su mayoría (62%) altos cargos, desde el consejero delegado (CEO) hasta jefes de operaciones, datos o información. El resto tienen rangos de vicepresidente o director de gestión intermedia.

Señala BCG GAMMA que, incluso en las organizaciones que declaran la implementación de inteligencia artificial a gran escala están sobreestimando su progreso en la RAI. Menos de la mitad de ellas tiene de verdad un programa maduro al respecto.

Un 55% de todos los consultados, desde los que se reconocen rezagados hasta los que se consideran líderes, está menos avanzado de lo que cree. Y del total de las compañías que respondieron, el 35% cree haber establecido ya plenamente un programa de IA responsable, aunque lo cierto es que más de la mitad de ellas, el 54%, está sobrevalorando su realidad.

Importancia de la confianza

Afirma Laurent Acharian, director de marketing de BCG Gamma, que "las empresas están empezando a comprender el tremendo potencial de la IA, pero ha surgido una nueva frontera: la confianza". "Y la IA no puede funcionar adecuadamente sin la confianza de los empleados, los clientes y todos los que están implicados. Y para conseguirlo, las compañías han de desplegar lo que llamamos inteligencia artificial responsable", incide.

Lo que la encuesta pedía a las organizaciones era una valoración sobre el grado de madurez en su adopción de la RAI, en una escala que va desde 'sin avances' hasta 'plenamente implementada', con 21 preguntas para estimar siete dimensiones: responsabilidad; transparencia y explicabilidad; equidad; seguridad y robustez; privacidad de los datos y gobernanza; mitigación de impacto social y medioambiental; y relación del ser humano con la IA.

Sylvain Duranton, director gerente de BCG y líder de GAMMA, establece un campo de juego para el análisis: "Una IA responsable no se limita a las cuestiones de ética, género, sesgo y consideraciones étnicas", aludiendo a las mencionadas "siete dimensiones" consultadas.

El director de ética de BCG GAMMA, Steven Mills, entra en detalles más concretos, como las motivaciones para que las compañías se enfoquen en la RAI y, sin sorpresas, "la primera de la lista es beneficiar el negocio, muy por encima de cuestiones como 'buenas prácticas' o reducción de riesgos".

Motivaciones de una IA responsable

A preguntas de D+I, sobre los porcentajes atribuidos a las motivaciones (42%, beneficio del negocio; 20%, expectativas de cliente; 16%, mitigar riesgos; 14%, cumplir regulación; y 6%, responsabilidad social), Mills concreta que las respuestas tienen "dos dimensiones".

Por una parte, "hay cosas que las empresas hacen porque producen beneficio directo", lo que en su opinión englobaría el 42% del bloque principal más el 20% de las expectativas de cliente, sumando el 62% de las motivaciones, "que atribuyen aportar valor directo al negocio".

La segunda dimensión que aprecia es la minimización de riesgos en general y cumplimiento de normas. Esto aporta "un beneficio indirecto en el negocio y en la experiencia del cliente. Tiene que ver con construir la confianza".

Ese valor indirecto agregaría "un 30%", dice, de las motivaciones (16% + 14%) por evitar correr riesgos de diverso tipo, dejando el concepto de responsabilidad social (6%) bastante fuera de foco en lo que se refiere a implementar inteligencia artificial responsable en los procesos corporativos.  

"Si nos fijamos en los programas de fidelidad, en un montón de ellos tienes que dar algo para acceder a determinadas ofertas y suele estar diseñado de manera que dices que sí sin entender nada", explica Mills.

"Ahora empieza a verse en algunas compañías que el consentimiento para el programa de fidelidad está modulado y puedes elegir distintos niveles. Entendiéndose que cuanto más alto sea el nivel, mayor cantidad de tus datos personales será utilizada. Este tipo de diálogo es muy elevado, en términos de responsabilidad, porque eres [la empresa] totalmente transparente con el cliente. Y eso es muy apreciado por este".

Diferencias entre compañías

En la valoración global que hace Mills, después de advertir que "las cosas cambian muy deprisa", indica que lo primordial es la confianza porque "clientes, consumidores y también los empleados están muy pendientes del tipo de uso que puedan estar haciendo las compañías de los datos internos".

"La confianza es un imperativo en los negocios que puede marcar una gran diferencia entre las compañías capaces de explicar por qué y cómo se comportan de manera responsable", añade. Sin embargo, también aclara que "son muy pocas las que hablan de lo que están haciendo".

Entre las que sí explican cómo están utilizando la inteligencia artificial, Mills cita a "Microsoft, Salesforce y Telefónica". Añade que "todas ellas están dando pasos públicamente, han publicado herramientas, marcos de trabajo y documentación de sus programas, sencillamente, porque los tienen. Pueden verse los materiales online". Subraya así el oscurantismo que impera en buena parte de los procesos de implantación de la RAI en las empresas.

Duranton valora, volviendo a las 'siete dimensiones' analizadas por la encuesta, que los programas de RAI están menos desarrollados en justicia y equidad, mitigación del impacto social y medioambiental, e IA humana porque son difíciles de abordar.

También refleja la consulta que la mayoría de las organizaciones que alcanzan una etapa de madurez en la RAI suelen tener un responsable específico y/o un comité guiando su estrategia.

Datos por regiones

En una valoración por regiones, se aprecia que el país de procedencia de una organización predice mejor su grado de madurez que el sector industrial en el que opera, con notable superioridad de Europa y América del Norte.

Por sectores, también sin mucha sorpresa, los datos señalan el liderazgo de tecnología, media y comunicaciones (60% de organizaciones en situación avanzada y 32% en desarrollo), seguido por energía (57% y 28%, respectivamente) y servicios financieros (56% y 32%).

En la valoración de BCG GAMMA los sectores de bienes de equipo (54% y 30%) y automoción (51% y 36%) están mejor posicionados de lo esperado, si bien juega a su favor el que la mayoría de sus aplicaciones de IA tienden a ser para operaciones B2B.

En cambio, el sector de bienes de consumo (42% y 41%) ha sorprendido a los expertos por mostrar menor madurez de lo que esperaban. El que seguramente no ha llamado la atención es el sector público (43% y 41%) penúltimo de la clasificación.

Noticias relacionadas