
Kay Firth-Butterfield, durante su visita a Madrid en el FinAI Summit de BBVA.
Kay Firth-Butterfield: "Estamos comprando la inteligencia artificial por la moda, no por su utilidad"
La que fuera primera Chief AI Ethics del mundo y exasesora del Foro Económico Mundial defiende una visión humanista y responsable en el uso de la IA, "también como ventaja empresarial".
Más información: Los impulsores de la ley europea de IA, preocupados por los intentos de la UE de rebajar las obligaciones a las 'big tech'
Cada vez es más frecuente encontrarnos con directivos dedicados a la aplicación ética y responsable de la inteligencia artificial. Sin embargo, hubo un tiempo en que una figura así sonaba inusual, extravagante incluso. Eran los tiempos, no tan lejanos, en que la británica Kay Firth-Butterfield, se convirtió en la primera persona en ser nombrada Chief AI Ethics Officer en todo el mundo. Desde entonces, lleva más de una década advirtiendo, formando y asesorando sobre los riesgos, responsabilidades y oportunidades que implica esta tecnología.
Lo ha hecho desde instituciones como el Foro Económico Mundial y ahora lo hace desde su propia firma, Good Tech Advisory, con una visión profunda y muy crítica con la forma en que se está desplegando la inteligencia artificial en nuestras vidas, nuestras sociedades y, también, nuestras empresas. Una labor divulgativa que recientemente la trajo a España, para participar en el FinAI Summit de BBVA, donde habla con DISRUPTORES - EL ESPAÑOL.
“Soy abogada y trabajaba con menores y derechos humanos, especialmente en temas de trata de personas. En ese contexto, leí The Singularity is Near, de Ray Kurzweil, y me impactó. Me pregunté: ¿qué pasará cuando los humanos y las máquinas se fundan? ¿Seguiremos traficando con personas para fines sexuales o será suficiente con robots humanoides que parezcan humanos?”, responde a la pregunta de cómo se empezó a interesar por esta parcela. Y fue aquella inquietud el germen de una carrera pionera en el campo de la ética en IA. “En 2014 me inventé el título de Chief AI Ethics Officer, porque nadie más lo usaba. Éramos muy pocos pensando en esto entonces”.
Hoy, aquella “frontera” que parecía ciencia ficción es una realidad. El despliegue de modelos fundacionales como ChatGPT ha generado una explosión de uso, pero también ha traído aparejado un nuevo nivel de incertidumbre: “Sabíamos que cosas como las que preparaba OpenAI estaban en camino, pero incluso así nos sorprendió su nivel de sofisticación. Pero soy escéptica. Sigue siendo mala con las matemáticas, y no hemos logrado solucionar el problema de las alucinaciones. De hecho, en algunos casos ha empeorado”.
Y eso, en entornos como la educación, puede ser especialmente desafiante. “Si los niños no saben la respuesta y siempre preguntan a ChatGPT, nunca aprenderán. Porque ni siquiera saben si las respuestas son correctas. Para usar bien estas herramientas necesitas un conocimiento previo que te permita validar lo que te dicen”, apela Firth-Butterfield.
La conversación deriva inevitablemente en el gran debate de nuestro tiempo: ¿estamos realmente ante nuevos retos éticos o solo ante un reflejo amplificado de los problemas sociales que ya teníamos? “No son desafíos nuevos. Brad Smith [presidente de Microsoft] decía que nos vemos obligados a afrontar cuestiones éticas que no habíamos resuelto en 2.000 años. Pero la IA lo hace peor, porque se alimenta de nuestros sesgos y los refuerza. En lugar de liberarnos de los prejuicios, los amplifica. Y eso se agrava con lo que llamamos ‘canibalismo’ de datos: los errores generados por la IA vuelven a entrar en su entrenamiento, y así una y otra vez. Es un ciclo viciado”.
Ante este escenario distópico, el gran reto está en asumir la responsabilidad de ese sesgo: “Todos, desde un banco hasta un ciudadano, deberíamos ser conscientes de que los datos están sesgados. Si eres un banco, deberías corregir eso dentro del sistema. Si no lo haces, podrías estar dejando de contratar a las personas adecuadas o de conceder préstamos a quien sí los merece. Es un problema de negocio también: podrías perder oportunidades”.
El problema se agrava cuando son las administraciones públicas quienes toman decisiones basadas en inteligencia artificial. Kay Firth-Butterfield propone replantear el enfoque ante esta pertinente cuestión: “Ahora vemos la IA como una forma de ahorrar costes en gobiernos, pero deberíamos preguntarnos: ¿deberíamos usar inteligencia artificial en este caso? ¿Cómo afecta al ciudadano? Porque como gobierno tienes un contrato social con la ciudadanía. Antes de usar una herramienta, deberías pensar: ¿ayuda esto a mis ciudadanos?”.
No se queda ahí: la experta lanza además una crítica frontal a la forma en que las administraciones y empresas están adoptando estas tecnologías: “Estamos comprando herramientas por la moda, no por su utilidad. No estamos adquiriendo la tecnología que realmente necesitamos”.
¿Dónde trazar entonces la línea roja en ética e inteligencia artificial? “No me gusta hablar de ética. Prefiero hablar del uso sabio de la inteligencia artificial. Ya sea como empresa o como gobierno, usarla sabiamente implica protegerse del riesgo. No es un dilema entre innovación o regulación. Se trata de innovar con sensatez. Y eso implica saber que si lo haces mal, puedes perder mucho dinero —o ciudadanos— por el camino”.
Su apelación a ese dilema hila directamente con el escepticismo que genera entre las big tech la regulación europea en esta materia, pionera a escala global. Kay Firth-Butterfield defiende no obstante el enfoque regulador de la Unión Europea, aunque muestra dudas ante el convulso escenario geopolítico internacional.
“El RGPD se convirtió en un estándar global. Y durante mucho tiempo creímos que el Reglamento de IA seguiría el mismo camino. Espero que aún pueda serlo. Pero el mundo ha cambiado en los últimos cien días: hay presiones políticas y económicas sobre Europa para que regule menos. Sin embargo, las leyes europeas existen para proteger a sus ciudadanos. Y protegerles frente a una IA que puede salir mal es tan importante como ayudarles a aprovechar una IA que funciona”, afirma.
Lo que está en juego, insiste, es enorme: “La inteligencia artificial es una herramienta de vigilancia perfecta. Es capaz de clasificar personas, seguirlas, saber si han ido a una protesta. Y ahora incluso la hemos invitado a nuestras casas. En una conferencia alguien decía que tenemos una media de 14 dispositivos con IA en casa. Muchos con reconocimiento facial o de voz. Incluso compramos juguetes con IA para nuestros hijos. ¿De verdad queremos exponerles así?”.
En ese contexto, es imperativo preguntarle quién debe ser el responsable del daño que cause una inteligencia artificial. ¿El fabricante, el usuario, la empresa? “No es un debate nuevo. Los fabricantes de armas no son responsables de lo que se hace con ellas. Tampoco los de coches. Si atropellas a alguien, es tu responsabilidad, salvo que el coche estuviera mal fabricado. Lo mismo aplica aquí: si tú usas mal la IA, eres responsable. Pero si la herramienta está mal diseñada, entonces la responsabilidad recae en quien la hizo. Es solo aplicar el derecho que ya existe”.
Desde su nuevo puesto en Good Tech Advisory, Firth-Butterfield se propone ayudar a empresas a enfrentarse a estos dilemas desde una perspectiva holística: “Tengo una experiencia enorme, y creo que puedo ofrecer una mirada que no es lineal. Muchas empresas trabajan en silos, sin integrar departamentos legales, de cumplimiento o sostenibilidad en sus decisiones sobre inteligencia artificial. Tampoco forman a sus empleados en cómo usarla con sensatez. Y eso es lo que yo llevo más de once años haciendo”.
“Mi objetivo”, concluye, “es ayudarles a pensar cómo usar la IA… y seguir pensando al mismo tiempo en sostenibilidad, en derechos, en impacto social. Porque solo así se puede innovar de verdad”, sentencia.