Yoshua Bengio, en 2017.

Yoshua Bengio, en 2017. Jérémy Barande Ecole polytechnique Université Paris-Saclay

Tecnología

Bengio, 'padrino' de la IA: "Me preocupa que versiones avanzadas puedan engañarnos; estamos jugando con fuego"

Yoshua Bengio, uno de los pioneros en materia de inteligencia artificial, lanza una asociación sin ánimo de lucro que pondrá coto a sus riesgos.

Más información: OpenAI contra los riesgos de la IA: crea un nuevo comité independiente que bloqueará modelos que sean peligrosos

Publicada
Actualizada

Muchos en España se lo toman a broma, pero es un hecho que la inteligencia artificial presenta riesgos importantes. Riesgos que lejos de ser simples anécdotas, pueden implicar crear armas biológicas y causar catástrofes nucleares. En el peor de los casos, estos modelos podrían llegar a mentirnos.

Así lo advierte Yoshua Bengio, académico canadiense y ganador del prestigioso premio Turing en una entrevista con Financial Times. Bengio deja claro que las empresas están tomando muchos riesgos y que la evolución en la IA podría traer problemas muy serios de forma inesperada.

Citando ejemplos de pruebas en las que se comprobaba el nivel de inteligencia de estos modelos, Bengio aclara que por el momento, no son más que experimentos controlados. Sin embargo, si la IA se descontrola, podría ser suficientemente inteligente como "para vernos venir desde lejos".

El 'padrino' de la IA advierte

Yoshua Bengio es considerado de forma amplia por la comunidad científica como uno de los pioneros que han dado lugar a la IA tal y como la conocemos, gracias a su influencia en las técnicas de gestión de inteligencia artificial que empresas como OpenAI y Google realizan.

Tanto Bengio como otros compañeros de profesión, tales como el ya ex-trabajador de Google Geoffrey Hinton (y también considerado como uno de los padres de la IA moderna), han puesto el foco sobre los riesgos de distinta índole que presenta esta tecnología.

Yoshua Bengio en 2019.

Yoshua Bengio en 2019. Maryse Boyce Wikimedia Commons | Maryse Boyce

Por ello, Bengio ha lanzado una nueva organización sin fines de lucro llamada LawZero, que busca no solo desarrollar sistemas más seguros sino "aislar nuestra investigación de presiones comerciales". Presiones que son precisamente parte del problema fundamental de la IA.

A su juicio, Bengio relata que existe "una carrera muy competitiva" entre los laboratorios de IA que estaría empujándolos a centrarse en desarrollar IAs cada vez más inteligentes, sin "poner suficiente énfasis e inversión en la investigación sobre seguridad".

Dicha startup nació precisamente debido al desarrollo de capacidades peligrosas de los modelos más grandes de la industria, que incluyen mostrar signos de comportamientos cuestionables, como engaños, mentiras, trampas o instinto de supervivencia.

Uno de los casos más recientes tuvo que ver con Anthropic y los últimos modelos Claude de la firma, en cuyas pruebas llegó a chantajear a sus desarrolladores y a evitar su hipotético borrado creando copias de sí misma en servidores.

Geoffrey Hinton, en la habitación de servidores de la Universidad de Toronto.

Geoffrey Hinton, en la habitación de servidores de la Universidad de Toronto. Johnny Guatto Universidad de Toronto

Otro ejemplo tuvo lugar en Palisade, empresa especializada en pruebas de IA, que pudo revelar cómo el modelo GPT-o3 rechazó de forma explícita instrucciones de apagarse a sí misma. Bengio llama a la calma y asegura que estos son, por el momento, "experimentos controlados".

Sin embargo, la preocupación de Bengio radica en cómo los futuros modelos podrían ser todavía más inteligentes. "Me preocupa que, en el futuro, la próxima versión pueda ser lo suficientemente inteligente estratégicamente como para vernos venir de lejos".

Si ese fuera el caso, Bengio cree que la IA podría "derrotarnos con engaños inesperados", consiguiendo una temida autoconsciencia y descontrol que acabara por causar importantes estragos. "Creo que estamos jugando con fuego", advirtió el experto de IA.

En relación a esto, el académico puso el ojo sobre la posible construcción de armas biológicas extremadamente peligrosas; una preocupación que ha pasado por varias bocas de compañeros de profesión de Bengio.

Una IA fabricando armas.

Una IA fabricando armas. Generada con IA Omicrono

El experto va más allá, y cree que la idea de construir armamento biológico de este estilo podría acabar siendo una realidad incluso en 2026. Es por eso que existe LawZero, que por el momento cuenta únicamente con 15 empleados.

El objetivo último de LawZero es desarrollar sistemas de IA que ofrezcan respuestas veraces basadas en razonamientos transparentes, desechando por completo el enfoque de complacencia para con el usuario que tienen el resto de modelos.

Bengio aspira a que su modelo pueda supervisar e incluso superar los modelos de los grupos de IA más grandes del mundo y controlando que estos se mantengan siempre a favor de los intereses humanos.