Publicada

La burbuja financiera y tecnológica en la que se encuentra la industria de la IA mantiene a los principales desarrolladores de esta tecnología en una carrera frenética por ser los primeros en lanzar el producto más avanzado y que consiga darles rentabilidad económica. Una olla a punto de estallar, como advierten muchos, que puede suponer el desarrollo de una tecnología difícil de controlar y que ponga en riesgo la humanidad.

Ante este peligro, surge una nueva petición pública firmada por reconocidas figuras públicas. La declaración propone prohibir el desarrollo de la superinteligencia hasta que haya un amplio consenso científico que asegure que se "realizará de forma segura y controlada", además de "una fuerte aceptación pública".

La iniciativa ha salido del Future of Life Institute. Su director, Anthony Aguirre, físico de la Universidad de California en Santa Cruz, ha advertido que los avances en IA están ocurriendo más rápido de lo que el público puede comprender. La declaración no está dirigida a ninguna organización ni gobierno en particular.

Los firmantes

Entre los firmantes de esta nueva carta hay premios Nobel como el investigador de IA, Geoffrey Hinton. Considerado padre de la IA, ganó junto a John Hopfield el Nobel de Física del 2024 y ha sido muy crítico con la falta de regulación para este sector tecnológico.

Encabezan también la lista otros nombres que habitúan a participar en estas peticiones públicas como Yoshua Bengio, profesor de inteligencia artificial de la Universidad de Montreal. El año pasado afirmó en el Congreso de EEUU que el país norteamericano debería impulsar una cooperación internacional para controlar el desarrollo de la IA. También Stuart Russell, catedrático de Informática de la Universidad de California en Berkeley, que ha alertado en otras ocasiones que, debido a su funcionamiento, la inteligencia artificial es más difícil de comprender y controlar que otras potentes tecnologías.

Además de expertos en la materia como Hinton, en la lista se encuentra nombres de figuras públicas de la política estadounidense como el exjefe del Estado Mayor Conjunto, Mike Mullen, el exasesor de Trump y principal líder del movimiento MAGA, Steve Bannon; y de la realeza británica como el príncipe Harry del Reino Unido y su esposa, Meghan Markle.

La carrera por ser el primero en contar con esta potente tecnología se libra no solo entre las empresas tecnológicas estadounidenses, sino también en mercados como el de China. Europa fue pionera en plantear una legislación para este avance, pero voces críticas indican que su alcance estaría limitado.

The Future of Life Institute es una organización que lleva más de una década alertando del riesgo de esta tecnología para la humanidad si no se aplica de forma ética. El instituto se fundó en 2014 con el apoyo de Elon Musk a través de Tesla, su empresa de coches eléctricos que desarrolla conducción autónoma. El magnate ha firmado anteriores peticiones para paralizar el desarrollo acelerado de la IA, antes de adentrarse en esta carrera con Grok, su chatbot conocido por trabajar con menos censura que los demás del mercado.

Actualmente, esta organización asegura que su mayor donante es Vitalik Buterin, cofundador de la cadena de Blockchain Ethereum. Afirman no aceptar donaciones de grandes empresas tecnológicas ni de aquellas que estén desarrollando IA general.

¿Qué es la superinteligencia artificial?

La superinteligencia artificial (ASI) define esa barrera en la que la inteligencia artificial supere de forma general a la inteligencia humana con funciones cognitivas de vanguardia y capacidades de pensamiento muy desarrolladas. Esta es aún una simple hipótesis que algunos investigadores sitúan en un futuro a medio o largo plazo, mientras que otros aseguran que está más cerca de lo imaginable, y un tercer grupo rechaza que pueda ocurrir.

Por ahora, la mayor parte de la comunidad habla de una inteligencia artificial estrecha (ANI), IA limitada. Esta destaca en tareas específicas como traducir idiomas o crear imágenes partiendo de texto. Se basa en algoritmos y datos preprogramados y requiere de la intervención humana para funcionar. Entremedias de la inteligencia artificial actual y la superinteligencia, estaría la inteligencia general artificial (AGI), más fuerte y capaz de aprender y razonar entre dominios con la capacidad de establecer conexiones en diferentes campos.