La inteligencia artificial (IA) ha supuesto uno de los grandes avances tecnológicos en muchos años, y sistemas como ChatGPT son hoy muy utilizados tanto en España como en el resto del mundo. Aun así, todavía existe miedo a lo que esta tecnología puede llegar a realizar, tanto que Estados Unidos quiere limitarla y hasta ya se ha alertado de que la próxima superinteligencia artificial será un riesgo para la humanidad. Ahora, unos expertos advierten que la IA se podría utilizar para fabricar nuevas armas biológicas.

Dos investigadores de inteligencia artificial y Dario Amodei, director ejecutivo de la empresa de Anthropic, que impulsa la IA, debatieron el pasado martes en una audiencia sobre los riesgos a largo plazo de esta tecnología y afirmaron que el Congreso de Estados Unidos debe establecer normas para controlarla, como informa el Washington Post. Los expertos señalaron que el frenético ritmo de desarrollo de la IA podría provocar graves daños en los próximos años, como "su uso por parte de terroristas o Estados delincuentes para crear armas biológicas".

Yoshua Bengio, profesor de inteligencia artificial de la Universidad de Montreal, afirmó en la audiencia en el Congreso de EE. UU. que el país norteamericano debería impulsar una cooperación internacional para controlar el desarrollo de la IA. Por su parte, Dario Amodei expresó su temor a que esta tecnología se pueda utilizar para crear virus peligrosos y otras armas biológicas en sólo dos años. Mientras que Stuart Russell, catedrático de Informática de la Universidad de California en Berkeley, indicó que, debido a su funcionamiento, la inteligencia artificial es más difícil de comprender y controlar que otras potentes tecnologías.

["Apagad la IA o moriremos todos", avisa uno de los mayores expertos en la materia]

"Recientemente, a mí y a muchos otros nos ha sorprendido el gran salto realizado por sistemas como ChatGPT. El plazo más corto es más preocupante", señaló Yoshua Bengio; quien también aseguró que la aparición de una superinteligencia artificial podría suceder en unos pocos años, en lugar de décadas. Durante la audiencia del Comité Judicial del Senado los expertos expusieron las preocupaciones que existen acerca de que la IA supere a la inteligencia humana y se salga de control rápidamente. De hecho, desde hace tiempo se ha teorizado sobre la posibilidad de que esta tecnología termine dañando a la humanidad.

Orientar a la IA

Durante la sesión, el senador Richard Blumenthal, presidente del subcomité que celebraba la audiencia, indicó que la humanidad ya ha demostrado ser capaz de inventar nuevas tecnologías que la gente nunca pensó que fueran posibles. Incluso lo compara con la llegada del hombre a la Luna. Aun así, los políticos aluden a estas posibles amenazas como una de las razones por las que los gobiernos deben aprobar leyes para controlar la IA. 

En la audiencia, los senadores también plantearon el espectro de posibles problemas antimonopolio. Por ejemplo, Josh Hawley afirmó que uno de los riesgos es que grandes empresas como Microsoft o Google desarrollen un monopolio sobre la tecnología de inteligencia artificial. "Estoy seguro de que será bueno para las empresas, no tengo ninguna duda al respecto. De lo que estoy menos seguro es de si la gente va a estar bien", indicó.

Un robot con IA. mennovandijk/iStock Omicrono

El senador Richard Blumenthal también planteó la audiencia como una sesión para aportar ideas sobre cómo regular la inteligencia artificial, y los tres expertos ofrecieron algunas sugerencias. Por ejemplo, abogaron por la cooperación internacional y que los laboratorios de todo el mundo investiguen formas de orientar esta tecnología para ayudar al ser humano, en lugar de que se vaya fuera de control. También sugirieron que es necesaria una nueva agencia reguladora centrada específicamente en la IA, ya que "necesitará una supervisión sólida y específica".

Por último, afirmaron que se deben crear pruebas estándar para que las empresas de inteligencia artificial sometan su tecnología para tratar de identificar posibles daños. "Antes de haber identificado y tener un proceso para esto, estamos, desde una perspectiva reguladora, disparando en la oscuridad. Si no disponemos de elementos que limiten los sistemas de IA, lo vamos a pasar mal", señaló Dario Amodei. Este último también predijo que en dos o tres años agentes maliciosos podrían utilizar la IA para desarrollar armas biológicas: "me preocupa nuestra capacidad para hacerlo a tiempo, pero tenemos que intentarlo".

También te puede interesar...