
ChatGPT Omicrono
La IA, más peligrosa que nunca: ya está cerca de que cualquiera pueda crear armas biológicas, advierten desde OpenAI
Los creadores de ChatGPT advierten que los próximos modelos podrían facilitar a personas inexpertas la creación de peligrosas armas biológicas.
Más información: Meta sustituirá a empleados por IA para evaluar los riesgos de privacidad en WhatsApp, Instagram o Facebook
La inteligencia artificial actual no solo trabaja contestando correos o generando imágenes falsas. Los grandes modelos de IA ayudan a la comunidad científica en la búsqueda de nuevos fármacos con mayor probabilidad de éxito. Pero este uso tan positivo puede volverse en contra de la humanidad, como advierten desde hace tiempo los investigadores y ahora la propia OpenAI.
Los creadores de ChatGPT han explicado al medio Axios que la compañía espera que los próximos modelos alcancen un alto nivel de riesgo según el marco de preparación de la compañía. Como respuesta, afirman estar intensificando las pruebas de dichos modelos y las precauciones.
Hace dos años, cuando ChatGPT puso patas arriba la industria de la inteligencia artificial, investigadores de este sector pedían al Congreso de EEUU normas para controlar estos posibles riesgos de una tecnología tan novedosa y potente. Los expertos señalaban que el frenético ritmo de desarrollo de la IA podría provocar graves daños en los próximos años, como "su uso por parte de terroristas o Estados delincuentes para crear armas biológicas".
"Las mismas capacidades subyacentes que impulsan el progreso, (...), también podrían utilizarse indebidamente para ayudar a personas con conocimientos mínimos a recrear amenazas biológicas o a actores altamente cualificados a crear armas biológicas", explica la empresa que dirige Sam Altman.
OpenAI no estableció un plazo exacto sobre cuándo se lanzará el primer modelo que alcance ese umbral, pero el jefe de sistemas de seguridad, Johannes Heidecke, dijo a Axios: "Esperamos que algunos de los sucesores de nuestro o3 (modelo de razonamiento) alcancen ese nivel".
No es la única gran empresa desarrolladora de IA que se ha planteado este peligroso desenlace. Meta, matriz de WhatsApp e Instagram, también se ha marcado estos riesgos, desde ataques de ciberseguridad como químicos y biológicos. Y ha prometido limitar el acceso a sus sistemas internamente y no liberarlo hasta que implemente mitigaciones para "reducir el riesgo a niveles moderados".
También Anthropic, tras el lanzamiento de Claude 4 el mes pasado,dijo que estaba activando nuevas precauciones por el riesgo potencial de que ese modelo ayudara a la propagación de amenazas biológicas y nucleares.

Sam Altman, CEO de OpenAI, se alía con el diseñador del iPhone, Jonathan Ive.
Ninguno de estos desarrolladores indica que su tecnología actual tenga este poder, pero sí advierten de un riesgo a futuro, aunque muy cercano. Creen que sin mitigaciones, los modelos pronto serán capaces de dar ese poder a novatos, personas sin conocimientos de biología podrían hacer cosas potencialmente peligrosas.
OpenAI dijo que convocará un evento el próximo mes para reunir a ciertas organizaciones sin fines de lucro e investigadores gubernamentales para discutir las oportunidades y los riesgos que se avecinan.