Publicada

El ritmo de lanzamientos en torno a la inteligencia artificial es frenético, la competencia entre los grandes desarrolladores de esta tecnología, como OpenAI o Google, entre otros, está llegando a límites inimaginables. Esta semana, OpenAI respondía al lanzamiento de Gemini 2.5 con el anuncio de GPT-4.1. Ante este panorama, la seguridad y privacidad de los usuarios son una de las ramas más cuestionadas de la industria, sobre todo ante una innovación que puede dar como resultado grandes riesgos.

OpenAI ha actualizado su Marco de Preparación, o lo que es lo mismo, el sistema de evaluación interno para asegurarse que los modelos de IA que desarrolla son seguros y no suponen ningún riesgo. TechCrunch recalca que son las primeras actualizaciones que la empresa de IA aplica a su Marco de Preparación desde 2023, año en el que estalló la industria de los chatbots y la IA generativa.

"A medida que nuestros modelos se vuelven más eficaces, la seguridad dependerá cada vez más de contar con las medidas de seguridad adecuadas en el mundo real", empieza explicando la compañía. Con esta actualización aseguran establecer requisitos más estrictos para "minimizar suficientemente" los riesgos que conlleva esta nueva tecnología en constante evolución y hablan de un trabajo "más práctico, riguroso y transparente". No obstante, la presión por no quedarse atrás está latente.

Dentro de esta actualización, uno de los puntos que han llamado la atención es aquel en el que la compañía promete responder a los cambios de la industria: "si otro desarrollador de IA de vanguardia lanza un sistema de alto riesgo sin salvaguardias comparables, podríamos ajustar nuestros requisitos", afirman. En los últimos años el mercado se ha convertido en una carrera muy exigente donde la seguridad a veces se percibe como un freno.

Aun así, OpenAI lanza un mensaje tranquilizador al asegurar que, a pesar de ese cambio de requisitos, primero confirmarían de forma rigurosa que el panorama de riesgos ha cambiado y reconocerían públicamente que están ajustando su metodología. "Evaluaríamos que el ajuste no aumenta significativamente el riesgo general de daños graves y, aun así, mantendríamos las salvaguardias a un nivel más protector", dice el comunicado.