Es oficial: ya no estamos en una carrera por la IA en España, sino en una guerra abierta y total. Con una OpenAI que busca crear su gadget de IA definitivo y una Meta empeñada en reforzar su presencia en el mercado, existen tensiones entre empresas que están llevando a situaciones rocambolescas.
Tanto, que OpenAI está enteramente dedicada a protegerse. Tal y como ha relatado el Financial Times citando fuentes internas, la empresa de Sam Altman ha implementado férreas políticas de preservación y protección de sus sistemas y datos.
Algunos ejemplos incluyen la implementación de escaneos biométricos de huellas dactilares, el aislamiento de entornos de datos sensibles e incluso la contratación de expertos militares y gestores de ciberseguridad para mejorar sus sistemas.
OpenAI se protege ante espías
Dicha política de protección parece haberse implementado desde al menos el verano pasado, con tensiones cada vez más en alza debido a la súbita carrera de IA que están perpetrando tanto OpenAI como Meta, Apple y Google, entre otras firmas.
De hecho, la propia FT indica según estas fuentes que estas salvaguardas empezaron a cobrar importancia con la irrupción de DeepSeek y las acusaciones vertidas sobre la empresa china, alegando que esta había copiado los modelos GPT de OpenAI.
Sam Altman, CEO de OpenAI
Una de las primeras medidas implicó una política de reserva de información, que evita de forma muy importante que los empleados tengan acceso a proyectos de alto calado. Un cierto número de estos empleados directamente no puede acceder a esta información.
Un ejemplo de ello se pudo ver en las oficinas, cuando OpenAI se encontraba desarrollando o1, uno de sus últimos modelos. Los equipos de Altman tuvieron que verificar las autorizaciones de sus compañeros de rango superior antes siquiera de discutir el propio proyecto en espacios de oficina.
Pero hay más. La tecnología vital que sustenta sus avances más importantes está aislada de las redes de Internet de OpenAI. Está desconectada y almacenada en entornos completamente aislados, con una política de denegación de salida por defecto asociada.
Esto significa que de forma predeterminada, el sistema bloquea cualquier intento de conexión a Internet a menos que un superior lo autorice de forma explícita. Hasta las áreas más sensibles de OpenAI a nivel físico están dotadas de controles biométricos.
El proyecto más importante de nuestra era
¿Y qué hay de las contrataciones? Tenemos a perfiles como Dane Stuckey, exdirector de seguridad de información de la conocida empresa Palantir. Le sigue Paul Nakasone, general del ejército retirado y que ahora forma parte de la junta directiva de la empresa. Supervisa las iniciativas de ciberseguridad.
Por último tenemos a Matt Knight, vicepresidente de productos de seguridad de OpenAI que está usando los propios modelos de inteligencia artificial de la empresa de Altman para proteger ciberataques de espías y otros agentes.
Lejos de parecer extremistas, OpenAI justifica todas estas medidas explicando que su propiedad intelectual se encuentra expuesta ante el espionaje extranjero y sobre todo ante la intrusión de otras empresas como Meta.
Recientemente, la empresa de Mark Zuckerberg ha estado ofreciendo ofertas millonarias a algunos de los ingenieros más versados de Altman. Algunos de ellos (no todos) han aceptado, causando un lógico enfado por parte del CEO de OpenAI.
No solo OpenAI
Altman no es el único afectado por estas intrusiones. Esta semana se ha podido saber, según Bloomberg, que el director de modelos de IA de Apple, Ruoming Pang, dejaba la firma californiana para incorporarse a Meta.
tim-cook-apple
El objetivo del reclutamiento de Ruoming Pang no es otro que el de dirigir la unidad de superinteligencia de IA, dotada de algunos de los expertos de IA más importantes del panorama actual. Conformado además por algunos ingenieros de OpenAI 'robados' a partir de estas ofertas millonarias.
No es un nombre baladí. Pang fue el que dirigió los equipos internos encargados del entrenamiento de los modelos básicos de IA que actualmente potencian tanto Apple Intelligence como otras funciones. Otros nombres provenían de Google DeepMind e incluso Safe Superintelligence.