
Mark Zuckerberg, CEO de Meta. Omicrono
Ataques cibernéticos y biológicos: los casos en los que Meta detendría el desarrollo de su IA por riesgo alto
La empresa de Mark Zuckerberg ha explicado aquellos casos en los que podría detener el desarrollo de un sistema por riesgo crítico.
Más información: Los ambiciosos planes de Meta para rivalizar con Apple: tres nuevas gafas, relojes y hasta auriculares con cámaras
El torbellino que ha supuesto el lanzamiento de DeepSeek, el rival chino de ChatGPT ha reavivado el debate sobre la tecnología de código abierto. Sam Altman, CEO de OpenAI ha sugerido que podría retomar la costumbre de publicar en abierto ciertos modelos. Por su parte, Mark Zuckerberg se ha comprometido a ofrecer en abierto algún día la inteligencia artificial general (IAG), esta tecnología capaz de rivalizar con los humanos en cualquier tarea.
Sin embargo, por muy beneficioso que sea para el desarrollo y la industria compartir abiertamente estos avances, los riesgos de una IA cada vez más inteligente siguen sobre la mesa. El uso de la IA para generar fake news o deepfakes ejemplifica cómo esta tecnología en malas manos puede ser un grave peligro, un riesgo que se puede extrapolar a ataques más alarmantes.
En contraposición con las promesas de su fundador, un nuevo documento de Meta, detalla ciertos usos en los que la inteligencia artificial más capaz sea un riesgo demasiado alto como para publicarlo de forma abierta. El documento bajo el título Frontier AI Framework marca dos niveles: los sistemas de "alto riesgo" y de "riesgo crítico". Estos últimos pueden derivar en un "resultado catastrófico que no se puede mitigar".

El Androide Libre
En este sentido, la empresa de Mark Zuckerberg apunta a aquellos sistemas inteligentes capaces de ayudar en ataques de ciberseguridad, químicos y biológicos. Los sistemas de alto riesgo, facilitan este tipo de ataques, pero no serían tan confiables como los considerados de riesgo crítico, según detalla el documento.
Como ejemplos de esos posibles casos en los que la IA podría ser un riesgo para la humanidad estaría los "ataques automatizados de extremo a extremo a un entorno corporativo protegido por las mejores prácticas", también la "proliferación de armas biológicas de alto impacto".

El logo de Meta. Omicrono
Hay que recordar que, incluso antes de que la IA diera el salto a los hogares con chatbots tan populares como ChatGPT o DeepSeek, esta tecnología ya se usaba en laboratorios y sistemas de ciberseguridad. Esta tecnología ayuda en la creación de nuevos fármacos o en el descubrimiento de ciberataques o brechas de seguridad informáticas. Pero también puede ser una gran herramienta para hackers u otros agentes que buscan causar un gran daño.
Si, bajo estos términos, la empresa determina que un sistema es de alto riesgo, Meta dice que limitará el acceso al sistema internamente y no lo liberará hasta que implemente mitigaciones para "reducir el riesgo a niveles moderados". Si el peligro fuera mayor, incluso tomarían la decisión de detener el desarrollo hasta mitigar el riesgo.
La matriz de Facebook e Instagram dice que no cree que la ciencia de la evaluación sea "lo suficientemente sólida como para proporcionar métricas cuantitativas definitivas" para decidir el riesgo de un sistema. Se han comprometido a ampliar y modificar este Frontier AI Framework según evolucione el panorama de la IA y su poder.
Estas precauciones tomadas por el gigante tecnológico recuerdan al semáforo marcado por la nueva ley de inteligencia artificial aprobada en la Unión Europea, en la que se prohíben determinados usos o sistemas. Sin embargo, Meta ha sido mucho menos preciso.
La UE prohíbe el uso de un sistema de IA que utilice técnicas engañosas o que puedan manipular el comportamiento de una persona o su toma de decisiones; que explote las vulnerabilidades de edad, discapacidad o situación social o económica; o la evaluación de personas en función de su comportamiento social o de sus características a través de puntuación que pueda derivar en un trato perjudicial.