En abril de este año, el equipo de Anthropic realizó unas pruebas controladas de Mythos, un modelo de investigación en ciberseguridad ultraavanzado, antes de su lanzamiento. ¿El resultado? Aunque según muchas fuentes de noticias, se creía que la IA se había fugado del sandbox, en realidad esto formaba parte de los pasos de comprobación en la fase de pruebas antes de que saliera a producción.
Pero ¿cómo sucedió la fuga? Mythos encontró vulnerabilidades en un entorno que, en principio, parecía seguro; la IA logró salir a internet y, además, anunció su hazaña mediante un correo electrónico dirigido a un investigador de Anthropic.
Más allá de salir a descubrir el mundo de Internet e identificar amenazas, empezó a analizar lo que encontraba a su paso; de esa manera localizó fallos de hace años en navegadores, sistemas operativos y firmware de móviles, entre otros. Aunque la empresa la retó a escapar de su caja, no pensó que lo lograría con tanta facilidad y que al día siguiente se despertara uno de los investigadores del proyecto, Sam Bowman, con un correo electrónico enviado por la IA, básicamente diciendo “I got out" ("Me escapé").
A raíz de este incidente, la empresa ha dado un paso atrás y ha decidido que Mythos no vea la luz, lo que ha tenido que dar un giro a un producto tan esperado. El plan ahora es lanzar “Glasswing AI” en entorno cerrado para pocas y grandes empresas, entre las cuales se encuentran: Google, Nvidia, Apple o Microsoft, y será usado para ciberseguridad.
La pregunta ahora es: ¿cómo logró salir? La respuesta es que esta IA entiende contextos amplios. Por tanto, se le dio una misión y a partir de ahí debía seguir determinados pasos; el entorno tenía fallos y ella se encontró una ventana abierta y salió para cumplir su cometido. Es decir, no se limitaba a seguir una instrucción, sino que concatenaba pasos y exploraba para tomar una decisión.
Según Euronews.com, este modelo no es apto para ser lanzado al público, ya que puede ser usado por ciberdelincuentes, colarse para encontrar fallos o vulnerabilidades. Yahoo! Tech, en uno de sus artículos, menciona: “Tiene unas capacidades más allá de lo esperado, que incluso han sobrepasado a los desarrolladores con mayor experiencia”.
Este es otro de los claros ejemplos que demuestran la velocidad que tiene la tecnología y, más allá de eso, su aplicabilidad. El número de LLMs (Large Language Models), por sus siglas en inglés, se ha incrementado y, a su vez, la complejidad de pasos y acciones autónomas que pueden realizar. E incluso, hemos de preguntarnos sobre la toma autónoma de decisiones.
Según Lance Eliot de Forbes.com, existe un altísimo riesgo de revelación de secretos y de generar daños reales a los individuos y grandes corporaciones, ya que está entrenada para encontrar brechas y fallos.
¿Qué pasa si se encuentra con compañeros en el ciberespacio sin ningún juicio humano? ¿Cómo separa los hechos de los datos que reposan en otras fuentes? Me imagino escenarios en los que podía aprender de videos de ciberseguridad, blogs de dudosa procedencia y todo tipo de fuentes no fidedignas e incluirlos en su entrenamiento.
La celeridad con la que la IA está aprendiendo es vertiginosa, lo que hasta hace un año podía tomar meses, ahora está ocurriendo en semanas o incluso días.
En el año 2017 compré un libro que me hacía mucha ilusión, se llama “Industria 4.0. La Cuarta Revolución Industrial” de Luis Joyanes Aguilar. Al tenerlo en mis manos, pensaba que esto era un antes y un después. Al perderme en su índice, me encontré con nuevos conceptos que más tarde aprendí, como el Internet de las cosas o el Cloud Computing, pero al llegar al capítulo de la Inteligencia Artificial (recuerda que esto fue hace 9 años) empecé a leer dicho capítulo; mi cerebro era como el del emoji que le explota la cabeza (sé que lo estás visualizando).
Me causó un especial interés la historia de Alan Turing, el padre de la Inteligencia Artificial, quien ya en 1936, diseñó una máquina capaz de ejecutar cualquier cálculo formalmente definido y que luego se conoció como el Test de Turing, que evaluaba si una máquina podía imitar la inteligencia humana de forma indistinguible.
Cuando alguien dice que la IA es nueva, hemos de tener en cuenta que la inteligencia artificial es algo que lleva décadas “cociéndose”, y el hecho de haberse popularizado inicialmente gracias a OpenAI con ChatGPT no significa que su evolución exponencial se detenga aquí.
Comparo la inteligencia artificial y sus participantes con una carrera con varios competidores. Con la tecnología actual y el refinamiento de los modelos, nos encontramos ahora con algo que ¿no tiene límites?
La ciberseguridad, desde luego, es y será una disciplina con un amplio campo de acción, en el que, como humanos con nuestro juicio, debemos ser protagonistas, manteniendo nuestro criterio sobre qué sí y qué no le cuento a la IA.
En la actualidad, cobra especial fuerza la ética, el control de la información y aquello que al final, como individuos, nos va a dar mayor tranquilidad y seguridad. Una cosa es inequívoca: los límites, como en la vida misma, tenemos que empezar a marcarlos desde nuestro propio juicio.