El logo de ChatGTP y un hacker.

El logo de ChatGTP y un hacker. ChatGPT/Unsplash Omicrono

Software

Cuidado con lo que dices a ChatGPT: crean un virus informático que puede espiarte y robar tus datos

Unos investigadores desarrollan un programa maligno para avisar sobre la necesidad de que los chatbots como el de OpenAI sean más seguros.

6 marzo, 2024 12:44

ChatGPT, la inteligencia artificial (IA) generativa desarrollada por OpenAI, cuenta con una gran cantidad de usuarios en España. Un chatbot que podría controlar tu ordenador y que ha vivido una serie de escándalos, como la revelación de conversaciones privadas filtradas y cuentas expuestas. Y es que son muchos los usuarios que utilizan esta herramienta para charlar, ofreciendo información personal para ello. Una práctica poco recomendable, ya que han creado un virus informático que puede espiar lo que se le dice a ChatGPT y robar tus datos.

Un grupo de investigadores de la Universidad de Cornell, en Estados Unidos, ha desarrollado Morris II, un nuevo virus informático de tipo gusano, es decir, que es capaz de replicarse e infectar otros equipos, según informan desde Wired. Un programa informático maligno que tiene como objetivo robar la información que los usuarios comparten en herramientas de inteligencia artificial generativa, como ChatGPT.

Sin embargo, por el momento este virus ha sido ideado por unos investigadores y no por unos cibercriminales, por lo que no hay mucho que temer, ya que no está disponible. Aun así, esta investigación sí que pone en alerta a los usuarios y a los propios creadores de chatbots. "Ahora tenemos la capacidad de llevar a cabo un nuevo tipo de ciberataque que no se había visto antes", ha explicado Ben Nassi, uno de los autores, al mismo medio.

ChatGPT

ChatGPT Reuters /Dado Ruvic Omicrono

Un virus informático que es totalmente capaz de infectar un asistente de correo electrónico de inteligencia artificial generativa con el objetivo de robar datos de los emails y hasta de enviar mensajes de spam, según han podido comprobar los investigadores durante su estudio. Para conseguir su objetivo, Morris II pudo sortear las barreras de seguridad establecidas por ChatGPT o Gemini, la herramienta de IA de Google.

Durante sus pruebas y para probar las capacidades de su virus informático, los investigadores desarrollaron un sistema de correo electrónico de prueba, que enviaba y recibía mensajes mediante ChatGPT y de una herramienta de inteligencia artificial denominada LLAvA. Con un correo electrónico los científicos pudieron infectar al asistente virtual que permite tener acceso a todas las respuestas que ofrece la IA.

[Así será tener ChatGPT en el coche: nos subimos al vehículo inteligente que imagina Qualcomm]

Incluso puede infectar la base de datos y atacar a otros dispositivos directamente desde el ordenador o dispositivo de la víctima; algo que probaron mediante una imagen con un mensaje malicioso incrustado enviado por correo electrónico a otras personas. Aunque este virus forma parte de un estudio, los investigadores pretenden con él alertar de un "mal diseño de arquitectura" dentro de los chatbots; por lo que piden que se tomen medidas para que sean seguros antes de que los hackers desarrollen virus parecidos.