Una persona escribiendo a ChatGPT

Una persona escribiendo a ChatGPT iStock Omicrono

Tecnología

Convierten a ChatGPT en un agente doble: encuentran una brecha de seguridad para robar tus datos de Gmail

Investigadores de seguridad detectaron una nueva técnica para manipular a la IA de OpenAI y obtener información sensible de los emails.

Más información: El sencillo truco para hackear ChatGPT que revela miles de teléfonos y emails privados

Publicada

Cada vez más personas confían en la inteligencia artificial para tratar temas delicados o encargarlos tareas tediosas. Incluso gobiernos como el de Albania confían a la IA labores como la gestión de las contrataciones públicas para reducir la corrupción de su administración. Sin embargo, a pesar de las bondades que ofrece esta tecnología, no es 100% infalible y puede ser manipulada.

Investigadores de seguridad han querido demostrar la vulnerabilidad de los llamados agentes de IA que muchas empresas están desarrollando. Utilizaron como cómplice a ChatGPT para robar datos confidenciales de las bandejas de entrada de Gmail sin permiso de los usuarios.

Estos hackers de sombrero blanco, o profesionales de ciberseguridad que investigan vulnerabilidades para corregirlas antes de que las aprovechen los ciberdelincuentes, alertaron a la empresa de Sam Altman. OpenAI cerró la brecha de seguridad en junio.

El robo, llamado Shadow Leak se publicó esta semana. Los investigadores de la empresa Radware se basaron en una reciente función de ChatGPT que ejerce de agente de IA. Frente a los simples chatbots, los agentes tienen la peculiaridad de poder actuar en nombre del usuario en otras aplicaciones, contratar servicios como un taxi y hacer ajustes en el dispositivo para ahorrar tiempo al usuario. Pueden navegar por la web y hacer clic en enlaces, incluso operar con el perfil del usuario y sus datos.

Mediante un correo electrónico enviado a una bandeja de entrada de Gmail, los investigadores convirtieron en un agente doble a Deep Research, una herramienta de OpenAI integrada en ChatGPT a principios de año. Es lo que se conoce como ataque de inyección rápida.

El logo de ChatGPT.

El logo de ChatGPT. Reuters Omicrono

Después de este paso, la próxima vez que el usuario intente usar la función Deep Research para localizar información en el correo, se activará la trampa sin darse cuenta. El agente encontrará las instrucciones ocultas, que le encargan buscar correos electrónicos de RRHH y datos personales, y entregárselos a los hackers.

Los usuarios a menudo ignoran por completo que algo ha salido mal, ya que las instrucciones pueden estar ocultas a simple vista para los humanos, por ejemplo, como texto blanco sobre fondo blanco. El equipo de Radware afirma que Shadow Leak se ejecutó en la infraestructura en la nube de OpenAI y filtró datos directamente desde allí. Esto lo hace invisible a las ciberdefensas estándar, aseguran.

Ya se han dado casos de error anteriores en los que OpenAI se vio obligada a cerrar temporalmente el servicio de ChatGPT al descubrirse un error que provocaba que algunos usuarios viesen el historial de uso de otras personas. Pero ahora, el chatbot se ha usado como agente doble.

Aunque ha resultado un proceso complicado, que no está al alcance de cualquiera con acceso a la IA, esta prueba de concepto pretende demostrar las vulnerabilidades de estas nuevas herramientas asistenciales.

Otras aplicaciones conectadas a Deep Research, como Outlook, GitHub, Google Drive y Dropbox, podrían ser vulnerables a ataques similares. Este caso demuestra cómo la ciberseguridad es una de las debilidades de la inteligencia artificial, igual que ocurre con el resto de softwares que se usan en el mundo a diario.