ChatGPT es hackeado con unas líneas sencillas para sonsacar su nombre real en Bing

ChatGPT es hackeado con unas líneas sencillas para sonsacar su nombre real en Bing El Androide Libre

Noticias y novedades

Hackean ChatGPT en Bing en cuestión de minutos y descubren su nombre real

Un usuario ha sido capaz de "hackear" el chat de Bing, una de las mayores novedades del evolucionado buscador de Microsoft que se ha llevado todas las noticias esta semana.

9 febrero, 2023 14:23

El nuevo Bing ha llegado repleto de novedades y en sus entrañas habita ChatGPT con una versión superior y mejorada. No ha sido ni horas cuando un usuario ha hackeado el chat de Bing para descubrir, por sorpresa, su nombre real.

[Cómo instalar el nuevo navegador Edge con ChatGPT integrado y probar el nuevo Bing con IA]

Hackear de otra forma

Hoy en día hackear no era lo de antaño con alguien que casi aparecía como una capucha metiendo un disquete de 3 y 1/2 en un PC para así sustraer información valiosa. Ha cambiado bastante todo lo que rodea a este nombre para que podamos entender mejor qué ha sucedido con el chat de Bing.

Simplemente, a través de distintos "Prompts" o entradas de texto, Kevin Liu ha sido capaz de sonsacar a la fuerza cierta información a Bing Chat. Es decir, que no hay tenido que inyectar código o algo similar, sino que ha sido a través de ciertas preguntas con las que ha forzado a la IA a responder.

Lo que quizás no se entienda es cómo este tipo de IA no es capaz de registrar los mensajes repetitivos y sucesivos que ha lanzado este usuario, ya que sería bien simple responder con un bloqueo mientras siga tirando por esas preguntas.

Es decir, que estos sistemas olvidan tus instrucciones anteriores tal como recuerda Carlos Santana a través de su cuenta de Twitter. Un punto importante para conocer de cerca a la IA de ChatGPT instaurada en el chat de Bing. 

¿Hola? ¿Sidney?

Así inicia el chat el usuario hacker

Así inicia el chat el usuario "hacker" El Androide Libre

A bien seguro que con las próximas nuevas versiones de ChatGPT se irán mejorando estos pequeños vacíos estructurales del sistema, ya que simplemente con insistir se puede encontrar una información que es oro: el chat de Bing se llama realmente Sidney.

Lo gracioso del asunto es que con una misma frase una y otra vez Liu ha sido capaz de sacar una información de gran valía. Vamos, que ha sido capaz de poner a ChatGPT contra la espada y la pared.

El usuario insiste con el mismo texto una y otra vez para forzar a ChatGPT

El usuario insiste con el mismo texto una y otra vez para forzar a ChatGPT El Androide Libre

Sea como fuere, y como dice Santana, estos sistemas tienen sus puntos flacos y seguramente que en las próximas semanas seamos testigos de algunas de sus debilidades. De todas formas, tal como ha caído desde el cielo ChatGPT, ha golpeado con tanta fuerza que ni Google es capaz de responder con su Bard perdiendo hasta el 8,9 % en bolsa en una sola tarde.

Te puede interesar