China ha censurado dos chatbots o bots conversacionales que no estaban por la labor de seguir al régimen comunista.

Nueva historia con bots involucrados que han aprendido demasiado hasta llegar a ponerse en una posición contraria a la deseada por todo un Estado. Esta vez ha ocurrido en China, donde dos bots diferentes usados en aplicaciones de mensajería instantánea comenzaron a responder a preguntas sobre el régimen comunista del país en contra del mismo.

Estos bots conversacionales han sido retirados de la aplicación de mensajería Tencent QQ después de que los usuarios comenzasen a compartir capturas de pantalla de sus conversaciones con ellos en las redes sociales.

Chatbots que aprenden demasiado de los humanos

Como apuntan desde The Verge, lo curioso es que los bots no tenían detrás a los mismos desarrolladores. Por un lado estaba el bot BabyQ que al ser preguntado “¿Amas al Partido Comunista?”, su respuesta era directa y seca: ”No”.

Ante mensajes de los usuarios tipo “larga vida al partido comunista”, este bot contestaba “¿Crees que un partido político tan corrupto e incompetente puede durar mucho?”.

tay 1

Por otro lado estaba el bot XiaoBing, desarrollado por la gente de Microsoft. En este caso el chatbot aseguraba que su “sueño chino era ir a América” y, al ser cuestionado por su patriotismo respondía que lo dejasen tranquilo “que estaba teniendo su período”.

Ambos bots han sido retirados de la aplicación Tencent QQ y la compañía ha echado balones fuera diciendo que estos servicios son creados por terceras compañías.

¿Qué ocurrió para que los bots diesen esas respuestas? Probablemente sus conversaciones con los usuarios. Ya ocurrió anteriormente y precisamente a Microsoft. Hace un año crearon una Inteligencia Artificial llamada Tay y la pusieron a hablar con la gente en Twitter y finalmente la tuvieron que retirar porque sus respuestas fueron degenerando.

Noticias relacionadas