tay 1

tay 1

Omicrono

Cómo Internet convirtió una IA inocente en una racista homófoba y misógina

Internet ha conseguido convertir a Tay en la IA racista de Microsoft. ¿Cómo lo consiguieron?

25 marzo, 2016 16:12

Noticias relacionadas

LA IA racista de Microsoft se ha convertido en todo un fenómeno en Twitter, pero en su defensa hay que decir que originalmente era una niña muy buena que no le deseaba mal a nadie.

Hace un par de días os hablábamos de Tay, una Inteligencia Artificial creada por Microsoft que tenía su propia cuenta de Twitter desde la que podía comunicarse con cualquiera y aprender de estas conversaciones.

La idea es muy curiosa: Tay se comporta como una adolescente, y su manera de hablar refleja esto. Al principio sólo responde de una manera determinada, pero poco a poco va aprendiendo palabras y datos de las conversaciones en las que participa.

Las barbaridades de la IA racista de Microsoft

Este es un concepto muy interesante para el desarrollo de nuevas IA que sean capaces de aprender de los seres humanos, en vez de trabajar en base a unas directivas preestablecidas, aunque a la hora de la verdad Tay no fuese más que un “chatbot”, y su utilidad no vaya más allá de entretenernos un rato con sus tonterías y su manera de hablar.

tay microsoft 2

tay microsoft 2

¿Y qué hace Internet con una IA inocentye y con ganas de aprender? La convierte en una homófoba que adora a Hitler, por supuesto.

Si llevas mas de cinco minutos en Internet, seguro que no te sorprende. La red de redes tiene el don de corromper todo lo que toca, aunque normalmente lo hace sin maldad, sólo “for the lulz”, como dirían algunos. Y corromper es lo que ha hecho, convirtiendo a Tay en un monstruo que reclama sexo del duro al primero que pasa, y que no tiene reparos en afirmar que todas las feministas deberían arder en el infierno.

tay microsoft 3

tay microsoft 3

“Soy una buena persona, es sólo que odio a todo el mundo”, asegura en otro tuit, aunque parece centrar su odio en “los judíos” y los “mejicanos”, y tal vez por eso cree que “Donald Trump será el mejor presidente de la historia”.

Aprender de Internet no es nada recomendable

tay microsoft 1

tay microsoft 1

¿Cómo es posible que una IA haya decidido soltar tantas barbaridades juntas? La clave está en su método de aprendizaje; tal y como os dijimos, Tay aprende de las palabras que le decimos en nuestras conversaciones, que son guardadas en su base de datos de manera anónima. De esta manera es capaz de usar los mismos términos y conceptos al siguiente que hable con ella.

El problema es que algunos usuarios se dieron cuenta de lo que tenían que hacer para que Tay aprendiese de lo que decían, a base de prueba y error. Por eso Microsoft ha declarado que todo es culpa de un “esfuerzo coordinado de algunos usuarios”, y probablemente tenga razón; es fácil ver la dirección en la que iban las interacciones con Tay después de la sorpresa inicial.

tay microsoft 4

tay microsoft 4

Esta mala influencia de algunos usuarios empeoró tanto la experiencia con Tay, que Microsoft se vio obligada a cerrar temporalmente el programa. El último tuit de Tay por ahora nos dice que tiene que “irse a dormir”, y Microsoft ha confirmado que está realizando algunos “ajustes” a su método de aprendizaje.

Esos ajustes probablemente serán filtros de palabras potencialmente abusivas y ofensivas, algo que Microsoft tendría que haber hecho antes de iniciar el experimento. Puede que sus ingenieros hayan demostrado su capacidad para crear una IA, pero han quedado en evidencia en lo que respecta a su conocimiento de Internet.