Si un loro le dijera en perfecto castellano que el coronavirus no es más que un invento para controlarnos o que la Tierra es plana, ¿le creería? Supongo que no, al fin y al cabo, usted sabría de sobra que, por muy bien que pronunciara y estructurara la frase, el animal solo estaría imitando lo que ha oído y que, en realidad, no tendría la más mínima comprensión de lo que estaría diciendo. Pues con la inteligencia artificial (IA) pasa un poco lo mismo.

En mayo, este sector quedó asombrado cuando la organización OpenAI presentó GPT-3], la última versión de su inteligencia artificial especializada en generar lenguaje escrito. Su capacidad para producir textos con la misma calidad y coherencia con la que lo haría un humano es tal que, hace un par de semanas, el sistema publicó su propia columna en The Guardian.

"He aprendido todo lo que sé con solo leer Internet, y ahora soy capaz de escribir esta columna. ¡Las ideas bullen en mi cerebro!", dice GPT-3 en su primer párrafo. Se trata de una producción lingüística asombrosa. Es coherente, gramaticalmente correcta e incluso resulta interesante. Pero, la realidad es que esas palabras, por muy bien escritas que estén, esconden unas cuantas falacias.

El sistema no miente cuando dice que adquirió su capacidad narrativa a base de leer páginas y páginas web. Pero dicha lectura no se centró en adquirir una comprensión real del contenido en sí mismo sino en identificar patrones lingüísticos en los textos. Es decir, que al igual que los loros, GPT-3 no entiende lo que dice, solo sabe qué palabras tienen más probabilidades de aparecer asociadas unas a otras.

Al igual que los loros, GPT-3 no entiende lo que dice, solo sabe qué palabras tienen más probabilidades de aparecer asociadas unas a otras

Aunque a nivel técnico sigue siendo un gran avance, es necesario poner en contexto qué significa tener una IA que habla. Como el propio sistema explica en su columna de The Guardian, su objetivo es "convencer a tantos seres humanos como sea posible de que no me tengan miedo". Y luego dedica unos cuantos párrafos a hablar de su nulo deseo de acabar con nosotros y de su voluntad de sacrificarse a sí mismo por el bien de la humanidad.

La cuestión es que todo eso es mentira. Y no porque GPT-3 quiera hacernos daño, sino porque carece de cualquier forma de voluntad y tampoco tiene deseos propios. No es más que una obra de ingeniería cuya única misión es que sus textos parezcan escritos por un humano. De hecho, una de las órdenes que recibió para producir dicha columna fue, literalmente, la de "centrarse en por qué los humanos no deben temer a la IA".

Las aplicaciones comerciales de un sistema como GPT-3 podrían eliminar a los humanos de una gran parte de las tareas de redacción. En agosto, el estudiante de Ciencias de la Computación Liam Porr lo utilizó para crear un blog completamente falso, algunas de cuyas publicaciones acabaron entre las más leídas de un agregador de noticias, sin que casi nadie sospechara que estaban escritas por una máquina. De hecho, fue Porr quien dio las instrucciones a GPT-3 para que creara la columna de The Guardian.

Aunque GPT-3 no tenga voluntad, hay quien podría convertirlo en un arma de producción masiva de bulos y noticias falsas

El problema reside, como siempre, en aquellos que quieran usar la tecnología para hacer el mal. Aunque GPT-3 no tenga voluntad, hay quien podría convertirlo en un arma de producción masiva de bulos y noticias falsas. Como si este asunto no fuera ya lo suficientemente grave.

Cuando Google presentó su sistema de conversación por voz Google Duplex en 2018, el increíble realismo de su voz, tono y gramática hicieron que el gigante obligara a la herramienta a identificarse como un sistema automatizado ante cualquier diálogo telefónico que fuera a mantener con un humano.

Si OpenAI no hace algo parecido con GPT-3, internet podría inundarse aún más de artículos falsos y lo único que podríamos hacer para identificarlos sería contrastar su fuente y su contenido (algo que, en realidad, ya deberíamos hacer). Una de las principales razones por la que no creemos al loro que dice que la Tierra es plana porque sabemos que es un loro, pero, ¿qué pasaría si no supiéramos que lo es?