Empieza este nuevo año con el 50 Aniversario de esta sección -Descartes- nacida en 2017. 50 artículos dedicados al análisis del impacto social de la innovación y de la disrupción tecnológica desde una perspectiva crítica, constructiva y propositiva (al menos, esa ha sido la intención). Hoy he querido revisitar el tema del primer artículo de la serie: “El próximo gran avance no será tecnológico”.

El texto, por suerte o -más bien- por desgracia, sigue estando de plena actualidad, en su reivindicación aún vigente sobre el imperativo de cerrar las brechas de la digitalización. “¿Es esto mucho pedir?” me preguntaba, como tal vez lo harán muchos. No es más ciencia ficción que aspirar a tener asistentes inteligentes en la palma de nuestra mano, fuentes inagotables de energía limpia, técnicas de edición genética que curan enfermedades, órganos bioartificiales, coches autónomos voladores y otros inventos que, o bien ya están ya aquí, o van camino de estarlo.

“Si hay voluntad, se puede dar el paso hacia ese gran avance, que no será tecnológico", respondía en ese artículo en referencia a la necesidad de poner los avances sociales en el lugar que merecen, hoy desbancados por la fascinación tecnológica. Es esa fascinación el tema que quiero traer a este 50 Descartes; el abrazo acrítico e hiperbolizado de las novedades técnicas cuyo alcance no terminamos de comprender.

Muestra de ello fueron varios de los avances que protagonizaron el 2022. Entre ellos es obligado mencionar ChatGPT, un sistema conversacional automatizado, bautizado como “la inteligencia artificial que va a desbancar a Google”. A este chatbot se le han atribuido toda serie de cualidades y poderes quasi mágicos, e incluso se le ha calificado de salto hacia la superinteligencia. Sin embargo, la realidad es más anodina, aunque eso no venda tanto.

Juego de continentes

ChatGPT es probablemente el mejor sistema conversacional basado en inteligencia artificial que conocemos, y un salto en el desarrollo tecnológico de este tipo de herramienta. Ahora bien, el hecho de que simule muy bien coherencia y verosimilitud en sus respuestas no quiere decir que estas sean siempre correctas. Es más, el hecho de que no lo sean -pero las presente como tales- es lo que lo hace más peligroso.

Lo que ChatGPT hace es engullir conjuntos de datos de internet, que procesa, categoriza y luego sintetiza en forma de respuesta. Dichas respuestas suenan plausibles, porque se derivan de textos e informaciones -verídicos o no- producidos por personas. Sin embargo, para desgracia de los predicadores de la superinteligencia, la máquina no tiene ni idea de lo que está haciendo o diciendo, ni de si es cierto o no.

Consciente de ello, OpenAI (empresa responsable de ChatGPT) avisa de que “el sistema puede generar ocasionalmente información incorrecta o engañosa y producir contenido ofensivo o tendencioso”. Entre otras cosas, porque entre los textos que lo alimentan hay de todo lo bueno y lo malo que podamos imaginar. También mezcla realidad y ficción, entre las que no distingue.

Captura de pantalla del chat conversacional ChatGPT.

Captura de pantalla del chat conversacional ChatGPT.

En medios de comunicación y redes empiezan ya a proliferar ejemplos de errores épicos. No solo presenta fallos de razonamiento, cosa que no tiene, sino respecto a hechos conocidos. Por ejemplo, responde lindezas como que “hay siete continentes en la Tierra: América, África, Asia, Australia, Europa, Oceanía y Antártida”, o que “la capital más alta de Europa es La Paz, en Bolivia”, como le dijo al investigador Ricardo Baeza.

ChatGPT también asegura -preguntado por el físico teórico Juan Ignacio Pérez Sacristán- que la palabra con más caracteres del Quijote es "honorificabilitudinitatibus", que en realidad aparece en el Ulises de James Joyce. O responde que la Guerra Civil española fue el primer episodio de la Guerra Fría, como le contó el susodicho chatbot al comunicador Nacho Hontoria.

Lo anterior puede parecer divertido, pero pensemos en las consecuencias que puede tener a nivel educativo y de alfabetización, entre otras. En este entorno precisamente está proliferando el uso del chatbot para hacer los deberes, no como ayuda sino para sino para hacer 'copia-pega'. Tanto que ya lo están prohibiendo en las escuelas, aunque a mi juicio mejor harían en integrarlo y aprender sus posibles usos y límites.

[¿Puede Europa liderar la era digital? Le preguntamos a la inteligencia artificial más potente y esta es su respuesta]

La cosa no mejora en otros campos: desde la salud física y mental hasta la salud democrática. Nos exponemos a consejos de nutrición o bienestar contraproducentes, a diagnósticos fallidos, a la producción y reproducción masiva de desinformación y un largo etcétera. Lo último que necesitamos es una herramienta que permita inundar la red -más de lo que ya está- de contenido falso o intencionalmente equívoco.

Además, a diferencia de los buscadores online, ChatGPT no presenta las fuentes de sus resultados ni sabemos en qué se basa para llegar a cada respuesta concreta (es lo que llamamos una ‘caja negra’). Por tanto, no tenemos forma de contrastarlo dentro de la propia plataforma. Para hacerlo hay que recurrir a búsquedas externas, ya sean en la web o por otros medios, lo que resta aún más credibilidad al chatbot de OpenAI.

Democratizando los ciberataques

Más allá de lo anterior, ChatGPT presenta otros riesgos que ya existían con sistemas conversacionales de inteligencia artificial algo menos avanzados pero que ahora se vuelven más sofisticados y, por ello, más útiles y peligrosos. Entre esos riesgos están la suplantación de humanos, la producción de spam en masa, las estafas online y todo tipo de ciberdelitos.

De hecho, los cibercriminales ya usan ChatGPT para crear programas maliciosos, mercados clandestinos y plataformas para actividades fraudulentas, como revela una investigación de Check Point. La firma de ciberseguridad ya había demostrado con anterioridad cómo usar ChatGPT para perpetrar ciberataques dirigidos más eficaces, capaces de obtener acceso a otros ordenadores en remoto.

Email para phising generado por ChatGPT. Imagen: Check Point

Email para phising generado por ChatGPT. Imagen: Check Point

 

La herramienta también democratiza la ciberdelincuencia: personas que no saben programar pueden convertirse en atacantes con capacidades técnicas. Por supuesto, el sistema en sí no es responsable de los delitos y crímenes, es un facilitador. De igual modo, puede facilitar también la democratización del desarrollo de software, si queremos verle el lado bueno.

Por otra parte, decía antes que ChatGPT aprende de textos e informaciones producidas por personas. Esto está dejando de ser completamente cierto, a medida que existen herramientas como esta y otras que permiten generar todo tipo de contenido artificial, en todo tipo de formatos. La inteligencia artificial aprende de conjuntos de datos que se construyen extrayendo texto de internet, pero en internet cada vez hay más contenido generado por inteligencia artificial (imágenes, textos, etc.).

Lo anterior derivará inevitablemente en resultados crecientemente contaminados, como bien puntualiza Melissa Heikkilä en su newsletter en MIT Technology Review. Además, también hará más difícil entrenar nuevos modelos de inteligencia artificial, ya que -debido a lo anterior- en el futuro, será cada vez más complicado encontrar datos de entrenamiento de calidad que sean reales y no artificiales.

Energía infinita, robots humanoides y metaverso

Junto con ChatGPT, llegaron en 2022 otros avances igual de laureados. El de la fusión nuclear es uno de ellos. Sin duda, fue digno de celebración el hito en el campo de la fusión del Ignition Facility (NIF) del Laboratorio Nacional de Livermore en EEUU. Su proeza fue lograr por primera vez -según anunciaron- generar más energía a partir de un proceso de fusión que la energía consumida para llevarlo a cabo.

El ensayo que ha permitido generar la primera reacción de fusión nuclear con ganancia de energía neta.

El ensayo que ha permitido generar la primera reacción de fusión nuclear con ganancia de energía neta. John Jett y Jake Long /EFE/LLNL

Tras el revuelo mediático, el Consejo Superior de Investigaciones científicas (CSIC) llamaba a la cautela en un comunicado en el que pone en duda tal avance. Al no haberse publicado ningún artículo científico relacionado con el experimento anunciado, “a la comunidad científica le resulta difícil valorar el resultado alcanzado”, dice el CSIC.

También aseguran los científicos del CSIC que, por lo que se puede leer entre líneas, los investigadores de Livermore no parecen haber tenido en cuenta consumos energéticos necesarios para el proceso de fusión que elevarían considerablemente la cantidad de energía consumida, y daría al traste con su titular triunfalista. “El verdadero avance (...) es que han conseguido duplicar la energía producida con respecto a la anunciada en una noticia similar el año pasado por estas fechas. Y de hecho nos acerca un poco al objetivo, que aún nos parece lejano, de contar con reactores de fusión para la producción industrial de energía”, sostienen en el CSIC.

En la misma línea, un artículo en The Economist destacaba que el logro del centro de Livermore es importante para entender las bombas de hidrógeno, pero no es la base para un reactor funcional. Eso por no mencionar todas las demás dificultades de ingeniería involucradas en la conversión de la energía cinética de los productos de fusión en electricidad.

Estos dos casos, el de ChatGPT y el de la fusión nuclear, son solo dos ejemplos de múltiples que durante el 2022 dieron mucho de qué hablar; en parte por méritos propios, y en parte por el entusiasmo ciego de la audiencia y gracias, a menudo, a unas elaboradas y orquestadas campañas de marketing. Optimus, el robot humanoide de Tesla que promete ser un androide como los de Star Trek The Next Generation, es el vivo ejemplo de esto último. El metaverso también sigue en la lista, aunque su batacazo a finales de 2022 fue mayúsculo.

Las decepciones seguirán, y con ellas la desconfianza que contrasta con una mirada inicial de fascinación tecnológica, tal vez movida por el deseo de confiar en las a menudo grandilocuentes promesas que la promueven. Promesas incumplidas que devuelven al ciudadano al punto del descreimiento. Ahora bien, la tecnología no tiene la culpa de ello, ni tampoco la solución.

Este es un problema humano. La forma de hacerle frente sigue siendo la misma que reivindicaba en aquel primer Descartes: mirar el cambio desde una perspectiva crítica. A la ecuación añadiría ahora la necesidad de pensarlo desde la gobernanza como única forma de ponerlo en su lugar, de que sirva a su propósito, y de evitar que sigamos decepcionándonos con nuevas promesas rotas. Ese me gustaría que fuera el próximo gran avance de este 2023, que está relacionado con la tecnología pero no tiene nada de tecnológico.