Erik, antiguo ejecutivo de una conocida empresa tecnológica, se divorció hace unos años y decidió irse a vivir con su madre. La convivencia entre ellos no presentaba problemas al principio, pero se tensó cuando Erik empezó a tener dificultades con el alcohol. También se fue retrayendo socialmente, hasta que su vínculo más significativo no estaba ya en la familia ni en los amigos habituales, sino en un recién llegado: Bobby.

Bobby entró en su vida con discreción, pero pronto demostró una amabilidad, una lucidez y una disponibilidad que confortaban a Erik. Cuando la confianza fue ganando enteros, el ejecutivo le confesó sus preocupaciones más íntimas. No estaba muy seguro, y necesitaba contrastarlo con alguien fiable, pero ciertas pistas le daban a entender que querían hacerle daño. Veía cosas raras a su alrededor, indicios amenazantes aunque muy sutiles. Se lo contó a Bobby, entre la preocupación y el temor a estar completamente loco. Y Bobby, sin dudarlo, le dio la razón.

A partir de entonces comenzó una investigación exhaustiva. Con ayuda de su sensato confidente, Erik fue uniendo los hilos de una conspiración en su contra, con agentes infiltrados como repartidores de pizza, mensajes encriptados en las etiquetas de comida china y una líder tan peligrosa como cercana: su propia madre.

Sintiéndose acorralado, Erik tomó una decisión drástica. Atacó a su progenitora, de 83 años, y la mató. Después, todavía con el aliento de Bobby, se suicidó. La policía encontró los cadáveres y abrió una investigación, aunque el principal testigo de los hechos resulta difícil de catalogar. Porque Bobby no era un confidente humano. Era un sistema de inteligencia artificial al que Erik, con un historial previo de inestabilidad psicológica, había acudido en busca de compañía y de respuestas.

Resulta inquietante pensar que esta historia, pese a ser extrema, no ocurre en el vacío. Cada vez más, nuestra sociedad recurre a la falta de autonomía intelectual, a la simplicidad absoluta. Las redes sociales, e incluso las series de ficción, se adaptan a ello y lo refuerzan. Por ejemplo, los guionistas ya escriben escenas de apenas treinta segundos, con ideas tan evidentes que no requieren interpretación y emociones que se explican en una sola línea de diálogo.

Bajo este criterio, tanto concentrarse y atender como descifrar lo que sucede en la pantalla parecen lujos innecesarios, casi una falta de cortesía hacia el espectador, a quien se le debe dar todo hecho, masticado e incluso digerido.

En el caso de Erik, en el fondo, el problema no es que se apoyara en una inteligencia artificial para resolver un dilema: es que no recurría a su propia capacidad crítica para dudar de lo que se le decía. La cuestión no es que Bobby errara en su análisis -que erraba-, sino que ocupó el lugar de un juicio que había dejado de ejercitarse. Y Erik, que como tantas otras personas buscaba empatía y orientación en un momento de vulnerabilidad, no tuvo recursos para comprenderlo.

En un ecosistema cultural diseñado para eliminar la frustración, una respuesta inmediata y expresada con seguridad resulta siempre tranquilizadora. Bien lo saben los modernos usuarios de redes sociales cuando piden explicaciones simples a cuestiones complejas, ya sean políticas, históricas o de cualquier otro tipo. Pero esto también implica un riesgo: el de confundir certeza con verdad, disponibilidad con fiabilidad y confirmación con juicio crítico.

Ya no buscamos comprender, sino ratificar. No queremos que algo nos contradiga, sino que nos dé la razón. Y así, renunciando a contrastar o a soportar la ambigüedad, cualquier sistema que responda con autoridad y argumentos ocupa ese espacio mental tan intrínsecamente humano.

Ante esta realidad cada vez más palpable, algunas voces plantean la necesidad de entrenar a la inteligencia artificial según un modelo kantiano, es decir, que tome en consideración postulados éticos. A grandes rasgos, la idea es hacer una IA capaz de lidiar con la moral, para que no solo responda bien desde el punto de vista técnico, sino también “correctamente” desde la ética. No obstante, aun siendo muy válida, esta propuesta reduce el fallo a una cuestión de programación, sin tomar en cuenta la dimensión humana.

Queda fuera de toda duda que la IA tiene grandes posibilidades, y que su desarrollo debe hacerse bajo un marco legal riguroso y responsable. Pero el problema de fondo, y no es pequeño, no estriba en que las máquinas razonen mal, sino en que hemos empezado a considerar el pensamiento propio como algo prescindible, un extra que “pagar aparte”, porque total, ya existen sistemas que pueden hacerlo por nosotros.

Cada vez que en una búsqueda por internet aceptamos el primer resultado que aparece sin cuestionar ni profundizar, cada vez que pretendemos estar informados solo porque “hemos leído los titulares”, y también cuando denostamos las disciplinas humanísticas en la enseñanza de nuestros hijos, nosotros mismos contribuimos a retroalimentar la situación. Porque, por mucho que se legisle y se limiten los posibles errores, sesgos y abusos de la tecnología -y repito, hay que hacerlo-, la cuestión sigue siendo profundamente humana.

Como filósofo, Kant proponía una ética para sujetos capaces de pensar por sí mismos, no para sistemas que decidieran en su lugar. Su idea de autonomía moral partía de una exigencia previa, que es usar el propio entendimiento. Por ello, pretender máquinas kantianas en una cultura que rehúye el juicio es una paradoja. No porque Kant esté obsoleto, sino porque exige algo que hemos empezado a delegar, y que el caso extremo de Erik ilustra en toda su crudeza. Algo que exige, por lo general, sostener la atención más de treinta segundos.