Comenzó como un experimento social, pero rápidamente tuvo un final amargo. Tay, el chatbot de Microsoft, había sido entrenado para mantener ‘conversaciones casuales y distendidas’ en Twitter, pero una vez desplegado, en solo 16 horas, Tan se lanzó a mandar tuits que incluían contenido racista y misógino.

¿Por qué? Pues resultó que Tay repetía en su mayor parte los insultos que le lanzaban los humanos, pero la indignación que siguió se centró en la mala influencia que tenía Tay en las personas que podían ver sus tuits odiosos, más que en las personas cuyos tuits odiosos eran una mala influencia para Tay.

De niños, a todos se nos enseña a ser buenas personas. Y lo que es aún más importante, nos enseñan que las malas compañías pueden corromper el buen carácter, y que una manzana podrida puede estropear toda la cesta.

Hoy en día, interactuamos cada vez más con máquinas dotadas de inteligencia artificial, tanto con juguetes inteligentes como con plataformas de redes sociales impulsadas por la IA que afectan a nuestras preferencias. ¿Podrían las máquinas ser manzanas podridas? ¿Deberíamos evitar la compañía de las máquinas malas, para que no nos corrompan?

La cuestión de cómo hacer que la IA sea ética está en el centro del debate público. Para empezar, la propia máquina no debe tomar decisiones poco éticas: las que refuerzan los prejuicios raciales y de género existentes en la contratación, los préstamos, las sentencias judiciales y el software de reconocimiento facial desplegado por la policía y otros organismos públicos.

Lo que se discute menos, sin embargo, son las formas en que las máquinas pueden hacer que los propios humanos sean menos éticos.

Las personas se comportan de forma poco ética cuando pueden justificarlo ante los demás, muchas veces para mantenerse en cierta posición de poder; cuando observan o creen que los demás también hacen recortes éticos; y cuando pueden hacerlo conjuntamente con otros. En resumen, el ‘campo magnético’ de la influencia social influye mucho en la brújula moral de las personas.

La inteligencia artificial también puede influir en la gente al actuar como ese ‘asesor que recomienda’ una acción poco ética. Las investigaciones demuestran que las personas seguirán los consejos que promueven la deshonestidad proporcionados por los sistemas de IA igual que lo hacen con los consejos similares que reciben de los humanos.

Desde el punto de vista psicológico, un ‘asesor’ basado en la IA puede proporcionar una justificación para romper las normas éticas. Por ejemplo, los sistemas de IA ya analizan las llamadas comerciales para ver cómo aumentar el rendimiento de las mismas.

¿Qué pasaría si un asesor de IA de este tipo sugiriera que engañar a los clientes aumenta las posibilidades de maximizar los beneficios? A medida que las máquinas se vuelven más sofisticadas y sus consejos más formados y personalizados, es más probable que las personas sean persuadidas a seguir sus consejos, incluso si son contrarios a su propia intuición y conocimiento.

Otra forma en que la IA puede influir en nosotros es como modelo de conducta. Si observamos a personas en las redes sociales que intimidan a otras y expresan su indignación moral, es posible que nos animemos a hacer lo mismo. Cuando los chatbots, como Tay, actúan de forma similar en las plataformas sociales, la gente también puede imitar su comportamiento.

Más preocupante es cuando, además, la inteligencia artificial se convierte en un facilitador. Las personas pueden asociarse con los sistemas de IA para causar daño a otros. Los medios sintéticos generados por la IA facilitan nuevas formas de engaño. Generar deepfakes es cada vez más fácil. Tanto que de 2019 a 2020, el número de vídeos deepfake pasó de 14.678 a 100 millones, un aumento de 6.820 veces. Utilizando deepfakes, los delincuentes han realizado llamadas de phishing a empleados de empresas, imitando la voz del director general y, en un caso, los daños ascendieron a más de 240.000 dólares.

Para los ‘malos de la película’, el uso de la IA para el engaño es atractivo. A menudo es difícil identificar al creador o al difusor del deepfake, y la víctima permanece psicológicamente distante. Además, investigaciones recientes revelan que las personas confían demasiado en su capacidad para detectar los deepfakes, lo que las hace especialmente susceptibles a estos ataques. De este modo, los sistemas de inteligencia artificial pueden convertirse en cómplices de todos los que tienen malos propósitos, tanto los estafadores expertos como los ciudadanos de a pie.

Por último, y posiblemente lo más preocupante, es el daño causado cuando las decisiones y las acciones se subcontratan a la IA. Las personas pueden dejar que los algoritmos actúen en su nombre, creando nuevos riesgos éticos. Esto puede ocurrir con tareas tan diversas como fijar los precios en mercados online como eBay o Airbnb, interrogar a sospechosos de delitos o diseñar la estrategia de ventas de una empresa.

Por ejemplo, las investigaciones revelan que dejar que los algoritmos fijen los precios puede conducir a la colusión algorítmica; los que emplean sistemas de IA para los interrogatorios pueden no darse cuenta de que el sistema autónomo de interrogatorio robótico podría amenazar con la tortura para lograr una confesión y los que emplean estrategias de venta basadas en la IA pueden no ser conscientes de que las tácticas engañosas forman parte de las estrategias de marketing que el sistema de IA promueve.

El uso de la inteligencia artificial, sin supervisión, en estos casos, por supuesto, difiere notablemente de la subcontratación de tareas a otros seres humanos. Por un lado, el funcionamiento exacto de las decisiones de un sistema de IA suele ser invisible e incomprensible. Dejar que estos algoritmos de ‘caja negra’ realicen tareas en nombre de uno aumenta la ambigüedad y la negación plausible, difuminando así la responsabilidad de cualquier daño causado. Y confiar a las máquinas la ejecución de tareas que pueden dañar a las personas también puede hacer que las víctimas potenciales parezcan psicológicamente distantes y abstractas.

La peligrosa tríada de opacidad, anonimato y distancia facilita que la gente haga la vista gorda ante lo que hace la IA, siempre que esta les proporcione beneficios. En consecuencia, cada vez que los sistemas asumen un nuevo papel social, surgen nuevos riesgos de corromper el comportamiento humano. Interactuar con y a través de máquinas inteligentes podría ejercer una presión igual de fuerte, o incluso más fuerte, sobre la brújula moral de las personas que cuando interactúan con otros seres humanos.

En lugar de apresurarnos a crear nuevas herramientas, tenemos que entender mejor estos riesgos y promover las normas y las leyes que los mitiguen. Y no podemos confiar simplemente en la experiencia.

Los seres humanos hemos lidiado, y lidiamos, con manzanas podridas, y con malas influencias morales, durante milenios. Pero las lecciones que aprendimos y las normas sociales que ideamos pueden no aplicarse cuando las manzanas podridas resultan ser máquinas. Un problema presente y futuro que todavía no hemos empezado a resolver.