La inteligencia artificial (IA) es, sin duda, la tecnología que está definiendo nuestro tiempo. En solo unos años ha conseguido asombrarnos, nos promete soluciones infinitas y nos seduce con su precisión, su escalabilidad y su rendimiento.

Pero esta fascinación, que ciertamente responde a hechos, es también y solamente una cara de la moneda. Por primera vez en la historia de la humanidad, nos enfrentamos a una tecnología capaz de tomar decisiones no humanas que impactan, y mucho, en nuestra vida personal, profesional y social, seamos o no conscientes de ello.

La seducción de la máquina

Nuestra confianza en la IA no para de crecer, y créame lector, no es por casualidad. La tecnología siempre ha sido un pilar fundamental en nuestra evolución como especie, una base esencial para el progreso social y una herramienta en la que nos ha proyectado históricamente a niveles superiores de bienestar.

Por eso, existe cierta inercia social oculta, una percepción de la IA como algo “superpotente”, infalible. Y a esa inercia se añaden otras razones muy concretas que alimentan nuestra "seducción de la máquina".

En primer lugar, la eficiencia y la escalabilidad, ambas irresistibles. La IA opera a velocidades de vértigo, gestionando tareas que superan con creces la capacidad humana. Pensemos en algoritmos financieros moviendo millones en un segundo, maximizando beneficios o minimizando riesgos de formas que escapan a nuestra velocidad de pensamiento.

O sistemas que procesan miles de reclamaciones de seguros al día, acortando esperas y reduciendo costes de manera drástica. O una IA gestionando el tráfico aéreo de la forma más segura o interviniendo en sistemas de emergencia, demostrando una capacidad de cálculo y una precisión muy superiores a las humanas.

A ello se suma la percepción de objetividad. Entendemos que los algoritmos, al no tener emociones ni prejuicios, elaboran resultados de forma imparcial, por ejemplo, en los “scoring” financieros y crediticios, en los sistemas que analizan licitaciones públicas detectando patrones de riesgo de corrupción, o en las plataformas anti-plagio. La IA no prejuzga. Es objetiva.

También nos fascina su precisión y rendimiento, como los del sistema de diagnóstico médico IBM Watson que analiza millones de publicaciones y casos clínicos, sugiriendo tratamientos oncológicos con una exactitud que a veces supera la del propio médico humano.

O los de las herramientas que evalúan riesgos en infraestructuras críticas, analizando miles de variables geológicas, arquitectónicas y climáticas y que nos ofrecen una capacidad de predicción asombrosa.

En un mundo cada vez más complejo, incierto e inabarcable, la IA nos da un refugio, una solución simple, sencilla y confiable, nos ofrece una sensación de seguridad. Nos seduce un sistema que genera control y estabilidad en el que podemos delegar decisiones.

Los desafíos de delegar decisiones cruciales

Un punto crítico cuando profundizamos en este tema es el de los sesgos algorítmicos. Resulta que los algoritmos aprenden, y peor aún, pueden amplificar los prejuicios que ya existen en los datos con los que se entrenan.

Esto perpetúa desigualdades, negando oportunidades basándose en datos históricos que ya eran injustos. El caso del sistema Compas en Estados Unidos, utilizado para predecir reincidencia, es un ejemplo notorio, criticado por mostrar sesgos raciales.

También nos enfrentamos a la opacidad y falta de explicabilidad de los algoritmos, a menudo protegidos por sus "cajas negras". Incluso a veces, los sistemas son tan complejos que ni sus propios creadores pueden explicar del todo por qué se toma una decisión concreta o predecir qué decisión se tomará.

Esta opacidad impide a usuarios y reguladores comprender el proceso decisorio, dificultando la auditoría, la corrección de errores y la construcción de confianza, especialmente en ámbitos críticos como la justicia o la medicina.

Íntimamente ligado a esto, y quizás el desafío más inmediato, es el problema de la responsabilidad y atribución de culpa. Si un coche autónomo tiene un accidente, si un algoritmo discrimina, o si una IA comete un error con graves consecuencias, ¿quién paga los platos rotos? Hoy por hoy, la respuesta “en la práctica, nadie”. Sin legislación específica, plantarse ante el poder de la oligarquía tecnológica mundial, esperando alguna justicia sobrepasada, nos da alguna idea de las dificultades.

Por último, nos enfrentamos a una potencial autonomía y delegación excesivas. Si delegamos tanto en la IA, disminuirá nuestra propia capacidad de decidir, nuestra autonomía, lo que nos hace más humanos, asistiendo a la puesta en marcha, por ejemplo, de Armas Letales Autónomas (LAWS) o, más sencillamente, asistiendo a la “dictadura del algoritmo” como ocurre en las plataformas de la economía gig.

Es en este punto donde la distinción entre ética en la IA y ética de la IA cobra importancia. La ética en la IA, se refiere a cómo se construye: qué datos usa, cómo se programa, qué valores éticos se intentan introducir en su funcionamiento interno, el “cómo se hace”.

En contraste, la ética de la IA mira hacia fuera, hacia su impacto real en la sociedad: a quién beneficia, a quién perjudica, qué derechos puede estar afectando, qué consecuencias tiene en la vida de las personas.

Una cosa es la intención al diseñar, y otra muy distinta, el resultado en el mundo real. Y esta distinción precisamente pone el foco en el vacío de responsabilidad que mencionaba antes. Ideas como la auditoría algorítmica —revisiones sistemáticas para ver si los algoritmos son justos y cumplen normas éticas y legales, detectando sesgos antes de que hagan daño— buscan abrir esas cajas negras o al menos controlar lo que sale de ellas.

IA, Democracia y Regulación

También se habla ahora mucho del riesgo que la IA supone para la democracia. Personalmente, no creo que la IA vaya a destruirla por sí misma. Sin embargo, sí advierto, y mucho, sobre el uso que le demos. La desinformación generada por IA, la manipulación electoral, la polarización… son riesgos muy serios para los sistemas democráticos que pueden potenciarse a través de un uso no ético de la IA.

Por eso la democracia tiene que evolucionar. No se trata de asustarse e intentar frenar o dictar moratorias al desarrollo de esta tecnología, sino de utilizar las herramientas de las que la democracia dispone para gestionarla.

No necesitamos que todos los ciudadanos entiendan cómo funciona un algoritmo por dentro, de la misma manera que no necesitamos saber de mecánica para conducir un coche. Pero lo entenderemos como sociedad a través de nuestro sistema representativo, que sí debe contar con los recursos y voluntad para hacerlo y para exigir transparencia, pedir cuentas sobre el impacto de la IA y legislar.

La clave es usar las reglas democráticas para guiar la tecnología, no al revés, aunque siempre deberemos defendernos ante los desafíos procedentes de aquellos que utilizan la IA para debilitar la democracia, recortar derechos o imponer soluciones salvadoras. La clave está en estar vigilantes y saber adaptarse.

El desafío global: regulación y cosmovisiones

Y aunque siempre la regulación llegue tarde porque la innovación y la tecnología siempre la preceden, por su propia naturaleza, nos encontramos en un momento de máxima aceleración en las transformaciones tecnológicas que nos debe obligar a incrementar también nuestra velocidad regulatoria, limitada por nuestros esquemas decimonónicos.

Es cierto que la Unión Europea está realizando un esfuerzo pionero con su ley de IA, intentando regular según el riesgo de cada aplicación, pero el desafío es global. Lo que haga Europa no tiene por qué ser adoptado en Estados Unidos, China o India. Usamos tecnología que viene de todas partes, y cada potencia va a su ritmo y con sus intereses.

Aquí es donde entran en juego las cosmovisiones, que constituyen, en mi opinión, el nudo gordiano de la cuestión ética global en y de la IA. La IA no es solo tecnología, es también cultura codificada. ¿Cómo vamos a establecer límites éticos universales si nuestras visiones del mundo son tan distintas? Occidente-Oriente, Norte-Sur, Autarquía-Democracia… diferentes culturas, diferentes religiones, diferentes pasados, diferentes expectativas...

No hay una única moral universalmente aceptada. Entonces, ¿qué visión ética introducimos en el código de una IA que puede tener impacto sobre personas y sociedades en cualquier parte del planeta?

Y, como corolario, existe un potencial riesgo, intencionado o no, de acabar imponiendo una única visión ética — siempre la del vencedor— a través de la tecnología. Una suerte de colonización digital todavía más profunda que la actual.

¿Cómo podemos asegurarnos de que el desarrollo de la IA sea justo y beneficie a toda la humanidad por igual, sin imponer, sin querer, una única forma de ver el mundo a través del propio diseño de la tecnología? ¿Estamos condenados a tener un mosaico de enfoques distintos, locales, que inevitablemente van a chocar entre sí? Cómo buscar un consenso o marcos de convivencia ética para la IA que respeten la diversidad cultural y moral es, sin duda, la tarea más urgente y compleja que tenemos por delante como humanidad.