Hace unos días formé parte de una de las mesas redondas más complejas en las que he participado en lo que a temática se refiere, “Las líneas rojas de la IA. Ética y utilidad”. Aunque no es nada sorprendente, tan compleja como lo somos los seres humanos.
Organizado por esta casa, desde El Español de Málaga, tuvimos la oportunidad de compartir ideas, acciones y reflexiones en un tema que rara vez ofrece respuestas fáciles.
Si soy sincera, lo que más disfruto y me parece más enriquecedor para mí, llega siempre después. Las preguntas, las dudas, las conversaciones improvisadas. Cuando los asistentes interaccionan, preguntan, exponen y comparten inquietudes.
Verdad, sesgo y razón práctica
La inteligencia artificial puede detectar patrones invisibles al ojo humano. Pero solo la mente humana puede interpretar su significado y valorar su impacto ético. Nos da información, pero la sabiduría para decidir sigue siendo humana. La ética no está solo en el uso de la IA, sino en cómo integramos su visión con el contexto y responsabilidad.
Destacar que ingeniería o estadística, el sesgo es una distorsión o conjunto de datos incompletos. Para mí es importante distinguir entre el sesgo máquina y el sesgo humano. Muchas veces escucho que un sesgo es una mentira, pero una máquina no miente, simplemente interpreta datos incompletos o defectuosos.
Si hablamos del sesgo humano, del que aprende la IA, tenemos más debate si es ético o no tenerlo en cuenta o no. Si hablamos a nivel histórico, quitar el sesgo, es no contar la historia completa, independientemente de que nos guste o no, de que no compartamos ideas o perspectivas o hechos. Y aquí nuestro sentido crítico debe de activarse.
El cerebro humano busca certezas, aunque no sean reales. Esto nos recuerda la distinción kantiana entre razón pura y razón práctica. Podemos conocer hechos o datos, pero debemos usar la razón práctica para actuar correctamente, interpretando lo que es justo y ético, incluso ante información imperfecta.
Daniel Kahneman lo explicaba diciendo que tenemos dos sistemas de pensamiento. El intuitivo, rápido e impulsivo, propenso al sesgo y otro, el racional, lento, analítico y más objetivo. Hoy, más que nunca, debemos ser conscientes de la IH (inteligencia humana) para supervisar la IA.
Para entender todo esto, el otro día puse el ejemplo del “efecto Eliza”. Un programa sencillo fue diseñado por un informático del MIT para simular una conversación terapéutica mediante simples reglas lingüísticas. Su intención era demostrar lo superficial que podía ser una interacción con una máquina.
El resultado fue todo lo contrario. Muchas personas empezaron a atribuirle comprensión y empatía a un sistema que era básico, solo generaba preguntas parafraseadas y cuando desconocía la palabra a la que responder, decía “cuéntame más”. Aquel fenómeno mostró hasta qué punto los humanos tendemos a proyectar intenciones, emociones y significado en máquinas inertes.
Desde entonces, este efecto se ha convertido en una referencia clásica para explicar cómo interactuamos con sistemas que parecen inteligentes, aunque no entiendan nada en absoluto. Si a esto le añadimos que una AI esté integrada en un robot humanoide (aspecto de persona), podemos pensar que Asimov, con sus tres leyes de la robótica, no iba tan alejado del futuro que tenemos por delante.
Arte, IA y filosofía de la percepción
El otro día me comentaron que echaban de menos el punto de filosofía. Y tenían razón, la tecnología no son solo números y algoritmos. La ética es filosofía aplicada a la acción y la decisión, y por eso debemos revisarla junto a la tecnología.
Tal y como he llamado a este artículo, quiero dar el lugar que corresponde a la filosofía. El infinito es ese límite donde las matemáticas no pueden analizar ni cuantificar y la filosofía empieza a preguntarse por el sentido, recordándonos que no todo puede medirse, pero sí puede pensarse. Y, en cierto modo, hoy habitamos precisamente ese “infinito”, ese territorio intermedio donde ambas disciplinas se integran y se necesitan más que nunca.
Hans Jonas ya advertía hace más de treinta años que la tecnología moderna ha creado situaciones de peligro sin precedentes. Su “heurística del temor” no era un llamado al miedo, sino a la responsabilidad reflexiva, la urgencia de considerar las consecuencias de la tecnociencia.
Fontcuberta ya nos anticipó la crítica a la verdad aparente con Sputnik, la historia del cosmonauta que nunca existió. Su objetivo era activar la capacidad crítica del espectador, algo que la filosofía nos enseña: cuestionar lo que damos por cierto es la base de la ética práctica
Pero aunque hablemos de sesgos, de errores de percepción o de esas “alucinaciones” tan comentadas, como cuando FrAI Angelico (una IA desarrollada por la colaboración del Museo del Prado y BSC- Barcelona Supercomputing Center para analizar e interpretar obras clásicas) confundió el dragón de San Jorge con una motocicleta, conviene recordar que todo avance técnico empieza por el desconcierto.
Y es que el otro día pude asistir a uno de los encuentros organizados en el Museo del Prado (Madrid) para acercarnos el arte y la tecnología. Un modelo generativo puede distinguir periodos artísticos a través del contexto histórico y generar versiones alternativas de obras, fomentando comparación y aprendizaje, desde un punto de vista del conocimiento.
Líneas rojas y responsabilidad compartida
Una idea clave afloró una vez más, la ética en la inteligencia artificial solo puede construirse con diálogo entre perfiles transversales, porque ninguna disciplina por sí sola es capaz de abarcar la complejidad del impacto tecnológico.
Mi compañera de mesa, citó Weapons of Math Destruction- Cathy O’Neil, un libro esencial para comprender cómo los datos pueden amplificar desigualdades cuando se usan sin supervisión ni contexto humano. Un recordatorio de que los algoritmos no son neutrales y que el verdadero peligro no está en la máquina, sino en delegar en ella toda la responsabilidad.
En paralelo, me gustaría añadir obras como The Culture Map- Erin Meyer, que nos recuerdan que incluso nuestras decisiones técnicas están condicionadas por modelos mentales, marcos culturales y formas distintas de comunicar, evaluar o liderar. Comprender estas diferencias resulta imprescindible para cualquier proyecto de IA, porque sin esa sensibilidad cultural, esa traducción humana, ni la ética ni la tecnología funcionan de verdad.
Entre lo que calculan las máquinas y lo que intuimos los humanos se abre un espacio que aún no sabemos medir. Tal vez ese sea nuestro verdadero infinito, el lugar donde las preguntas siguen empujando al conocimiento a avanzar.
“La razón humana tiene el destino singular de verse acosada por preguntas que no puede evitar y a las que no puede dar respuesta.” Kant. Crítica de la razón pura.