Ted Lechterman, director de la Cátedra de ética y gobernanza de la IA de la UNESCO.

Ted Lechterman, director de la Cátedra de ética y gobernanza de la IA de la UNESCO. IE

Política Digital ENTREVISTA

Ted Lechterman: “Democratizar la IA no es hacerla accesible, es compartir el poder”

El director de la Cátedra UNESCO de Ética y Gobernanza de la IA reclama participación e infraestructuras públicas de IA frente al dominio de los gigantes tecnológicos.

Más información: La inteligencia artificial promete desbloquear hasta 560.000 millones de dólares anuales en I+D, según McKinsey

Publicada
Actualizada

Solo hay una en el mundo y está en España. Es la primera ‘Cátedra de ética y gobernanza de la IA’ de la UNESCO. La lidera Theodore “Ted” Lechterman, doctor en filosofía, cuya carrera académica se ha desarrollado en las universidades más prestigiosas (Harvard, Princeton, Stanford …) Miembro fundador del Instituto para la Ética de la IA en la Universidad de Oxford, ejerce ahora como profesor e investigador en IE University, donde dirige la Cátedra, inaugurada en 2024.

Uno de sus primeros logros es traer este otoño a Madrid la Conferencia AAAI/ACM sobre Inteligencia Artificial, Ética y Sociedad (AIES). Será la primera vez que este congreso internacional se celebre en Europa continental, coorganizado por Lechterman y su equipo.

El investigador se prepara además para lanzar su nuevo libro, Recoding democracy: AI and the fight for democracy's future. En conversación con DISRUPTORES - EL ESPAÑOL, habla de poder, de democracia y de qué se traduce en la práctica la ética de la IA.

En su libro The Tech Coup, la ex europarlamentaria Marietje Schaake afirma que la digitalización ha supuesto, en realidad, una privatización: los gobiernos han delegado funciones críticas a actores privados cuyas prioridades no coinciden con el interés público. ¿Está de acuerdo?

Me parece bastante plausible. Hemos asistido a una tendencia constante de externalización en las últimas décadas. Y la digitalización refleja claramente esa trayectoria: los gobiernos delegan servicios esenciales e incluso procesos de toma de decisiones. La IA lleva esto un paso más allá, al externalizar funciones cognitivas propiamente humanas.

La pregunta es si esa externalización es coherente con los principios fundamentales de la democracia. Si las empresas privadas controlan estas tecnologías, ¿los ciudadanos y los gobiernos mantienen alguna autoridad real sobre ellas?

¿Qué otros retos plantea la adopción de la IA en los gobiernos democráticos?

Uno de los problemas fundamentales es su opacidad de las llamadas ‘cajas negras’. En algunos casos, es prácticamente imposible saber cómo estos sistemas llegan a determinados resultados. Eso choca con los principios democráticos, que requieren escrutabilidad para que los ciudadanos puedan evaluar si están siendo tratados con igualdad.

Algunos dicen: “bueno, las burocracias gubernamentales ya son opacas”. Es cierto. Pero eso no justifica añadir más opacidad. Ese es también uno de los aspectos fortuitos del estudio crítico de la IA: ciertas críticas que también se aplican a problemas preexistentes pueden ayudarnos a arrojar nueva luz sobre cuestiones que hemos malinterpretado o pasado por alto.

Privatización, explicabilidad… ¿Qué más hay que considerar en el binomio IA-democracia?

El discurso público y la investigación sobre este tema se ha centrado sobre todo en la desinformación en elecciones y en la automatización de servicios públicos, pero la democracia es mucho más que votar o gestionar trámites. Pensemos en los modelos fundacionales: sistemas de IA de propósito general extremadamente potentes y caros, desarrollados por unas pocas empresas en los Estados Unidos, con alcance global.

¿Por qué es tan preocupante esa concentración de poder?

Estos modelos se entrenan con cantidades enormes de datos de internet, que incluyen tanto información valiosa como sesgos y desinformación. Los desarrolladores deben decidir qué datos incluir, cómo representar temas polémicos como el aborto o la evolución, qué valores reflejar… Son decisiones que están tomando empresas privadas, en lugar de instituciones democráticas. Y luego estos modelos se integran en los procesos analíticos y de toma de decisiones en todas las empresas y gobiernos del mundo.

Además, muchas personas (especialmente quienes no han recibido una educación crítica sólida) tienden a aceptar lo que dice la IA como verdad. Esto se llama sesgo de automatización: confiamos más en las máquinas que en las personas. Nos parecen más objetivas, aunque demostrablemente sean menos fiables que los expertos humanos.

Algunos países como España o Suiza están desarrollando modelos nacionales de IA generativa. ¿Cree que pueden servir de contrapeso a las grandes tecnológicas?

Es un avance interesante. Un modelo nacional puede abrir la puerta a una mayor influencia ciudadana. Los ciudadanos suizos, por ejemplo, podrían tener cierta capacidad de decisión, aunque sea indirecta, sobre cómo funciona su modelo. Pero tampoco es la solución perfecta. Hay riesgos asociados al control estatal, como la censura, la vigilancia o la exclusión de minorías.

También se podría imaginar un consorcio de organizaciones sin ánimo de lucro y fundaciones uniéndose para crear diversos tipos de modelos, participativos y enfocados en proporcionar modelos de IA que respondan al interés público. Esa podría ser otra alternativa entre la nacionalización y el mercado privado competitivo. Tal vez un ecosistema mixto -una combinación de todo lo anterior- sea lo mejor que podemos esperar.

Los modelos públicos deben ser competitivos. Si no funcionan bien, la gente recurrirá a alternativas privadas…

Es una preocupación legítima. Pero también tenemos que definir qué significa “estar a la altura”. Tal vez un modelo catalán no genere imágenes tan realistas como DALL·E, pero sí sea más sensible a la literatura catalana o a los valores culturales locales.

Debemos pensar en términos de compensaciones. ¿Qué ganamos y qué perdemos con cada modelo? El sector público parte con desventaja, y necesita tiempo para alcanzar un rendimiento aceptable. Pero no siempre debemos juzgar por velocidad o funcionalidad: tal vez otros criterios importen más.

Algunos defienden que los gobiernos no deberían desarrollar tecnología, solo facilitar que el mercado lo haga. ¿Deben los estados invertir directamente en IA?

Esta tecnología es demasiado influyente como para dejarla exclusivamente en manos del mercado. Tiene implicaciones en seguridad nacional, educación, trabajo, economía, salud mental… Pero esta misma lógica que justifica la intervención del gobierno también exige mecanismos de control para evitar el autoritarismo digital. Es una moneda de dos caras: necesitamos que el Estado esté implicado, pero con límites claros.

¿Y si combinamos ambos riesgos? Corporaciones todopoderosas y gobiernos que intervienen cuando les conviene, en una especie de ‘tecnototalitarismo’, como en EE.UU…

Es un riesgo real. La falta de control estatal no significa libertad: puede significar control privado sin legitimidad democrática. En una democracia, el gobierno responde a los ciudadanos; una empresa responde a sus accionistas. Y si puede trasladarse a otro país para evitar regulaciones, el problema se agrava.

Si a esto se añade una situación en la que los líderes políticos influyen o se alían con grandes tecnológicas, el resultado es desastroso.

El discurso también puede ser tóxico. Como cuando las tecnológicas hablan de “democratizar la IA” pero en realidad se refieren a democratizar su acceso.

Que cualquiera pueda usar ChatGPT no es democratización, es expansión comercial. Democratizar significa compartir el poder. Si los ciudadanos no pueden influir en cómo funciona un sistema, qué decisiones toma y qué valores refleja, no es una IA democrática. Para que sea realmente democrática, las personas afectadas por estos sistemas deben poder influir en su diseño y gobernanza. Eso puede hacerse desde gobiernos, ONGs, comités ciudadanos… Y una de las áreas más interesantes de la investigación actual es analizar con mayor precisión qué significa democratizar la IA y cuál es la mejor manera de lograrlo.

Las empresas también pueden promover esta gobernanza democrática. ¿Qué incentivos podrían tener para ello?

Uno de los mayores enigmas en el estudio de la ética empresarial es por qué las empresas contribuyen a los problemas sociales, a pesar de las buenas intenciones de muchos directivos y empleados. Algunas empresas de inteligencia artificial ya están preocupadas por el posible “techlash” derivado de las asimetrías de poder y han financiado iniciativas de I+D para investigar cómo pueden apoyar la democracia, pero los gobiernos y la sociedad civil tendrán que ajustar las estructuras de incentivos si queremos que el interés público a largo plazo prevalezca sobre los intereses empresariales a corto plazo.

¿Qué otros errores de concepto hay en el ámbito corporativo en torno a la IA?

El primero es la propia definición de IA, entiendo que se refiere a diversas tecnologías informáticas que participan en el procesamiento cognitivo con mayor o menor independencia de la programación humana explícita. Es un conjunto bastante amplio de diferentes tipos de tecnologías. Podemos pensar en diferentes dimensiones, diferentes parámetros para esta tecnología, desde filtros de spam, predicción meteorológica y coches autónomos, hasta la IA superinteligente, que es más inteligente que los seres humanos (algo que, por supuesto, no existe y tal vez nunca exista, pero al menos es una posibilidad conceptual). Así que realmente se trata de una amplia gama de tecnologías. No todo es ChatGPT ni generativo.

Otros malentendidos surgen en torno a la ética, que no es lo mismo que responsabilidad, seguridad, alineamiento o gobernanza, aunque a veces se usen de forma indistinta. La ética es el intento de identificar las mejores razones para la acción y guiar nuestra conducta por ellas. Por tanto, la ética de la IA nos plantea: ¿Cómo podemos desarrollar, implementar y gestionar esta amplia gama de tecnologías difeirentes de acuerdo con las mejores razones para actuar?

¿En qué se traduce esto en la práctica?

No se trata solo de evitar graves infracciones o de cumplir con los estándares socialmente aceptados. De hecho, estos pueden no ser moralmente correctos. La esclavitud fue aceptada durante cientos de años en diversos lugares, pero definitivamente es poco ética, ¿verdad?

Frente a esto, la ética (las mejores razones para actuar) implica generalmente evitar las peores formas de abuso, independientemente de si la opinión pública es plenamente consciente del daño. La ética también trata de sopesar las compensaciones entre diferentes valores que compiten por nuestra atención. Se trata de identificar las mejores acciones y no solo evitar las peores. No es un trámite ni una lista de verificación. Requiere una comprensión holística y sistemática. Si creemos que la IA va a transformar la sociedad, entonces su gobernanza ética es una prioridad estratégica, no solo legal. Las juntas directivas y los equipos ejecutivos deben tratar estos temas con la misma seriedad que cualquier otro riesgo u oportunidad empresarial.

¿Cumplir con la Ley de IA de la UE es suficiente?

No. La Ley de IA es un buen punto de partida, pero no lo cubre todo. La tecnología avanza más rápido que la legislación. Si esperas a que haya leyes, ya será tarde. Por eso se necesitan políticas éticas proactivas, una estrategia de “cumplimiento plus” que vaya más allá de la ley. Existe un riesgo muy real de que las empresas que solo cumplen incurran en diversas formas de irregularidades, perjuicios o complicidad si no lo hacen.

Al mismo tiempo, las empresas deben ser muy cautelosas a la hora de abusar de su poder para resolver por su cuenta cuestiones éticas controvertidas mientras esperan una legislación más completa. Lograr este equilibrio entre el cumplimiento normativo y la responsabilidad proactiva es realmente difícil, y normalmente no es posible conseguirlo siguiendo una lista de verificación, comprando algún software analítico o pidiendo a alguien del departamento de cumplimiento normativo que se encargue de un “proyecto especial”. Las empresas que se toman en serio la IA responsable deben invertir en conocimientos especializados en materia de ética.

Además es una inversión en legitimidad y en competitividad, ya que a menudo la ética ayuda a crear sistemas más robustos, que cometen menos errores… En la Cátedra también trabajáis para orientar a los negocios sobre sus responsabilidades en este sentido.

Sí. Nos interesan tanto la investigación básica como la aplicada, y actualmente estamos trabajando en cuatro áreas principales: IA y democracia, futuro del trabajo, IA para el bien común, y distribución de la autoridad en la gobernanza de la IA, con investigadores como Luz Rello, profesora en el departamento de Sistemas de Información, y Antonio Aloisi, profesor de Derecho laboral y de regulación digital, que están haciendo un trabajo extraordinario. También estamos trabajando en formación, elaboración de políticas y divulgación pública.

¿Cómo ves el futuro? ¿Hay razones para la esperanza?

Si soy sincero, no puedo ignorar el hecho de que vivimos en tiempos inusualmente precarios, por lo que mi perspectiva cambia día a día. Algo que me da esperanza es el enorme entusiasmo que hemos visto por la conferencia AIES. El número de propuestas recibidas ha batido todos los récords anteriores, e incluso hemos ampliado el programa para dar cabida a más investigaciones innovadoras sobre la ética de la IA. Al revisar las propuestas, me ha impresionado la sofisticación, el ingenio y la diversidad de las nuevas investigaciones que se están llevando a cabo en este ámbito. La ética de la IA ha pasado de ser un tema de investigación minoritario a convertirse en un tema de investigación mayoritario. Con un poco de tiempo, es posible que se extienda al mundo empresarial y al ámbito gubernamental.