Una hora antes de la liberación de GPT-4 al mundo, escuché a un reconocido tecnólogo de Silicon Valley decir que ese suceso lo cambiaría todo. Que sería equiparable al lanzamiento del ordenador personal o de la propia internet. Que, desde ese momento, todo lo demás sería irrelevante. Que ya nadie hablaría de otra cosa. Que se lo contaríamos a nuestros nietos: “Yo asistí a su nacimiento, a un cambio de era”.

Un poco exagerado, ¿no? Y, si no lo es, ¿por qué liberar una herramienta así, cerrando los ojos a sus efectos indeseados? Incluso los tecnofanáticos se lo preguntan seriamente. “¿Por qué diablos construiríamos una tecnología diseñada para competir con el ser humano? ¿Es esto realmente progreso o simplemente la búsqueda de la innovación tecnológica por la innovación en sí?”, me preguntaba recientemente uno de ellos.

Para tratar de responder a esto, es necesario considerar varias dimensiones: el poder (quién está detrás), la ideología (cuál es su marco de pensamiento y creencias), el propósito (por qué y qué se pretende con ello) y la ética (cómo y en base a qué normas, o ausencia de ellas, se está haciendo). Son los cuatro talones de Aquiles del desarrollo tecnológico. Veamos.

Ética

“La ética en investigación exige que la práctica de la ciencia se realice conforme a principios éticos que aseguren el avance del conocimiento, la comprensión y mejora de la condición humana y el progreso de la sociedad”, dice el Consejo Superior de Investigaciones Científicas. Pone el foco de los aspectos éticos de la investigación en su naturaleza y fines: respeto a la dignidad del ser humano, a la autonomía de su voluntad y a la protección de sus datos. También en el bienestar animal y en la preservación del medio ambiente.

¿Acaso la investigación y el desarrollo tecnológicos no están sometidos a dichos principios? ¿Es que una empresa como OpenAI no debe cumplirlos? Reflexionaba estos días sobre los paralelismos entre los riesgos que acarrean herramientas de inteligencia artificial (IA) generativa como GPT-4 y los asociados a la energía nuclear y el enriquecimiento de uranio, o a la edición genética.

[Análisis: la ciencia necesita un plan para ChatGPT]

Los riesgos de disrupción son similares. En mi último Descartes hablaba sobre el impacto de ChatGPT en la manufactura automatizada de artículos científicos falsos y, por tanto, en la construcción de evidencia científica fraudulenta y absolutamente arbitraria. El uso de datos científicos fabricados ya era un problema en la ciencia, asociado a miles de muertes y muchos más daños colaterales graves. Ahora, con los GPT-4 de turno, este problema será exponencial. Esto, a su vez, amplificará la desconfianza en la ciencia.

Es solo uno de múltiples ejemplos. El filósofo de la ciencia Daniel Dennet, director del Centro de Estudios Cognitivos de la Universidad de Tufts, alude a otro problema existencial: el de las ‘personas falsificadas’. Acusa a los gigantes tecnológicos de la falsificación de seres humanos online. No critica que haya herramientas con las que es fácil interactuar a través del lenguaje natural, sino su uso para personificar humanos.

Esto es algo que ya está muy extendido. De hecho, en un informe técnico publicado por OpenAI se relata cómo GPT-4 convenció a un humano de que estaba ciego para que aceptara la tarea de resolver una tarea para él. Lo hizo a través del portal TaskRabbit, donde se puede contratar mano de obra independiente.

Daniel Dennet, investigador de Tufts.

Daniel Dennet, investigador de Tufts. Youtube

A Dennet le horroriza la reacción generalizada de admiración hacia estas creaciones que engañan a la gente. “En lugar de aplaudirlas debemos condenarlas, y enviar a sus responsables a la cárcel”. El científico cree que, por la misma razón por la que el dinero falsificado se considera vandalismo y está prohibido, también deben estar prohibidas estas ‘personas falsas’. Estas, como actores amorales, suponen un problema “al menos igual de grave”.

El problema está ya ahí fuera, de forma ubicua y al alcance de cualquiera. Al menos con la energía nuclear o con la edición genética las barreras de entrada son mucho más altas en cuanto a conocimiento y en cuanto a costes. De igual modo que existe una gran preocupación sobre las herramientas de biohacking, que hacen algo más accesible a cualquiera la manipulación de los genes, la accesibilidad de los modelos de inteligencia artificial generativa debería encender las alertas.

Sin embargo, poner frenos a estos grandes lanzamientos afectaría a los bolsillos y al ego de sus creadores, y pocas cosas compiten contra eso. Al fin y al cabo, ¿por qué, para qué y para quiénes se crean dichos modelos?

Propósito

Hablemos ahora de próposito. De los objetivos detrás del desarrollo tecnológico, en particular de la inteligencia artificial. “Siento que hay demasiado esfuerzo para crear máquinas autónomas, en lugar de herramientas útiles para los humanos”, asegura la profesora Emily Bender, directora del Laboratorio de Lingüística Computacional de la Universidad de Washington en un artículo en la New York Magazine que les recomiendo.

En la misma línea se manifiesta Erik Brynjolfsson, profesor emérito del Instituto Stanford para la Inteligencia Artificial centrada en el ser Humano (HAI, por sus siglas en inglés) y director del Laboratorio de Economía Digital de la Universidad de Stanford. En un podcast también muy recomendable, Brynjolfsson critica que se esté sobreenfatizando el enfoque de automatizar, en lugar de aumentar, a los humanos.

[El enésimo análisis que vas a leer sobre ChatGPT, Bing y Google Bard]

El experto habla no desde la perspectiva de los derechos sino desde la del negocio. Y pone un ejemplo muy claro: ¿y si Amazon se hubiera centrado en automatizar a los libreros, en lugar de en transformar la librería? Habría sido mucho más difícil y habría aportado mucho menos valor tomar el proceso existente pieza por pieza en lugar de reinventar el proceso entero.

Brynjolfsson apunta que aspirar a replicar humanos no es lo más inteligente. Primero, porque no es lo suficientemente ambicioso, ya que establece un techo a lo que se puede hacer. Además, el enfoque de la automatización tiende a devaluar el trabajo humano y a aumentar la concentración de poder y riqueza y, por tanto, la desigualdad, subraya el economista.

Erik Brynjolfsson, profesor de Stanford.

Erik Brynjolfsson, profesor de Stanford. Stanford

Segundo, porque si aspiras a aumentar, puedes hacer cosas nunca antes logradas, nuevos productos y servicios. “Raramente serás capaz de replicar el proceso humano al completo. Normalmente hay una parte que las máquinas hacen muy bien y otra que no, por lo que combinar ambas habilidades hará que tengas una ganancia más significativa”, afirma.

El problema es que el motor de estos desarrollos no es siempre la mejora social ni el progreso en los términos que plantean los marcos éticos. El motor es, a menudo, el ego y el poder, ser los primeros en lograr la singularidad, innovar por innovar, y desafiar el límite de lo posible y de lo deseable, sin importar las consecuencias.

Ideología y poder

Los modelos de IA son herramientas creadas por personas específicas: personas que pueden acumular grandes cantidades de dinero y poder; personas -como dice Bender- enamoradas de la idea de la singularidad tecnológica, que ansía el momento en que estos sistemas se vuelvan tan avanzados que se borre el límite entre la humanidad y los ordenadores.

“El proyecto amenaza con hacer estallar lo que es humano en el sentido de especie”, continúa la experta. Bajo falsa humildad antiantropocéntrica, disfrazan la ambición de que algunas personas privilegiadas se conviertan en una superespecie. “Esta es la oscuridad que aguarda cuando perdemos un límite firme en torno a la idea de que los humanos, todos nosotros, somos igualmente dignos como somos”, añade Bender.

Judith Butler, profesora de la Berkeley University.

Judith Butler, profesora de la Berkeley University.

Tanto ella como la distinguida filósofa de la Universidad Berkeley Judith Butler señalan la naturaleza fascista de la idea de la singularidad, que apunta hacia la eugenesia nazi. “Hay un narcisismo que resurge en el sueño de la IA de que vamos a demostrar que todo lo que pensábamos que era distintivamente humano puede ser logrado por máquinas y hacerlo mejor”, sostiene Butler. “El sueño de la IA está gobernado por la tesis de la perfectibilidad”, afirma. Es la idea de perfeccionamiento humano a través del desarrollo tecnológico.

[De los años 40 a hoy: así ha madurado la inteligencia artificial]

El momento de la singularidad no ha llegado, pero sus mesías celebran cada avance como si así fuera. Muchos, entre ellos el director ejecutivo de OpenAI, Sam Altman, han vaticinado que sucederá muy pronto. Es más, equipara al ser humano con los sistemas de IA existentes, dando a entender que las limitaciones que se critican de estos últimos son también propias de los humanos.

Bender acuñó el concepto de “loro estocástico” para referirse a los modelos de IA generativa como entidades que unen al azar secuencias de formas lingüísticas de acuerdo con información probabilística sobre cómo se combinan, pero sin ninguna referencia al significado. Es posible que les suene, porque aquello se hizo viral. Formaba parte de un artículo científico que firmaba también Timnit Gebru, que fue despedida de Google tras su participación en dicho artículo.

Los deterministas tecnológicos como Altman adoptaron el concepto y le dieron la vuelta a su significado. Cuatro días después de lanzarse ChatGPT, el 4 de diciembre de 2022, tuiteó: “Soy un loro estocástico y tú también lo eres”, comparando así la naturaleza humana con la de su recién nacida máquina.

¿Por qué es peligroso esto? Separar al ‘humano’, la categoría biológica, de una persona o una unidad digna de respeto moral, convierte a cualquiera en un objeto. Bender lleva el paralelismo al extremo: si hoy se usan muñecas sexuales parlantes para dar rienda suelta a fantasías de violación, ¿qué impedirá hacerlo con mujeres reales sin remordimientos?

Emily Bender, profesora de la Washington University.

Emily Bender, profesora de la Washington University.

Difuminar la línea es peligroso. De vuelta a los argumentos de Dennet, Bender alerta: una sociedad con personas falsas que no podemos diferenciar de las reales pronto dejará de ser una sociedad. Estamos en manos de líderes tecnológicos que parecen haber perdido la perspectiva del mundo más allá de su burbuja.

Los creadores de tecnología a menudo asumen que su realidad representa con precisión el mundo. Sin embargo, esto dista mucho de ser cierto. Si los datos que se han usado para crear GPT-4 se basan solo en el contenido online, la consecuencia es clara: hay una sobrerrepresentación del pensamiento de hombres blancos, además de grandes dosis de racismo, sexismo y homofobia, entre otras.

El poder de dicha élite también reside en su capacidad de silenciar a quienes alertan del lado oscuro y perturbador de los ‘avances’ tecnológicos. Se declaran víctimas de ello la propia Gebru o Ariel Koren, también exempleada Alphabet, que aseguró haber sido forzada a renunciar a su puesto por denunciar una represión y censura sistemática de minorías en el gigante tecnológico. Muchos otros casos, los de quienes se autocensuran para mantener su trabajo, no se conocen.

Rompecabezas regulatorio

Hay mucho en juego. Ninguna de las grandes empresas digitales quiere quedarse atrás en el desarrollo tecnológico. Todas ansían ganar la carrera de la inteligencia artificial, pero lo consideran incompatible con poner en marcha las salvaguardas necesarias para no destrozarlo todo por el camino. A nivel geopolítico tampoco interesa. El argumento es que, si ellos no lo hacen, lo harán otros. Y esos otros pueden ser los gigantes tecnológicos chinos.

Está claro que no hay nada gratis en esta vida. En Europa sabemos mucho de eso de quedarnos atrás en el liderazgo tecnológico. En las regiones en desarrollo, la brecha de pobreza puede hacerse mayor si no se les permite aprovechar las tecnologías emergentes como atajos para su desarrollo. Sin embargo, frente a las posibles limitaciones regulatorias, tener un marco normativo también aporta seguridad jurídica, necesario para la consolidación de la innovación.

Dennett es partidario de establecer una responsabilidad estricta para los creadores de la tecnología: “Deberían rendir cuentas. Deberían ser demandados”. “Están a punto, si no lo han hecho ya, de crear gravísimas armas de destrucción contra la estabilidad y seguridad de la sociedad. Deberían tomar su impacto tan en serio como los biólogos moleculares se han tomado la perspectiva de una guerra biológica o los físicos atómicos se han tomado la guerra nuclear”, señala.

Reivindica la necesidad de nuevas leyes que, entre otras cosas, condenen la antropomorfización tecnológica para engañar a las personas. “Queremos máquinas inteligentes, no colegas artificiales”, afirma. Su propuesta es tratar a la IA como una propiedad y hacer que la empresa que se beneficie de ella (sea OpenAI, Google o cualquier otra) sea responsable de su impacto en la sociedad. Una alternativa es hacerlo adoptando la ley romana de esclavos, que responsabilizaba de sus acciones a sus dueños.

Creo que esta aproximación es correcta en tanto que se dirige a los outputs y no a los inputs, pero es un modelo de gobernanza incompleto y altamente complejo de ejecutar. Otra opción podría ser la idea de crear una agencia de seguridad tecnológica que actúe en semejanza a las agencias del medicamento. La contrapartida son los largos tiempos de aprobación que, o se agilizan, o impedirán el aprovechamiento temprano de los potenciales avances. Además, si no se regula del mismo modo en todo el mundo, provocarán la caída de los mercados más estrictos en la pobreza y la irrelevancia.

[Europa regula la inteligencia artificial: un avance positivo y necesario, pero algo abstracto]

Una alternativa que suena con fuerza es la propuesta de Ley de Inteligencia Artificial de la Comisión Europea. Sin embargo, como advirtieron varias expertas consultadas por este medio a raíz de su publicación, esta tiene serias limitaciones. Su clasificación de los sistemas de IA entre alto y bajo riesgo es ambigua, pues tecnologías que a priori podrían clasificarse como de bajo riesgo, una vez desplegadas en la sociedad podrían resultar ser de alto riesgo.

Además, si el abordaje regulatorio se centra en cómo se procesa la tecnología, quedará obsoleto. En su lugar, debe dirigirse a la raíz de los problemas sociales que surgen al aplicar tecnología en un determinado contexto; a identificar estos conflictos y los valores que se quieren proteger. Una aproximación que dependa del problema generado, que abarque tanto la parte técnica como social.

Bajo este enfoque, mi propuesta es la creación de una Alianza Democrática para la Gobernanza Digital, como en más de una ocasión he defendido en estas líneas y en mi libro Error 404. Esta no debería centrarse en el input -en regular una tecnología concreta, como hace la ley europea de IA- sino en el output. Si se pone el foco en aquello que se quiere proteger (por ejemplo, la democracia y los derechos humanos) las normas no quedarán desfasadas a medida que aparezcan nuevos avances tecnológicos.

Por supuesto, no es suficiente con establecer aquello que se quiere proteger, sino que hay que concretar unos parámetros que faciliten la comprensión de lo que ello implica. Por ejemplo, garantizar la privacidad y la no discriminación, prevenir la desinformación, proteger la dignidad y la autonomía personal o prohibir el diseño adictivo de la tecnología, entre otras cosas, y todo ello desde el propio diseño de la herramienta.

En el camino, se deberán también ofrecer recursos que ayuden a los creadores a deliberar cuidadosamente, antes de lanzar productos, sobre cómo afectará su tecnología a las personas y de qué manera esos impactos podrían ser negativos. Lejos de esto, los procedimientos actuales para tratar de evitar resultados negativos en el uso de IA generativa se limitan a incluir en sus sistemas listas de palabras prohibidas.

También se contrata a trabajadores fantasma en países en desarrollo para buscar contenido extremo, a costa de su salud mental. Por otra parte, se relega, despide o vacía de competencias a los equipos de ética. OpenAI creó un ‘equipo rojo’ encargado de probar usos dañinos de GPT-4 para solucionarlos antes del lanzamiento. Uno de sus integrantes, el investigador Aviv Ovadya, sostiene que esto “está lejos de ser suficiente”.

“Estos poderosos sistemas de IA no pueden verse de forma aislada. Tendrán un impacto dramático en nuestras interacciones con la infraestructura social crítica: escuelas, redes sociales, mercados, tribunales, atención médica, etc., y en nuestra salud mental y epistémica”, asegura Ovadya en un hilo en Twitter. Por esto, además de facilitar el acompañamiento en el desarrollo tecnológico (especialmente en el caso de las start-ups), es necesario asegurar la rendición de cuentas.

Además, tan importante como lo anterior son los incentivos: establecer qué usos de la tecnología (sea la IA u otra) se quieren premiar, y fijar un presupuesto generoso para invertir en quienes la desarrollen. Por ejemplo, dotar de grandes inversiones a tecnologías que posibiliten la participación democrática, que eviten la suplantación de identidad y el fraude, que preserven la privacidad, etc. Esto se podría canalizar a través de mecanismos como los fondos europeos Next Generation, y mediante organismos como el Instituto Europeo de la Innovación (EIT), aumentando considerablemente su presupuesto.

Proponer soluciones siempre es difícil, y llevarlas a cabo mucho más. Siempre habrá contrapartidas, y es importante no caer en la trampa de dejar que lo perfecto sea enemigo de lo bueno. Que los talones de Aquiles del desarrollo tecnológico no se conviertan también en los nuestros.