Una mano digital. Foto: Pngtree

Una mano digital. Foto: Pngtree

Entre dos aguas

El mayor peligro de la IA: que las máquinas aprendan a reproducirse y tomen el mando

Aunque parezca una teoría alocada, las máquinas inteligentes son buenas imitando patrones, y uno de los patrones de todas las formas de vida es su capacidad de reproducirse.

Más información: Las controversias éticas de Watson, el padre de la genética moderna

Publicada

Vuelvo hoy a ocuparme de una cuestión que en uno de mis artículos pasados califiqué como "uno de los temas de nuestro tiempo": la inteligencia artificial (IA). De hecho, no es "uno de los temas", sino probablemente el más importante, porque creo que dará lugar a una nueva "Civilización".

Sé que es arriesgado abordar el tema, en primer lugar por los continuos y profundamente innovadores desarrollos que se están produciendo, y que convierten en obsoleto mucho de lo que se dice sobre el futuro de la IA.

Y en segundo lugar porque son muy pocos los asuntos que reciben más atención que este en todo tipo de medios, y los escasos que lo superan no tienen la importancia que posee la IA para el futuro, el muy cercano y el más lejano.

Si me he decidido a volver a este asunto es por algunos detalles que aparecen en dos libros: Poder y progreso (Deusto, 2023), de Daron Acemoglu y Simon Johnson, que en 2024 recibieron el Premio Nobel de Economía, compartido con James Robinson, "por estudios sobre cómo se forman y afectan a la prosperidad las instituciones", y Génesis. La inteligencia artificial, la esperanza y el espíritu humano (Anaya, 2025), de Henry Kissinger, Craig Mundie y Eric Schmidt, que en realidad es continuación de otro previo, La era de la inteligencia artificial y nuestro futuro humano (Anaya, 2023), de Kissinger, Schmidt y Daniel Huttenlocher, libro que ya mencioné en alguno de mis artículos anteriores.

Hoy quiero compartir con ustedes, amigos lectores, dos pasajes del libro de Acemoglu y Johnson. El primero: "Cuatro décadas de desarrollo de las tecnologías digitales han socavado los mecanismos creados durante el siglo XX para compartir la prosperidad".

El segundo: "Lo que estamos viendo en la actualidad no es un progreso inexorable hacia un bien común, sino la manifestación de una influyente visión compartida entre los líderes tecnológicos con más poder. Esta visión se centra en la automatización, la vigilancia y la recopilación de datos a escala masiva, lo que socava la prosperidad compartida y debilita las democracias. No es ninguna coincidencia que también multiplique la riqueza y el poder de esa élite tan reducida, a expensas de la mayoría de la gente normal".

Si, como señalé antes, la IA va a producir una nueva Civilización, una centrada en las relaciones entre máquinas inteligentes y las personas e instituciones que hemos creado a lo largo de la historia, una pregunta fundamental es la de cómo afectará la IA a la gobernanza.

Es en esa habilidad de las máquinas de desarrollarse sin la intervención humana donde está el peligro de que "tomen el mando"

Nos preocupamos –al menos algunos– sobre su efecto en el mercado laboral, o en qué medida afectará a la "individualidad", a que no deleguemos en máquinas propiedades tan humanas como el pensamiento crítico y reflexivo, o, simplemente, la capacidad e interés por interesarnos, por "mirar" a lo que existe "ahí fuera", no a lo que aparece en una pantalla electrónica-digital.

Pero no menos importante, tal vez más, son las consecuencias que Acemoglu y Johnson han señalado sobre la pervivencia y calidad de la democracia, que ya está siendo socavada por una oligarquía tecnológica, representada en la actualidad por individuos como Elon Musk, Mark Zuckerberg y Jeff Bezos.

Si el progreso significa megadesigualdades sociales, control por parte de un pequeño grupo de personas de los sistemas de comunicación, incluyendo no solo redes como Meta, X o Tik Tok, o de satélites de internet como Starlink, y programas del tipo de la colonización-minería de otros planetas o el turismo espacial, entonces, en mi opinión, ese progreso tecnológico no solo no merece la pena, sino que debe ser reorientado radicalmente.

Del libro de Kissinger, Mundie y Schmidt quiero resaltar algo por otra parte evidente, pero que conviene no olvidar, y es que lo que distingue especialmente a la IA tal y como se está desarrollando actualmente es que "su visión del mundo –escriben– no se programa sino que se aprende. En la programación de software tradicional, un algoritmo creado por un ser humano indica a una máquina cómo transformar un conjunto de entradas en un conjunto de salidas. En el aprendizaje automático, en cambio, los algoritmos creados por el ser humano solo le dicen a la máquina cómo mejorarse a sí misma, algo que le permite diseñar sus propias rutas para transformar las entradas en salidas. A medida que la máquina 'aprende' de innumerables pruebas, fallos y ajustes previos, mejora sus algoritmos y rediseña de forma iterativa sus mapeados internos de los patrones y las conexiones que 'observa' en los datos".

En otras palabras, al aprender, las máquinas inteligentes se mejorarán a sí mismas. Es en esa habilidad de las máquinas inteligentes de aprender y desarrollarse sin la intervención humana donde yo veo el peligro de que finalmente "tomen el mando", esto es, que compitan y puedan acaso relegar a los humanos en el control del mundo.

Las posibilidades que se abren en este sentido son inmensas. Una de mis elucubraciones, un tanto "locas", lo reconozco, es la siguiente.

Si hay algo en lo que las máquinas inteligentes son buenas es en la identificación de patrones en conjuntos de datos. Pues bien, un patrón de los humanos, y de prácticamente todas las formas de vida que se conocen, es su capacidad de reproducirse. ¿No podrían, entonces, esas máquinas imitar esa facultad y reproducirse ellas mismas?

En realidad esta idea no es nueva. El gran matemático (y muchas cosas más) John von Neumann comenzó a elaborarla y solo su temprana muerte le impidió desarrollarla de manera completa, aunque dejó un manuscrito que vio la luz en 1966 en forma de libro, Theory of Self-Reproducing Automata (Teoría de autómatas que se reproducen a sí mismos).

Y en uno de sus imaginativos artículos (ya no recuerdo dónde lo leí), el físico-matemático Freeman Dyson especuló con la idea de una nave espacial con robots inteligentes que, a lo largo de su viaje por el cosmos, irían recogiendo materiales para sus necesidades y para construir –su forma de reproducirse– más robots.

De hecho, así podría colonizarse Marte, y tal vez así se haga. El verdadero problema es si las máquinas inteligentes "deciden" que lo mejor para ellas es reproducirse en la Tierra, lo que finalmente podría llevar a una confrontación "humanos-máquinas". ¿Especulaciones? El futuro dirá.