Una de las cuestiones más candentes cuando hablamos del futuro del machine learning, más allá de discusiones alarmistas sobre si sus algoritmos van a rebelarse y atacarnos como si fueran tostadores enfurecidos, es el tipo de uso que las personas y las compañías harán de ellos.

En un lado del espectro, están las big tech: compañías como Microsoft, Google, Meta y otras, entre las que se encuentra probablemente OpenAI a pesar de no haber entrado aún en el Olimpo de las etiquetadas como tales, mantienen una visión similar a la que han mantenido durante años: básicamente, que esto que hacemos es muy difícil, que requiere años de investigación y trabajo de profesionales que solo nosotros nos podemos permitir, y que además, se trata de una tecnología muy peligrosa que solo nosotros podemos controlar.

En el otro extremo, están los creadores de herramientas y, sobre todo, las comunidades open source, probablemente lo mejor que le ha ocurrido a la tecnología desde que el mundo es mundo. En su visión, los algoritmos son algo que, con los datos y las herramientas adecuadas, prácticamente cualquiera puede hacer, y que desplegarlos consiste, fundamentalmente, en una tarea de ensayo y error que no reviste más problemas que el hecho de dedicarle tiempo y esfuerzo por parte de personas que conozcan bien todas las circunstancias y la complejidad de aquello a lo que se enfrentan.

En el fondo, hablamos de machine learning como de la capacidad de elevar una tarea, la de la automatización, a un nivel de sofisticación muy superior. Durante muchas décadas, la automatización se limitó a tareas fundamentalmente manuales, y a niveles muy básicos: éramos capaces de diseñar artefactos para simular los movimientos humanos, que siempre que otra serie de factores estaban bajo un razonable nivel de control, se llevaban a cabo con matemática precisión y permitían llevar a cabo una producción más rápida y más libre de errores.

Con el tiempo, hemos entendido que muchas tareas no requiere, por ejemplo, la aplicación de una fuerza determinada, sino de la cantidad correcta de fuerza, y que eso puede depender de factores muy diversos. Pero más allá de las mejoras en los procesos de automatización física, que son muchas, están las aplicadas a otro tipo de tareas, las de naturaleza intelectual o incluso creativa. 

Las comunidades 'open source', probablemente lo mejor que le ha ocurrido a la tecnología desde que el mundo es mundo

Del mismo modo que los seres humanos hemos sublimado el concepto de trabajo y que nuestros antepasados, yéndonos únicamente a dos o tres generaciones, no tendrían arrestos para llamar a muchas de las cosas que hacemos durante nuestra jornada laboral “trabajo”, las máquinas ahora también son capaces de automatizar muchas de esas tareas de naturaleza intelectual o creativa, y de hacerlo, además, muy bien.

Hace unos días, hablaba con mi editor en una mesa redonda en la Feria del Libro de Madrid, y llegábamos a la conclusión de que, incluso cuando hablamos de un atributo tan humano como la creatividad, las máquinas tenían ventaja porque no estaban necesariamente sujetas a restricciones —culturales o de otros tipos— que los humanos sí tenían. Antes, encargaban unos diez diseños de portada para enseñar a un autor y que escogiese. Ahora, podían presentarle cien sin especial esfuerzo, y a un coste muy inferior. Los ilustradores, como los guionistas de Hollywood y muchos otros más, ven venir todo un rebaño de vacas flacas.

Lo importante, en cualquier caso, es entender cómo va a funcionar ese nuevo ecosistema del machine learning: si todos terminamos utilizando los algoritmos que nos proponen las big tech de turno, reeditaremos el ecosistema anterior, haremos posible que capturen y exploten todos nuestros datos, y las convertiremos en las compañías más grandes y poderosas del mundo. Lo estamos viendo ya: dado que no sabemos cómo se tratan esos datos y si se introducen o no en el proceso de entrenamiento, hay compañías que han prohibido a sus empleados utilizar algoritmos como ChatGPT, mientras que otras les dicen que introduzcan en ellos mucha información sobre lo maravillosa que es su compañía, sus productos o sus servicios.

Si todos terminamos utilizando los algoritmos que nos proponen las 'big tech' de turno, reeditaremos el ecosistema anterior

Si, por el contrario, nos damos cuenta de que las barreras de entrada al desarrollo de algoritmos han caído y que ahora cada uno puede, con las herramientas adecuadas y no especialmente complejas, hacerse sus propios algoritmos, estaremos avanzando hacia un mundo diferente, en el que lo importante será la capacidad de generar datos, de hacerlo de manera ordenada y rigurosa, y de utilizarlos para alimentar con ellos los algoritmos que la propia compañía desarrolla. Una amplia variedad de posibilidades y de ventajas competitivas para apalancar.

¿Miedo a los algoritmos? No, lo que tengo es miedo a que su desarrollo sea capitalizado por unos pocos, o que llegue el regulador y diga que los algoritmos solo valen si provienen de determinadas compañías que supuestamente garantizan su seguridad (las mismas que anteriormente abusaron hasta el límite de otras herramientas, como los buscadores o las redes sociales). Esperemos que tengamos el buen juicio necesario para entender que esta revolución debería, por el bien de todos, ser diferente de la anterior.

***Enrique Dans es Profesor de Innovación en IE University.