El lanzamiento de ChatGPT Enterprise, una versión orientada al uso corporativo del popular algoritmo generativo de OpenAI, redefine en muchos sentidos el panorama del uso de este tipo de herramientas y posibilita algunas interesantes reflexiones sobre ello.

La nueva versión de ChatGPT trata de resolver algunos de los problemas planteados para las compañías: asegura la privacidad de los datos con los que es alimentado, evitando que las compañías puedan creer que su información interna está siendo utilizada para entrenar al algoritmo y pueda posteriormente ser revelada a otros usuarios, ofrece herramientas y consolas para el control de su uso por parte de los empleados, utiliza la última versión del algoritmo y, además, se adapta al contexto de la compañía. OpenAI no ha revelado el precio de la herramienta, limitándose a decir que dependerá de los casos y de la intensidad del uso. 

Si bien el número de usuarios habituales de este tipo de herramientas no es tan elevado entre la población en general, es en los entornos corporativos donde parece estar disparándose para tareas que van desde escribir correos electrónicos o ensayos hasta obtener información o escribir código. En muchos sentidos, la algoritmia generativa parece estar convirtiéndose en el nuevo proceso de textos u hoja de cálculo. 

Para muchos, ChatGPT se ha convertido en el corrector que hay que pasar a casi cualquier texto antes de enviarlo, no solo porque las erratas son, como es bien sabido, las últimas en abandonar el barco, sino porque, además, el ya famoso algoritmo escribe verdaderamente muy bien, mejor que la mayoría de los trabajadores, y maneja el estilo y la gramática de manera muy convincente. Y cuando se escribe en otros idiomas, una necesidad habitual en entornos corporativos, más aún. 

Además, los algoritmos generativos ofrecen una cuestión muy interesante: podemos entrenarlos con un conjunto de textos escritos por nosotros y pedirles que escriban “con nuestro estilo”, lo que permite, en cierto sentido, mantener nuestra identidad, aunque nos hayamos limitado a indicar sobre qué queremos que escriba. 

Es en los entornos corporativos donde parece estar disparándose su uso para tareas que van desde escribir correos electrónicos o ensayos hasta obtener información o escribir código

Esta cuestión, la posibilidad de “individualizar” el funcionamiento de los algoritmos generativos, está convirtiéndose en una cuestión muy interesante: los medios, por ejemplo, conscientes de que cuentan con enormes repositorios de artículos con los que entrenar a esas herramientas, están empezando a pensar en utilizarlos para sus propios fines.

De hecho, algunos, como The New York Times han tomado la decisión de prohibir a las empresas tecnológicas que utilicen los textos de sus noticias para el entrenamiento de sus algoritmos, confiando en que ellos podrán extraerles más valor por su cuenta. 

La pregunta inmediata, claro, es hasta qué punto esos medios utilizarán esas herramientas para ofrecer herramientas a sus usuarios que eleven las posibilidades de la búsqueda, una función que han gestionado tradicionalmente de manera muy pobre, y generarán asistentes que muchos lectores considerarán “fiables” que, de acuerdo con su línea editorial, ofrecerán respuestas a todo tipo de preguntas, o si simplemente se dedicarán a fabricar muchas más páginas de texto para llenarlas de publicidad y tratar de multiplicar así sus ingresos. 

Una pregunta similar se plantea el conocidísimo autor de novelas de terror Stephen King al enterarse de que sus libros han sido utilizados para entrenar algoritmos generativos: ¿puede realmente el resultado llegar a ser mejor que la suma de sus partes? ¿Podría un algoritmo generativo terminar escribiendo un libro mejor que los suyos si es entrenado con todos los que ha escrito hasta ahora? ¿Puede realmente ese algoritmo desarrollar creatividad? ¿Puede ahora? ¿Podrá en el futuro? (Por otro lado, no sé yo si me gustaría tener un algoritmo generativo entrenado únicamente con obras de Stephen King, la verdad). 

Los que piensen que los algoritmos generativos se limitan a copiar y recombinar la información con la que han sido entrenados harían bien en intentar entender los procesos que realmente tienen lugar en esas herramientas

Los que piensen que los algoritmos generativos se limitan a copiar y recombinar la información con la que han sido entrenados harían bien en intentar entender los procesos que realmente tienen lugar en esas herramientas: muchos de los procedimientos que utilizan, como la inferencia, la correlación o la estadística bayesiana, son los mismos que llevan a cabo nuestros cerebros cuando aprenden algo. 

A partir de ahí, tendremos que plantearnos cómo utilizar ese tipo de herramientas que ya se han convertido en ubicuas: dado que escriben ya mejor que nosotros y la falta de uso de cualquier capacidad conlleva su atrofia, ¿implicará el uso creciente de algoritmos generativos para escribir que cada vez escribamos peor? ¿O, por el contrario, que utilicemos los textos generados por ellos para aprender a escribir mejor? 

La respuesta es tan sencilla, pero a la vez tan compleja, como establecer dónde está el uso y dónde el abuso. Las compañías que usen algoritmia generativa consistentemente para incrementar su productividad administrativa, escribir mejores textos y correos electrónicos o escribir código más eficiente, ¿obtendrán una mejora consistente en su productividad o terminarán teniendo empleados atrofiados incapaces de hacer nada sin usar las consabidas herramientas algorítmicas? 

Estamos de nuevo ante la discusión de la calculadora de bolsillo: necesitamos empleados que sepan usarla porque eso hace que sean más rápidos y se equivoquen en menos ocasiones, pero nadie quiere tener empleados que hayan olvidado cómo sumar, restar, multiplicar o dividir. 

¿Cuándo es uso, cuándo abuso, y cuáles serán los efectos de ambos? De la respuesta a esas preguntas va a depender la productividad de no pocas compañías en el futuro.

***Enrique Dans es Profesor de Innovación en IE University.