En un año caracterizado por el enorme boom de la algoritmia generativa, de OpenAI con su ChatGPT y de la inteligencia artificial en general, el fenómeno se está convirtiendo en una de las tendencias más claras dentro del desarrollo tecnológico: la idea de perseguir la creación de modelos de inteligencia artificial dentro de las propias compañías, en lugar de simplemente recurrir a lo que nos ofrecen compañías como la propia OpenAI, Anthropic, Google, Meta o muchas otras.

Plantearse el uso de algoritmos generativos como ChatGPT en un entorno profesional tiene un problema fundamental: ni la propia compañía puede asegurarnos que las preguntas que hagamos al algoritmo y las respuestas que este nos genere no vayan a ser posteriormente utilizadas, como parte de su aprendizaje, para generar otras respuestas, incurriendo en problemas que podrían ir desde la revelación de información con posibles consecuencias para la privacidad (hay hasta casos demostrados de revelación de direcciones de correo electrónico de empleados de algunas compañías), hasta directamente la revelación de secretos industriales.

Ese descontrol sobre la forma en que los algoritmos generativos tratan la información es consecuencia de su constante proceso de aprendizaje. Cuando, a finales de diciembre de 2022, OpenAI abrió el uso de ChatGPT para cualquier usuario, a nadie se le escapaba que lo que realmente estaba haciendo la compañía era pedirnos a todos que la ayudásemos a entrenarlo: millones de usuarios lanzando preguntas y evaluando respuestas son una forma muy potente de entrenar a un algoritmo generativo.

Rápidamente, comenzaron los primeros problemas: desde usuarios que aseguraban que sus preguntas o sus respuestas eran posteriormente reutilizadas, hasta intentos de “contaminar” el algoritmo con información repetida en muchas ocasiones, en modo “¿cuántas veces tienes que hacer preguntas incluyendo que tal empresa es la mejor de su industria, hasta que el algoritmo empiece a decir sistemáticamente que tal empresa es la mejor de su industria?”

Este fenómeno del “algoritmo indiscreto”, acompañado de la evidencia de las llamadas “alucinaciones”, surgidas cuando el algoritmo interpreta como fehacientes correlaciones con un nivel de significación muy baja y las incluye en sus respuestas como si fuesen verdades absolutas, han llevado a muchas compañías a pensar que ni sus datos están seguros cuando sus empleados utilizan este tipo de algoritmos, ni las respuestas que proporcionan tienen por qué ser especialmente fiables, sobre todo en ámbitos en los que la información que circula por la red —y, por tanto, con la que se han entrenado esos algoritmos— es especialmente fiable.

Ese descontrol sobre la forma en que los algoritmos generativos tratan la información es consecuencia de su constante proceso de aprendizaje

Visto así, empieza a circular la creencia de que la mejor idea podría ser la de “empezar pequeñito”: en lugar de recurrir a los llamados LLM, Large Language Models o modelos masivos de lenguaje; tratar de crear nuestros propios modelos, más pequeños, pero entrenados con los propios datos generados por la actividad de la compañía.

El planteamiento tiene una primera ventaja en el hecho de que el modelo que se obtiene está controlado por la propia compañía, y por tanto, puede ser restringido a un uso completamente interno, evitando así que se tome excesivas (o incontrolables) libertades en la posible reutilización de nuestra información. Pero además, empiezan a surgir otras ventajas: sí, ChatGPT habla y construye frases muy bien, pero en muchos temas tiende a ser bastante “cuñado”, porque se alimenta fundamentalmente de generalidades que estaban en la red. Si alimentamos nuestro propio algoritmo con los datos de transacciones históricas de la compañía o con elementos de su base de conocimientos, cabe la posibilidad de obtener modelos con conocimientos mucho más extensos y fiables en un ámbito muy restringido, pero potencialmente muy útil.

Una compañía de seguros o de banca, por ejemplo, está en mucha mejor situación para entrenar un algoritmo sobre cálculo de riesgos que una compañía como OpenAI, porque simplemente puede acceder a mejores datos, siempre que haya sido razonablemente cuidadosa a la hora de recoger, etiquetar y mantener esos datos a lo largo del tiempo. Una empresa de gran distribución es posiblemente capaz de crear algoritmos capaces de prever tendencias de consumo de una forma mucho más inteligente y fiable que una compañía tecnológica generalista.

Una empresa de gran distribución es capaz de crear algoritmos capaces de prever tendencias de consumo de una forma más inteligente 

Por otro lado, las herramientas para crear esos algoritmos son cada vez más sencillas, y no es preciso —y de hecho, resulta cada vez menos recomendable— tratar de programarlas nosotros mismos. Con las herramientas adecuadas, crear algoritmos, entrenarlos y evaluar su fiabilidad empieza a ser, cada vez más, simplemente una cuestión de manejar menús, hacer clic en determinadas opciones y escoger en función de los resultados obtenidos.

Básicamente, hablamos de la posibilidad de que las compañías traten de poner en valor sus datos y su experiencia, en lugar de simplemente utilizar de manera mecánica las herramientas que la industria de la tecnología les ofrece. Modelos verticalizados, más certeros dentro de sus ámbitos de conocimiento, y sobre todo, controlados por las propias empresas que los desarrollan. Decididamente, un mundo más “sano y saludable” que si todos los algoritmos están bajo el control de unas pocas compañías.

¿Quiere pensar en cómo apalancar su compañía mediante la inteligencia artificial? Pues empiece por pensar en pequeñito.

***Enrique Dans es Profesor de Innovación en IE University.