La administración Biden, ante los infinitos usos potenciales de los asistentes generativos como ChatGPT para cometer crímenes y diseminar información falsa, está llevando a cabo consultas públicas y planteándose una regulación basada en certificaciones y reglas para aquellos que quieran poner en el mercado modelos basados en este tipo de tecnologías.

Las autoridades chinas están exactamente en el mismo proceso: sus grandes tecnológicas están también lanzando sus propias herramientas basadas en modelos de lenguaje masivos, y pretenden exigir a las compañías una auditoría de seguridad que certifique que el contenido de sus herramientas es correcto, que no utiliza materiales sujetos a derechos de autor, que no es discriminatorio y que no supone una amenaza para la seguridad.

Europa, como siempre a la cabeza en regulación, ya lleva tiempo barajando cómo regular esta tecnología, y de hecho, Italia se convirtió en el primer país en prohibir el acceso a ChatGPT debido a preocupaciones derivadas del uso que la compañía hace de los datos personales de sus usuarios.

El caso de los modelos de lenguaje masivos es especialmente interesante desde el ámbito de la regulación, porque no corresponde, en realidad, a una nueva tecnología. Todos los que llevan tiempo trabajando en ese ámbito, en realidad, sienten una extraña situación de “estar perdiéndose algo” cuando ven modelos cuyo único mérito especial es el de la fuerza bruta: haber sido entrenados con miles de millones de parámetros y aplicados a algo tan específico como la capacidad conversacional utilizando el lenguaje humano.

Durante años, décadas en realidad, el machine learning ha sido una disciplina dedicada a la automatización avanzada: entrena un modelo con los datos adecuados, y será capaz de llevar a cabo prácticamente cualquier tarea de manera no simplemente “mecánica”, sino con una capacidad de adaptación notable, superior a la que puede mostrar en esa misma tarea un ser humano que, después de todo, se fatiga o es susceptible de cometer errores.

Italia se convirtió en el primer país en prohibir el acceso a ChatGPT

Cuando aplicamos este modelo al lenguaje y multiplicamos exponencialmente la complejidad de las metodologías estadísticas utilizadas en el análisis, lo que obtenemos es un algoritmo capaz, en primer lugar, de utilizar el lenguaje humano de manera muy convincente - que no es poco considerando su elevada complejidad - y, en segundo, de completar frases con las ideas más probables en función de los miles de millones de documentos empleados en su entrenamiento.

Que muchas personas, incluidos algunos que trabajan en ese ámbito, crean ver en ello algún tipo de “inteligencia” o incluso de “consciencia” no resulta sorprendente, aunque sí un tanto denigrante para los seres humanos poseedores de verdadera inteligencia. Que una máquina pueda predecir palabras y frases es algo novedoso y, sin duda, ofrece muchas posibilidades para su uso en muchas tareas, pero no tiene demasiado que ver con la inteligencia como tal, por mucho que pretendamos retorcer la propia definición de inteligencia.

En cualquier caso, estamos ante una disyuntiva importante: más allá de pretender imponer moratorias imposibles, que sabemos con absoluta certeza que no se cumplirían y simplemente supondrían incentivos y ventajas para quienes las ignoran, tenemos que plantearnos cómo regular una tecnología que permite usos sorprendentes, que buena parte de la sociedad no alcanza siquiera a imaginar.

Que una máquina pueda predecir palabras y frases es algo novedoso y, sin duda, ofrece muchas posibilidades para su uso en muchas tareas

¿Por qué es complejo regular la tecnología? En primer lugar, porque la tarea regulatoria no suele ser llevada a cabo por expertos, sino más bien por políticos que “tocan de oído”, algo ya de por sí muy peligroso. Pero en segundo lugar, porque generalmente tendemos a regular cuando empezamos a ser conscientes de los peligros de esa tecnología —los seres vivos en general somos por naturaleza temerosos frente a cualquier cambio— pero no tanto de los peligros de ralentizar su adopción. Por eso, lo habitual es que la regulación peque de timorata, y se pase por el lado de las restricciones.

En tecnología, si nos pasamos con las restricciones, impedimos la adopción, lo que redunda en una pérdida de competitividad. Podemos plantearnos que los algoritmos sean capaces de sustituir a las personas en una amplia variedad de tareas, pero lo que sabemos con absoluta seguridad es que las personas que no sepan utilizar algoritmos serán sustituidas por las que sí sepan utilizarlos.

Por tanto, si Italia decide, en virtud de una preocupación sobre la información que OpenAI almacena de sus usuarios, lo que obtendrá es que una generación de italianos se desarrolle sin tener fácil acceso a este tipo de herramientas, y por tanto, sean menos competitivos en su trabajo frente a los ciudadanos de otras nacionalidades que no han sufrido esa restricción.

Pretender que la tecnología se regule sola es absurdo, y tenemos buena prueba de ello. Pero poner a políticos que tocan de oído a regular haciendo énfasis en la restricción también puede ser peligroso.

Con los modelos de lenguaje masivos, que hemos visto aparecer de manera prácticamente instantánea, nos disponemos a tener un buen ejemplo: si las compañías de un país determinado no pueden plantearse su uso porque la regulación lo impide, simplemente serán menos competitivas que las de otros países, y esto, en nuestro sistema capitalista darwiniano, implica la desaparición. Ya veremos quién regula, cómo lo hace, y sobre todo, cuáles son las consecuencias a medio plazo.

***Enrique Dans es Profesor de Innovación en IE University.