ChatGPT ha conseguido franquear una de las grandes barreras de la inteligencia artificial: la de la conciencia social. Gracias a ChatGPT, empresas, organizaciones y profesionales de todas las ocupaciones se están interesando ahora por el tipo de habilidades y competencias que necesitarán para sobrevivir en el mercado laboral.

Y es que "una tecnología debe tener tres claves para que llegue a tener un impacto en la vida real: debe ser barata, fácil de usar y útil. ChatGPT tiene las tres", dijo Idoia Salazar, presidenta de OdiseIA, en una jornada reciente organizada por DigitalES.

En los últimos días, la inteligencia artificial ha conseguido colarse en la parrilla de los informativos. Incluso un periódico impreso de tirada nacional publicó una sugerente fotografía generada por inteligencia artificial, visibilizando las posibilidades que nos brinda esta tecnología, en este caso, para desinformar.

El miedo ha llevado a Italia a prohibir ChatGPT. Las autoridades italianas justifican que esta herramienta no verifica la edad de los usuarios -¿acaso otras muchas sí?- y que incumple muchas de las obligaciones de GDPR. Sin perjuicio de que tengan parte de razón, no parece haber sido una decisión muy efectiva: unas horas después del bloqueo, nacía el clon PizzaGPT.

¿Y qué podemos hacer? Regular. Mejor dicho, regular bien. No para frenar el avance de la inteligencia artificial, sino para procurar que ésta nos ayude a crear un mundo mejor.

Si os fijáis, al inicio de este artículo he empleado la palabra “sobrevivir”. ¿Y si en vez de pensar en la IA como una amenaza para nuestro trabajo, pensamos en cómo usarla para mejorar nuestro propio rendimiento? Hablemos de cobots, o robots colaborativos, que llevan años implantándose en fábricas de todo el mundo con gran eficacia -y con unos plazos de retorno de la inversión muy cortos-. Ya en 2014, el MIT determinó que los cobots en una planta de BMW había conseguido reducir los tiempos de inactividad en un 85%.

En su informe, el MIT apuntaba otra ventaja de este tipo de mecanización: la oportunidad que brindan para seguir trabajando a personas que, por su edad o su condición física, ya no podrían realizar su trabajo en una fábrica.

El sector de automoción fue uno de los primeros en integrar los preceptos de la llamada “Industria 4.0”, y muy pronto constató que la producción 100% mecanizada no resulta tan eficiente como la combinación entre personas y robots.

Antes me he referido también a cómo la IA alimenta la desinformación online. El deep fake, en efecto, representa un grave riesgo para las sociedades y para la democracia. Con deep fake, podemos ver imágenes y vídeos de personas pronunciando palabras que nunca han dicho, o cometiendo delitos que nunca han cometido. ¿Quién querría ser un político o una figura pública, en un mundo donde se te puede atribuir cualquier cosa?

Lo paradójico es que necesitaremos recurrir a tecnologías igual de sofisticadas para discernir lo real de lo irreal. Prohibir no haría sino dificultar la persecución de las prácticas ilícitas que, por desgracia, existirán allí donde los malos huelan una oportunidad de hacer dinero. “Los malos ya utilizan la IA”, recordaba hace unos días Chema Alonso, chief digital officer de Telefónica.

Por todo lo anterior, impera regular, y hacerlo bien. La IA es imparable, pero no necesariamente ingobernable. Somos las personas las que tenemos que decidir qué nivel de autonomía brindamos a estos sistemas.

En mi opinión, España ha tomado una posición proactiva mucho más inteligente que la italiana. Durante Wake Up, Spain!, la secretaria de Estado Carme Artigas avanzó que este mes se aprobará un Real Decreto para que las empresas españolas puedan solicitar su participación en el 'sandbox' del futuro Reglamento Europeo de Inteligencia Artificial.

España será el primer país europeo en habilitar un espacio de experimentación controlado para probar este Reglamento, que será a su vez pionero en el mundo. Sin duda, una magnífica oportunidad para demostrar que sacaremos lo mejor de la IA, si antes somos capaces de sacar lo mejor de nosotros mismos.

*** Elena Arrieta es directora de Comunicación de la asociación DigitalES