Durante la primera quincena de febrero, determinados usuarios de Twitter dieron la voz de alarma ante lo que consideraron un avance preocupante respecto a la inteligencia artificial. El drama provenía de un artículo en The Guardian que examinaba el desarrollo de un sistema informático capaz de realizar textos predictivos. Este algoritmo extrae sus metadatos a partir de diez millones de artículos previamente seleccionados a través de Reddit, según el director de investigación de la empresa Open AI, Dario Amodei.

datos y que emplean estructuras complejas o no lineales. Esta tecnología opera de forma similar a una red neuronal y generalmente se le denomina de esta manera. Un ejemplo de su uso cotidiano es la tecnología del reconocimiento facial. La máquina registra su base de datos previa para identificar si hay una cara, y en caso afirmativo trata de reconocerla.

¿Existen motivos para preocuparse? Según Amodei, el desarrollo del predictor de textos fue cancelado porque temían que el algoritmo y su "revolucionaria tecnología" se emplease de forma fraudulenta. The Guardian optó por comprar esta maniobra publicitaria. En una columna de opinión adyacente a dicho artículo, la redactora

Horizonte 2020, el programa de la Unión Europea que financia proyectos de investigación e innovación.

Maeve (Thandie Newton) es la primera huésped robot en adquirir conciencia en 'Westworld' HBO IMDb

Arnau Raventós y Francesc Tarré pertenecen a UGIAT, una empresa española especializada en este tipo de tecnologías. En ella ya han invertido compañías de telecomunicación como Atresmedia, Telefónica, TV3 o RTVE. En su exposición durante las jornadas de OI2 explicaron cómo empleaban la tecnología del deep learning para crear un telediario mediante una máquina. Se trata de un caso como el de Open AI pero traducido para el mundo audiovisual.

Básicamente, el ser humano debe explicarle al robot cómo funcionan las noticias: cuándo empiezan las piezas, por qué aparece el presentador en determinados momentos y por qué debería hacer uso de la información que aparece en rótulos y titulares. Con todos esos metadatos, los algoritmos pueden interpretar si una noticia es de contenido político o si habla de ciencia y tecnología. La máquina ya estaría capacitada para reorganizar una escaleta, con todas las implicaciones éticas que esto conlleva. Por suerte o por desgracia, como reconocían Reventós y Tarré en su exposición, el prototipo aún necesita perfeccionarse.

Gigantes como Reuters no le tienen miedo a la automatización. Wired anunciaba a mediados del año pasado que la agencia de noticias había desarrollado Lynx Insight, un software de deep learning para automatizar ciertos procesos en las redacciones. Reg Chua, editor jefe de datos e innovación, afirmaba que la intención es dividir el trabajo entre lo que las máquinas hacen bien -bucear entre datos y encontrar patrones- y aquello en lo que los periodistas humanos brillan desde el siglo XVII: preguntar, jerarquizar y contextualizar.

Noticias relacionadas