Los investigadores Manuel González Bedia y Miguel Aguilera de la Universidad de Zaragoza.

Los investigadores Manuel González Bedia y Miguel Aguilera de la Universidad de Zaragoza.

Investigación

Investigadores españoles crean sistemas artificiales capaces de ejecutar tareas que no tenían programadas

Ingenieros de la Universidad de Zaragoza diseñan algoritmos escalables que pueden llegar a ser "espontáneos" capaces de adaptarse

26 marzo, 2019 12:25

La gran mayoría de los sistemas inteligentes realizan, con mayor o menor habilidad, aquello para lo que han sido programados. Sin embargo, ahora, los investigadores Manuel González Bedia y Miguel Aguilera de la Universidad de Zaragoza proponen un medio para idear controladores de sistemas artificiales que generen comportamientos adaptativos de forma espontánea, es decir, para los que no han sido programados. 

La revista Nature Scientific Reports publica este estudio que, por primera vez, sitúa a la inteligencia artificial como un ámbito en la frontera entre procesos de orden y caos. El algoritmo propuesto explota patrones para guiar y estabilizar a un agente artificial en esa zona crítica, generando en el proceso comportamientos complejos y funcionales que no han sido programados.

Crean sistemas que evolucionan para ser cada vez más complejos

“Se ha tratado de demostrar que, aplicando ciertas estrategias, los sistemas artificiales podrían ser más espontáneos y desplegarían sus propias intenciones de una forma similar a la de seres vivos muy simples”, explica Manuel G. Bedia, coordinador del grupo ISAAC del Instituto de Investigación en Ingeniería de Aragón (I3A) y profesor del departamento de Informática e Ingeniería de Sistemas.

Por ejemplo, el mismo algoritmo, sin ninguna modificación concreta, permite que un robot móvil en un entorno montañoso aprenda a impulsarse y aprovechar su inercia para saltar de un montículo a otro, o que un sistema controlando un doble péndulo aprenda a generar una gran diversidad de movimientos acrobáticos coordinados. Además, el algoritmo es escalable, es decir, cuando se aumenta el número de neuronas del sistema, la complejidad del comportamiento generado sigue creciendo, abriendo la puerta a sistemas que evolucionan para ser cada vez más complejos.

Las propiedades de los sistemas en situaciones críticas se han utilizado durante años y se hipotetizan como una línea para entender mejor el cerebro humano. Sin embargo, emplearlos para generar comportamiento inteligente era algo hasta ahora inexplorado: “Generalmente, la inteligencia artificial diseña sistemas que perciben el mundo a su alrededor y calculan posibles planes y trayectorias de comportamiento. Nuestros agentes funcionan de manera más orgánica, tratando de encontrar un equilibrio en esa frontera entre el orden y el desorden, y los comportamientos que permiten adaptarse a su entorno surgen como un baile que trata de mantener este equilibrio interno mientras se responde a los estímulos externos que reciben”, subraya Miguel Aguilera, investigador postdoctoral en el grupo IAS-Research de la Universidad del País Vasco y del grupo ISAAC de la Universidad de Zaragoza.

"La conclusión es contraintuitiva: para construir agentes más inteligentes no necesitaríamos darles más capacidad de cálculo, sino diseñar otro tipo de mecanismos más flexibles capaces de mantener equilibrios internos parecidos a los de estructuras biológicas".

¿Diseñar máquinas inteligentes?

En los años recientes, y gracias a los objetivos empresariales de Google o Amazon, el término inteligencia artificial se ha popularizado y sus aplicaciones se han extendido y acercado a nuestro entorno más personal, monitorizando lo que compramos, lo que hacemos o cómo nos movemos.

“Hay que precisar a qué nos referimos cuando hablamos de inteligencia en este ámbito. Desde grandes compañías tecnológicas está habiendo grandes inversiones en mejorar el modo en que la supercomputadoras pueden extraer patrones a partir de ingentes cantidades de datos. Mi impresión es que este enfoque no es un buen método para construir una teoría sistemática de la inteligencia”, subraya Miguel Aguilera.

“La inteligencia artificial debería funcionar más como un campo científico en el que se realizan experimentos metódicos y se rehacen para examinar determinadas hipótesis, y en el que hay una investigación teórica que sustenta los avances para averiguar por qué ciertas cosas funcionan y otras no. Buscar principios de comportamiento, y no tanto aplicaciones, me parece que es el camino más fructífero a largo plazo”, añade Manuel González.

“Vivimos envueltos en una retórica sobre la aplicabilidad de la investigación que se ha convertido en excesiva. Incluso la ingeniería, donde casi todo el mundo asume que la investigación tiene que tener carácter aplicado, languidece sin el interés por cuestiones teóricas y sin aspirar a obtener conocimientos fundamentales”, insiste Manuel González Bedia.