Publicada

Las claves

La inteligencia artificial lleva tiempo instalada en el entorno industrial. Los robots que sueldan piezas en una cadena de montaje lo hacen de forma automatizada, guiados por un sistema de visión que les indica dónde está cada componente y cómo deben actuar. No tienen tiempo para ‘pensar’.

Capturan imágenes, generan grandes volúmenes de datos y después los procesan para tomar decisiones. Pero cuanta más información recogen, más tiempo y más energía necesitan para interpretarla. Y en un entorno físico, ese tiempo (la latencia, es decir, el retraso en reaccionar) puede marcar la diferencia entre actuar correctamente o cometer un error.

El reto en estos sistemas no es sólo procesar más rápido, sino consumir menos energía y responder antes. Hasta ahora, la solución ha sido mejorar el hardware con equipos más potentes, pero también más voluminosos, más caros y con mayores necesidades de refrigeración.

Se trata, por tanto, de transformar la forma en la que esos sensores perciben lo que ocurre. Si las máquinas son capaces de ‘ver’ mejor, actuarán cuando detecten que un cambio puede ser relevante.

Esa es la premisa de NimbleAI, un proyecto europeo coordinado por el centro tecnológico Ikerlan y desarrollado junto a la University of Manchester y la Queen Mary University of London.

Ver menos para actuar mejor

El objetivo de NimbleAI es superar las limitaciones actuales de la inteligencia artificial cuando se enfrenta al mundo físico, “permitiendo que las máquinas no solo procesen datos, sino que también vean, comprendan y actúen en su entorno”, explica Xabier Iturbe, coordinador del proyecto, en entrevista con DISRUPTORES - EL ESPAÑOL.

El modelo convencional, según Iturbe, se basa en “una captura masiva de información”, ya sea mediante cámaras estereoscópicas o sistemas LiDAR, lo que genera largos tiempos de procesamiento y un alto consumo energético a cambio de poco valor real.

La propuesta del proyecto es diseñar un sensor que detecte únicamente los cambios en la escena. En lugar de registrar cada imagen completa, el sistema capta sólo las variaciones provocadas por el movimiento de los objetos. Así, desde el origen se genera menos información y se necesita menos procesamiento posterior.

“Estimamos la estructura 3D del entorno y calculamos la dirección y velocidad de los objetos en microsegundos”, señala Iturbe. Es decir, el sistema puede calcular distancias y movimiento casi al instante, lo que permitiría reaccionar mucho más rápido en este tipo de entornos dinámicos.

Límites y aspiraciones

El proyecto también trabaja en un sistema que “imita el funcionamiento biológico”, concentrando mayor resolución en las zonas más importantes de la imagen y menos en las secundarias. El objetivo es reducir aún más la cantidad de datos generados.

Sin embargo, Iturbe matiza algunas de las afirmaciones más ambiciosas de este proyecto. Decir que este es “el primer paso para que las máquinas puedan percibir y actuar como los seres vivos” es una "analogía aspiracional”.

El sensor se aproxima al funcionamiento fisiológico de la retina, detecta únicamente cambios de luz y codifica la información mediante impulsos, pero la capa cognitiva que el cerebro construye a partir de esa señal pertenece a un ámbito completamente distinto”, explica.

Por ahora, no hablan de NimbleAI como una solución universal. El coordinador del proyecto aclara que "no resulta adecuado para entornos completamente estáticos ni para aplicaciones de metrología que requieran alta precisión de medida”. Su ventaja aparece sobre todo cuando hay un movimiento rápido, que es donde otras tecnologías pierden eficacia.

Dos prototipos

El proyecto cuenta actualmente con dos prototipos. El primero utiliza “algoritmos que no están optimizados para procesar datos por eventos, pero que han sido utilizados durante más de una década en varias aplicaciones”. Esto les ha permitido validar la tecnología en aplicaciones industriales como fabricación aditiva de metal, procesos láser o mecanizado de piezas.

El segundo es un diseño de hardware optimizado para procesar estos datos de forma extremadamente rápida, aunque por ahora funciona a distancias cortas. El siguiente paso es “madurar esta tecnología, integrando nuestro propio sensor de visión para poder funcionar a mayores distancias, habilitando su uso en robots y drones”.

Sin embargo, el propio Iturbe reconoce un límite importante: “Todavía no se han desarrollado los algoritmos de reacción o de navegación autónoma que permitirían medir el rendimiento del sistema completo”. Es decir, el sensor está probado, pero el sistema autónomo completo todavía no.

Aun así, Iturbe asegura que esta tecnología puede reducir el tiempo de reacción “del orden de 100 veces respecto a otras alternativas”. En cuanto al consumo energético, es similar al de las cámaras actuales y entre 10 y 15 veces inferior al de los sistemas LiDAR.

NimbleAI, por ahora, ha validado la visión 3D con latencias de microsegundos y más eficiencia energética. Lo siguiente será comprobar si este avance, validado en laboratorio, puede trasladarse con éxito a aplicaciones reales en una industria cada vez más exigente.

El papel de Reino Unido

El Reino Unido ha contribuido al proyecto en dos formas. Por un lado, la Queen Mary University of London ha aportado conocimiento científico sobre cómo los insectos procesan la información visual capturada por sus minúsculos ojos compuestos, cuya estructura se asemeja a la óptica del sensor desarrollado en NimbleAI. Este conocimiento ha inspirado los algoritmos de percepción 3D implementados actualmente en el prototipo.

Por otro, la University of Manchester ha diseñado un procesador basado en eventos que dirige el punto de atención de los algoritmos de visión, permitiendo asignar mayor resolución a las regiones que aportan más valor informativo.

.