La Inteligencia Artificial cada vez está más presente en nuestras vidas y prácticamente sin que nos demos cuenta. La seguridad es uno de esos campos que emplea la IA; como en el caso de China, donde las cámaras de vigilancia ya identifican a los ciudadanos.

Muchos no están contentos con que se pueda ejercer tal control sobre la población y buscan soluciones para evitarlo. En este sentido, unos estudiantes han conseguido hacerse “invisibles” para la IA utilizando una simple imagen impresa.

Hacerse invisible para la IA con una imagen

La IA está lejos de ser una tecnología perfecta; multitud de investigadores han demostrado que es posible engañarlas, por lo que aún queda mucho por mejorar. El último ejemplo de su debilidad ha sido liderado por nada más y nada menos que un grupo de estudiantes de la Universidad KU Leuven (Bélgica).

IA fotografía 3

Estos ingenieros han compartido el documento relativo a su investigación en arXiv. En él se puede observar cómo emplean una imagen impresa con aspecto de cuadro para confundir a la IA. Ésta no es capaz de detectar a las personas cuando llevan la imagen consigo.

De este modo, los estudiantes se convierten en “invisibles” a ojos de la IA. Los autores de la investigación creen que si combinan su técnica y la plasman en una prenda de ropa podrían ser virtualmente invisibles para las cámaras de vigilancia que utilicen IA.

La IA todavía es frágil

Aunque pueda parecer sorprendente engañar tan fácilmente a una IA, lo cierto es que es un fenómeno muy conocido en el sector. Este tipo de patrones suelen conocerse como “ejemplos adversos” y aprovechan las debilidades de los sistemas de visión de IA para burlar su sistema.

IA fotografía 4

Muchos expertos ya han advertido que los ejemplos adversos podrían emplearse con malas intenciones. En el caso de los coches autónomos, podrían engañar a un vehículo y provocar un accidente. También podrían usarse en el sector sanitario para cometer fraudes médicos o hacer peligrar la salud de alguien.

Eso sí, la imagen de los estudiantes no sirve para engañar a cualquier Inteligencia Artificial, solo consigue hacerlo con un algoritmo llamado YOLOv2. Los prometedores autores ya están trabajando para poder aplicar su método contra otras IA y sistemas de vigilancia; aunque, no creemos que sea pan comido.

Ejemplos como éste demuestran que la IA aún no está preparada para realizar determinadas tareas. Los expertos tendrán que seguir trabajando para mejorar estos sistemas.

Foto destacada: S. Thys, W. Van Ranst, T. Goedeme (arXiv)

Noticias relacionadas