La Inteligencia Articial, que parecía que iba a ser efectiva para prevenir el terrorismo, podría no llegar a ser realmente práctico.

Un investigador de la Universidad de Illinois (Chicago), asegura que la Inteligencia Artificial no es válida para detectar terroristas. El estudio, realizado mediante un post-doctorado en Ciencias de la Comunicación concluye que la IA en este campo es poco efectiva y los filtrados usados fallarían más de lo que deberían.

La Inteligencia Artificial, poco efectiva para reconocer terroristas

«El terrorismo no puede predecirse como una función matemática». Ni siquiera teniendo grandes bases de datos sobre la población que se está estudiando. La explicación es que no hay suficientes datos acerca del terrorismo como para construir un modelo de perfil de terrorista. Por lo tanto, no se puede entrenar a una Inteligencia Artificial para que identifique que personas se corresponden con ese modelo.

ia inteligencia artificial ex machina

«Cualquier investigación algorítmica resultará en falsos negativos así como en falsos positivos»

Un falso negativo es, como ejemplifican en El Diario, lo que ocurrió con la explosión del piso de Alcanar días antes de los actos terroristas que tuvieron lugar a lo largo de la geografía catalana. En un principio se trató como una simplemente explosión de gas, mientras que luego resultó tratarse de la cúpula de una célula yihadista.

Moussa Oukabir terrorista matar a los infieles

Según el investigador, esto ocurre en la lucha contra el terrorismo mediante IA, y mucho. De hecho, el estudio calcula que por cada acierto, hay 100 000 fallos. Por lo tanto, «el uso de métodos predictivos para predecir el terrorismo es ineficaz, arriesgado e inapropiado, con potencialmente 100.000 falsos positivos para cada terrorista real que encuentra el algoritmo».

Los grandes tecnológicos seguirán sus investigaciones en IA

Los grandes de la tecnología, en cambio, seguirán apostando por la Inteligencia Artificial para que acabe siendo efectiva para prevenir el crimen y el terrorismo. Facebook, IBM, Palantir o Recorded Future, sin ir más lejos, son compañías que han realizado grandes logros en este campo.

Omicrono

Facebook, por ejemplo, realiza análisis de las fotos y vídeos que subimos a las redes sociales para comprobar si coinciden con algún acto terrrorista cometido conocido. Pero también tiene un equipo humano para ello, pues aunque la IA sea un buen comienzo, no es efectivo.

Incluso, para solucionar el gran problema que Facebook tuvo con los vídeos violentos, donde incluso se vieron asesinatos y suicidios en directo, la compañía no recurrió a Inteligencia Artificial, sino que directamente contrató a un grupo de personas como moderadores.

Noticias relacionadas