mark-zuckerberg-facebook

mark-zuckerberg-facebook

Software

Inteligencia Artificial para acabar con los vídeos violentos en Facebook

Graymatics es una de las compañías que quiere acabar con los vídeos violentos de Internet. Han desarrollad una IA que es capaz de identificarlos.

28 abril, 2017 13:36

Noticias relacionadas

Varias empresas de procesamiento de datos están tratando de desarrollar una IA que identifique cuándo un vídeo es violento.

Esta Inteligencia Artificial (IA) no está desarrollada ni por Google, ni por Facebook, pero podrían ser los primeros interesados en que funcione. Ambos, aunque más la red social, tienen un serio problema con los vídeos violentos: se han publicado ya varios vídeos e imágenes donde podemos ver en directo cómo se cometen asesinatos o suicidios.

Ahora, el problema podría estar muy cerca de su solución, pues algunas compañías aseguran estar desarrollando una IA que sea capaz de procesar vídeos en busca de peleas o de actos violentos. Se evitaría, de este modo, la retransmisión y la distribución este tipo de contenido multimedia.

La violencia en directo necesita ser fulminada cuanto antes

Facebook ya aseguró en la F8 que este problema con los vídeos debe ser solucionado de inmediato, pues ya son varios los casos mediáticos que han salido a luz, sin contar, claro, los que nunca llegan a la prensa: hace tan solo tres días un hombre mató, en directo, a su hija de 11 meses; y hace tan solo unos días más (concretamente hace 11 días) un hombre asesinó a una persona en directa (realmente no se veía como le disparaba, pero sí que se le veía caer al suelo mientras sangraba).

facebook-live

facebook-live

Graymatics es una de las empresas que se está dedicando a entrenar una IA para tratar de evitar que este tipo de hechos vuelvan a ocurrir. La empresa, que tiene sede en California y Singapur, asegura que no ha encontrado una solución definitiva, pero que están muy cerca.

Podría tardar en llegar, pero están muy cerca

La IA no solo tiene en cuenta la violencia explícita

El método que están usando consiste en bombardear a las IA con imágenes violentas para que de este modo sepan procesar de forma autónoma cuando una imagen es adecuada o no. Básicamente es el mismo método que usa la IA de Google para aprender a diferenciar qué hay en una fotografía, por ejemplo.

No solo sería capaz de reconocer peleas físicas, sino que también, procesa imágenes de armas (como un cuchillo o una pistola). Por otro lado, la tortura psicológica, es otro de los objetivos. Y es que la violencia no es únicamente una pelea.

Uno de los grandes problemas a los que se están enfrentando mientras desarrollan esta IA es a saber qué hacer cuando la situación no está del todo clara; y es que algunas situaciones que parecen no ser violentas realmente lo son, y viceversa. Por último, queda el contenido que no es explícitamente violento, como por ejemplo una bandera del ISIS, según asegura Graymatics.