El día 15 de marzo de este año se perpretraron los atentados de Christchurch en el que murieron 51 muertos. El ataque se produjo en la mezquita Al Noor situada en Christchurch, Nueva Zelanda, por un supremacista blanco. Lo más siniestro del caso es que el asesino retransmitió la matanza por Facebook.

Facebook, en consecuencia, se ha unido a las autoridades de Reino Unido para intentar evitar que esta clase de metrajes no aparezcan en su red, o al menos, se eliminen lo antes posible. Para ello, entrenará su algoritmo de eliminación de vídeos con vídeos policiales recogidos de las body cams de los agentes.

El objetivo de esta iniciativa es que el algoritmo detecte metrajes violentos que incluyan muertes, violencia o asesinatos para que se retiren inmediatamente de la plataforma. A partir de octubre el Servicio de Policía Metropolitana del Reino Unido proporcionará imágenes de las cámaras corporales de los agentes a Facebook.

Los vídeos policiales serán la clave para evitar vídeos violentos en Facebook

Dado Ruvic/Reuters

Facebook usará estos vídeos para entrenar a la Inteligencia Artificial que se encarga de eliminar los vídeos violentos o streamings de similar índole que se suban a la plataforma. El asesino de Christchurch retransmitió el atentado por Facebook, y tuvo muchas reproducciones.

Concretamente, el metraje del atentado fue visto 200 veces durante su transmisión en vivo y 4.000 veces antes de que fuera eliminado. Según Facebook, en las 24 horas siguientes al atentado la plataforma borró cerca de 1.5 millones de vídeos del ataque. De esos 1.5 millones, 1.2 fueron bloqueados en plena subida, por lo que aproximadamente 500.000 pasaron los sistemas automatizados de Facebook. Según un comunicado de prensa de la misma Facebook:

"El video del ataque en Christchurch no alertó a nuestros sistemas de detección automática porque no teníamos suficiente contenido que mostrara imágenes en primera persona de eventos violentos para entrenar efectivamente nuestra tecnología de aprendizaje automático".

Las imágenes que el Servicio Metropolitano proporcionará incluirán simulacros de incidentes terroristas y situaciones de rehenes en tierra, transporte público, etcétera. El entrenamiento con estas imágenes debería mejorar estos sistemas de detección así como reducir los falsos positivos sucedidos en páginas relacionadas con videojuegos o películas.

Mark Zuckerberg, CEO de Facebook.

Estos vídeos, según informa The Guardian, también mejorarán dichos sistemas de detección en Instagram. Además, los Servicios Metropolitanos también compartirán estos vídeos con otras empresas tecnológicas para el mismo fin. Facebook no pagará a estos servicios por los vídeos pero sí les proveerá de cámaras, tal y como asegura Financial Times.

Facebook está en conversaciones, según el Financial, para hablar con otras agencias similares y recoger más vídeos para así entrenar a su algoritmo. Esta no es la única medida que ha realizado la red social para evitar que estos sucesos se repitan; ya en mayo Facebook estableció que si un usuario viola una sola de las normas de comunidad no se le iba a permitir realizar transmisiones en vivo.

Noticias relacionadas