Antoine Bordes, director de AI Research en Facebook.

Antoine Bordes, director de AI Research en Facebook.

Tecnológicas

Facebook lleva la inteligencia artificial a nuestro muro

Antoine Bordes, director de AI Research en la firma de Zuckerberg, explica los avances en la lucha contra los contenidos inapropiados mediante inteligencia artificialrn

16 abril, 2019 07:00

Facebook es la red social más popular del mundo. Y en su seno también encontramos otras dos de las plataformas más usadas en la actualidad, como Instagram o WhatsApp. Y un gran poder como ese implica una gran responsabilidad, ya sea a la hora de controlar los contenidos claramente peligrosos que se propagan por la Red (desde los que fomentan el terrorismo hasta el acoso a menores, entre otros), las noticias falsas o la privacidad misma de los usuarios.

Temas todos ellos que figuran en la agenda de Facebook como prioridades para la firma, máxime tras el escándalo de Cambridge Analytica y las poco convincentes explicaciones de Mark Zuckerberg ante las autoridades europeas y norteamericanas. Y, para darle la vuelta a la situación, lavar la imagen de la empresa y evitar caer en los mismos errores de antaño, nada mejor que emplear una tecnología en auge como la inteligencia artificial.

"Uno de los grandes retos de la IA es tratar con distintos idiomas", dice Bordes

A eso se dedica precisamente Antoine Bordes, director de Facebook AI Research en los laboratorios de la compañía en París. Este doctor en aprendizaje automático se unió a la red social en 2014, tras haber sido investigador en el laboratorio Heudiasyc de la Universidad de Tecnología de Compiegne en Francia.  Está considerado como uno de los mayores expertos en inteligencia artificial al otro lado de los Pirineos (ha recibido premios de Asociación Francesa de Inteligencia Artificial y de la Agencia Francesa de Armamento) y ahora pone todo su empeño en llevar la estrategia de inteligencia artificial de Facebook hacia el lugar que le corresponde.

"Fue hace cinco años cuando empezamos a introducirnos de lleno en la investigación sobre inteligencia artificial, no sólo en desarrollar productos comerciales para Facebook, sino también haciendo investigación aplicada, tanto en Francia como en Nueva York y California. Nuestro objetivo es responder incluso a problemas que todavía no han sido formulados y unir lo mejor de la investigación científica, la que se produce en las universidades, con nuestra experiencia y capacidades. Por eso, también ponemos todo nuestro trabajo a disposición de la comunidad, para que no sólo Facebook se beneficie de estos avances sino toda la sociedad", explica Bordes sobre la filosofía de los centros de inteligencia artificial de la compañía, abreviados curiosamente como FAIR (justo, en inglés). 

"Cuando comenzamos esta aventura, nuestra gran preocupación era la seguridad y la integridad de la plataforma en sí, pero desde hace dos años hemos hecho un gran foco también en la privacidad y la confianza de los usuarios. Estamos trabajando en las tecnologías que nos permitan resolver estos problemas y, además, teniendo la fuerza para llevarlas a todo el mundo", añade el ejecutivo.

Entre esas aplicaciones de la IA que han cobrado vida en estos ocho centros de innovación de Facebook en todo el globo encontramos propuestas como algoritmos que detectan contenidos potencialmente ofensivos o que fomentan el terrorismo, redes generativas antagónicas para identificar imágenes, mejorar su calidad y detectar patrones que puedan ser sospechosos de incumplir las normas de uso o los sistemas de machine learning que permiten entender mejor el comportamiento de los usuarios humanos en la red social y compararlo con el de bots y otras herramientas automatizadas. Desde la compañía norteamericana afirman tener también soluciones automatizadas para evitar los ataques de spam o la pornografía, los cuales funcionan "con bastante éxito" y, añaden fuentes de la firma, "a medida que la tecnología mejore, continuaremos estudiando detenidamente otras formas de utilizar la automatización". Mientras tanto, y como confiarlo todo a la técnica no suele resulta una buena idea, Facebook también cuenta con su particular ejército de 30.000 trabajadores encargados de vigilar estos mismos comportamientos deleznables.

Una de las trabas principales que se encuentran Antoine Bordes y su equipo a la hora de luchar contra todos los contenidos ilegítimos en la plataforma es el idioma. Con miles de millones de usuarios en todo el planeta, es necesario abordar las situaciones problemáticas en centenares de lenguajes distintos, con todo el trabajo (tanto de entrenamiento de los algoritmos como de diseño de los mismos) que ello conlleva. "Tenemos sistemas que nos permiten clasificar múltiples idiomas directamente, sin que los textos tengan que ser traducidos. Nos hemos dado cuenta de que al traducir los mensajes muchas veces se producen inexactitudes o los algoritmos no funcionan con la misma precisión. Lo que hacemos es entrenar los modelos con cientos de conversaciones en las que ya sabemos algunos patrones y vemos cómo se repoducen", detalla Bordes. "Hacemos lo mismo para las imágenes: cuanto más sabemos, mejor podemos reconocer lo que contienen las fotografías y establecer filtros por sus características". 

Al sacar el tema de las restricciones ante contenidos inapropiados en las imágenes que se publican en Facebook e Instagram, no podíamos obviar el tema siempre polémico de los errores que cometen sus sistemas, por ejemplo, a la hora de censurar imágenes de pechos  femeninos (algo prohibido por las normas de la empresa) pero que se engloban en mensajes o campañas sobre el cáncer de mama. "Por supuesto, tratamos de encontrar el equilibrio entre las reglas de uso y la actitud de la gente. En este caso, por supuesto que lo hemos entendido. Facebook decidió restringir las imágenes de pechos porque, para determinadas culturas, eso puede resultar ofensivo. Lo importante es el entorno, el contexto en que se producen y estamos revisando continuamente nuestras políticas al respecto", detalla el directivo galo. 

Desde el gabinete de prensa de Facebook confirman esta premisa: "El contexto puede indicar la intención de una persona, que puede entrar en juego cuando algo se informa como discurso de odio. Por ejemplo: a veces las personas comparten contenido que contiene el discurso de odio de otra persona con el fin de crear conciencia o educar a otros. De manera similar, en algunos casos, las palabras o los términos que de otro modo podrían violar nuestros estándares se usan de forma autorreferencial o de manera empoderada. Cuando este es el caso, permitimos el contenido, pero esperamos que las personas indiquen claramente su intención, lo que nos ayuda a comprender mejor por qué lo compartieron".

Ni la inteligencia artificial más potente surgida de la mayor red social del mundo es capaz, todavía, de pensar como nosotros.
rn