Fotomontaje de Instagram El Androide Libre
Instagram lanzaría Reels como una app independiente, justo cuando un bug los está llenando de vídeos sexuales y violentos
Meta ha anunciado que está corrigiendo un bug que está generando que los usuarios reciban vídeos de desnudos, mutilaciones y contenido gore.
Más información: El uso de Instagram por menores cambia en España: así son las cuentas de adolescentes
Instagram sigue recibiendo novedades cada poco y si una de sus últimas funciones estuvo dedicada a los mensajes directos que se envian los usuarios desde la app para móviles, ahora Meta está planeando separar los Reels como una aplicación independiente y así ponérselo más difícil a TikTok, que a principios de año parecía que iba a ser prohibida en Estados Unidos dando pasos a alternativas provenientes de China.
La idea sería aprovecharse de la situación actual de TikTok en Estados Unidos, ya que en cuestión de horas pasó a ser prohibida a estar disponible de nuevo, pero su futuro no es para nada halagüeño, así que Meta tendría una oportunidad de oro para lanzar Reels como una app independiente y así recoger los millones de usuarios que podrían verse desprovistos de TikTok, ya que se le dieron 75 días a ByteDance para cumplir con la ley.
Adam Mosseri, director de Instagram, compartió con su equipo esta semana que se estaba contemplando la posibilidad de lanzar una app separada para Reels según reporta The Information. Lo que no tienen claro es si Reels continuaría estando presente en Instagram y así se quedase la app como la única vía de acceder a los Reels.
Y es que el objetivo de Reels desde que fuera introducida por primera vez en 2019 fue ser una alternativa a TiKTok, pero dentro de la misma Instagram. Los vídeos verticales en ese momento se pusieron de moda y Meta no quiso perder la oportunidad de dar esa experiencia en su red social, y más cuando las Stories estaban siendo otro de los contenidos más vistos desde que llegasen en 2016.
Estas nuevas intenciones de Instagram llegan justo en un momento crítico para la red social, ya que está experimentando un error que está llenando los Reels de los usuarios con vídeos que no aparecen normalmente por el algoritmo de la app. De hecho, están siendo los mismos usuarios los que están preguntando a otros si están recibiendo multitud de vídeos con contenido sexual y de violencia.
Meta ha admitido el error a CNBC: "Estamos corrigiendo un error que ha causado que algunos usuarios vean contenido en su Instagram Reels que no debería de haber sido recomendado en ningún momento. Queremos pedir disculpas por los problemas ocasionados".
Y el contenido ha sido desde vídeos de asesinatos a disparos en escuelas, al igual que otros más gore como apuñalamientos, castraciones, desnudos, porno no censurado y violaciones. Este contenido incluso habría aparecido si el usuario tuviera activa la opción de control de contenido sensible.
El portavoz de Meta no mencionó a la CNBC, según Engadget, cual ha sido el error que ha ocasionado la generación de este tipo de contenido, pero algunos de los vídeos que están siendo reportados nunca deberían de haber estado en la red social, debido a las propias directrices de contenido de Instagram. De hecho, en las directrices de Meta se tipifica que elimina todo tipo de fotografías y vídeos de desnudos y actividad sexual.