TikTok parece diseñada específicamente para todos aquellos usuarios nacidos a partir de la década de los 2000, la mal llamada generación Z. En primer lugar, por su rapidez y facilidad de uso. Sus vídeos basados en el lip-sync -contenidos de entretenimiento al ritmo de una canción- no suelen superar los 15 segundos de media, y su límite de duración está en un minuto. Esta red social china encapsula el modelo que aplicaciones como Tinder o Instagram Stories promueven actualmente: todo el contenido debe estar al alcance de un simple toque.

En segundo lugar, porque los niños y adolescentes que conforman el público mayoritario de TikTok han crecido con diversas interfaces a su alcance. Decenas de artículos científicos como éste de Frontiers in Psycology ahondan en el impacto que tienen las nuevas tecnologías de comunicación sobre la capacidad de atención. Ya no se trata de elegir entre leer o ver un vídeo en YouTube: ahora las plataformas compiten por ofrecer entretenimiento audiovisual de forma más inmediata.

"En una sociedad donde cada vez le prestamos menos atención a las cosas, una red social que ofrece videos de 15 segundos es muy atractiva. Ademas es muy fácil de usar, especialmente para aquellos niños que han nacido con un móvil en la mano. A poco que toqueteen ya saben utilizar todo". Así lo resume un ex-moderador de TikTok, quien desea permanecer en el anonimato. Su rol en la empresa se basaba en rastrear todo el contenido que se subiese a la app y detectar cualquier tipo de contenido inadecuado.

Todas las redes sociales tienen problemas para controlar su contenido, pero la ultraderecha se ha fijado recientemente en esta plataforma más juvenil y desconocida para extender su mensaje. "Este tipo de usuarios suele ser gente mayor, lo cual corrobora mi idea de que tratan de influenciar a las nuevas generaciones. Son personas en la veintena con ideas y perjuicios ya formados", afirma este ex trabajador anónimo. Vice explicaba a finales del año pasado cómo determinados grupos neonazis han extendido sus redes de captación desde YouTube hasta TikTok para seguir el rastro social de los adolescentes. La edad media de los usuarios oscila entre los 13 y los 17 años, según los datos oficiales de la empresa, aunque este antiguo empleado piensa que es algo inferior. "No sabría decir si TikTok hace de guardería antes de que lleguen a Twitter o Instagram, o si es que ven estas redes como un producto para adultos".

Bytedance es la empresa propietaria de Douyin (en China) o TikTok (en el resto del mundo) desde que la app se fusionase con la extinta Musical.ly. Tras la adquisición, TikTok ganó alrededor de 30 millones de usuarios en solo tres meses y consiguió superar las descargas de Facebook, Instagram, YouTube o Snapchat en Google Play. Desde entonces, este gigante asiático ha pasado de tener 6000 moderadores a 10.000 por todo el mundo, subcontratados a través de empresas especializadas. 

¿Cómo funciona el proceso de moderación? "Cuando yo veía un vídeo con un saludo nazi, concluía que es una violación de las reglas porque hay discurso de odio", explica el entrevistado. "Este contenido lo recibía otra persona de mi mismo equipo. Si llega a la misma conclusión que yo, el vídeo se borra. Pero si no coincidíamos, el vídeo iba a China, donde han escrito los protocolos de actuación". Sin embargo, esta tarea se dificulta según se profundiza en las interacciones de los usuarios. Existe un formato, los denominados duetos, donde la pantalla se parte a la mitad: un lado con el vídeo original y otro con la respuesta de un segundo usuario. Aquí es donde el proceso adquiere subjetividad. "No es lo mismo llamar gordo a un usuario que responderle con el meme de una foca", ejemplifica el anónimo. "A veces no podía distinguir si era bullying, una broma o algo que se me escapaba por falta de contexto".

Es precisamente en esta capa "subterránea" donde el ex trabajador detectaba una mayor presencia de discurso de odio. "Las respuestas no son dañinas per se, pero hay una buena cantidad de vídeos donde se modifican los vídeos originales para meterse con otras razas, personas LGTB...". Estos contenidos racistas u homófobos son solo la punta del iceberg. El entrevistado describe varias categorías con las que trabaja su antigua empresa: pornografía o pornografía infantil, contenido inapropiado para menores o contenidos prohibidos por la legislación de cada país.

En los dos últimos años se ha producido en las redes un debate sobre la dicotomía entre libertad de expresión o la censura de contenidos de odio. Twitter optó el pasado otoño por eliminar los perfiles de Alex Jones e Info Wars -presentador y web estadounidense de infoentretenimiento- al considerar que contaminaban a la opinión pública mediante discursos supremacistas y conspiranoicos. Fue la última red en hacerlo tras Facebook, Apple, YouTube y Spotify. La derecha más reaccionaria criticó la medida al considerar que las empresas tecnológicas se habían aliado para coartar la libertad de expresión.

¿Es posible que estas prohibiciones radicalicen aún más a estos usuarios? "Cuando borras un vídeo por contenido xenófobo, hay un efecto de cabreo y una reacción inmediata a subir el vídeo tres veces más a ver si no lo borramos", explica el ex-moderador. "Aquellos que están convencidos sienten que deben luchar aún más por aquello en lo que creen".

Bullying fuera del instituto

De acuerdo con el último estudio que elabora la Fundación Anar (Ayuda A Niños y Adolescentes en Riesgo) sobre acoso escolar, la edad media en la que un niño recibe ciberbullying se produce a los 13,5 años. Es precisamente la edad a la que TikTok permite a los usuarios abrirse una cuenta, aproximandamente cuando empiezan la eduación secundaria obligatoria. Las chicas se llevan la peor parte: un 65,6% son acosadas a través del móvil frente a un 34,4% de los chicos.

El ex-moderador de TikTok confirma que los adolescentes van un paso tecnológico por delante respecto a sus padres y profesores, incluso para hacer el mal. "No podemos hacer gran cosa al respecto cuando se reporta a una persona sistemáticamente", admite. Denunciar un perfil es una manera eficaz de eliminar la presencia de alguien en la red. Aunque se haga sin motivos válidos, la empresa puede considerar que un gran número de denuncias equivale a una eliminación automática de su cuenta. "Te pongo un ejemplo: un usuario conocido, con muchos seguidores, tenía bastante pluma. Por una cuestión clara de homofobia fue denunciado reiteradamente. Tuvimos que comprobar todos los vídeos para comprobar que efectivamente no había ilegalidades que le retirasen la cuenta". Si no existe una coordinación adecuada entre padres, profesores y el entorno de la víctima, los casos de acoso pueden agravarse considerablemente.

"Me he encontrado casos de personas cercanas al suicidio", confiesa este antiguo empleado. "Personas en situaciones límite, que sueltan comentarios depresivos o se cortan. En esos momentos se lo comunicábamos al jefe, que se pone en contacto con la policía de cada país. Para mí esto era algo positivo de mi trabajo". Pero, ¿por qué cree que los chavales sienten esa necesidad de compartir estos momentos de crisis? "Más allá de estos casos extremos, hay muchísimos que hacen publicaciones sobre lo mal que se sienten, sobre lo horrible que es su vida o sobre lo deprimidos que están. Eso me lleva a pensar que hacemos algo muy mal como sociedad. Buscan llamar la atención, aunque esté feo decirlo. Cuando la policía o sus padres reaccionan tras la alarma al comprobar que es una situación grave, los chavales recapacitan".

El entrevistado asegura que solía tomarse su trabajo con bastante filosofía y buen humor. "El primer día, nos prepararon psicológicamente para abordar un posible estrés postraumático". Ahora que ha abandonado la empresa, podrá ahorrarse vídeos como los que aparecen en el siguiente hilo. El mal gusto también debería ser denunciable.

Noticias relacionadas