YouTube-Dark

YouTube-Dark

Omicrono

Miles de canales de Youtube van a desaparecer de repente por las nuevas reglas

Miles de canales de YouTube van a desaparecer en respuesta a las nuevas normas que la plataforma ha anunciado hoy mismo contra ideologías extremistas.

5 junio, 2019 20:55

Noticias relacionadas

Sin duda, YouTube no está en su mejor momento en lo que a imagen se refiere. No pocas polémicas le están salpicando en estos momentos relacionadas con temas delicados de la sociedad como la homofobia, el racismo, etcétera. Miles de canales de YouTube podrían desaparecer a partir de un tiempo, ya que hoy mismo la plataforma ha anunciado unas nuevas normas de moderación para atajar estos problemas, sobre todo en el contexto de la extrema derecha y los problemas que generan en esta.

La extrema derecha, en el punto de mira: canales de YouTube van a desaparecer

Tal y como recoge The Verge, las nuevas normas de comunidad tienen un enfoque claro: el supremacismo blanco y el nazismo (en general, la extrema derecha). El objetivo de YouTube es evitar que se promueva contenido que hable de superioridad como justificación para discriminar a otros según su edad, género, raza, casta, religión, orientación sexual, etcétera. En definitiva, se eliminarán (supuestamente) miles de canales de YouTube dedicados a esparcir ideología nazi y de otras variantes de extrema derecha.

En una publicación en su blog, YouTube dice que “la apertura de la plataforma de YouTube ha ayudado a que la creatividad y el acceso a la información prosperen. Es nuestra responsabilidad proteger eso y evitar que nuestra plataforma se use para incitar al odio, el hostigamiento, la discriminación y la violencia”.

youtube fuego

youtube fuego

Esta nueva moderación se llevará a cabo de 3 formas diferenciadas. En primera instancia, se eliminarán todos los canales y vídeos de ideología supremacista, nazi o que en definitiva aboguen por la segregación o la exclusión por edad, género, raza, religión, orientación sexual, etcétera. También se evitará que se puedan subir vídeos negando hechos y “eventos violentos bien documentados” como tiroteos en escuelas (como el de la escuela primaria Sandy Hook y el 11-S). Una de las tácticas más clásicas de la extrema derecha es negar este tipo de sucesos y relacionarlos con conspiraciones o en su defecto usarlos para fomentar el racismo y culpar a colectivos extranjeros.

La segunda forma consistirá en que, según YouTube, se evitará la propagación la propagación de lo que denomina “contenido límite e información errónea dañina”. Vídeos que hablen de violar las normas de la comunidad o que intenten saltarse estas prohibiciones para promover la promoción de otros vídeos similares para que salgan en recomendaciones entran en dicha categoría. Ya de por sí, esta medida que se implementó parcialmente, había reducido en un 50 por ciento las visitas de vídeos de curas falsas milagrosas o en su defecto de homeopatía (según, de nuevo, YouTube).

YouTube recomendará vídeos de canales de noticias y fuentes autorizadas

Por último, si un canal que está monetizado está saltándose las políticas de “odio de habla” (insultos, expresiones racistas, discriminatorias), quedarán desmonetizados y no podrán acceder a anuncios. Además, no podrán utilizar herramientas como Super Chat, una manera de que los suscriptores paguen a los canales por funciones de chat adicionales. Esto último viene dado por los últimos reportes que desvelaban que este sistema se usó para financiar a los creadores de videos con racismo y discurso de odio.

tierra-plana-youtube

tierra-plana-youtube

De aplicarse estrictamente estas medidas, desembocaría en al destrucción de miles de canales de YouTube. Estos canales de YouTube desaparecerían (de nuevo, en un contexto ideal) y así YouTube cortaría por lo sano sobre las polémicas provenientes de redes de pedófilos en sus recomendaciones, popularidad de la extrema derecha en sus secciones más populares y sus ataques conscientes al colectivo LGBTQ+. Incluso esto podría generar un pánico en los canales de esta índole, generando el clásico argumento de extrema derecha que reza que se discrimina a sus miembros.

Desgraciadamente, YouTube no ha dado nombres de canales que se puedan ver afectados por estas medidas. De hecho, hay dudas de que estas medidas se apliquen. El ejemplo que pone The Verge es clarificador; Carlos Maza, miembro del medio Vox dedicado a la divulgación (no confundir con el partido español de extrema derecha racista y homófobo Vox), recibió ataques constantes tanto en su página web como en los comentarios de su canal por el comentarista de extrema derecha Steven Crowder. YouTube respondió a Maza y dijeron que no iban a actuar contra Crowder.

De nuevo, nos remitimos a los falsos positivos y a las malas interpretaciones. Una discusión sobre la inmigración (usualmente tergiversada por la extrema derecha) puede provocar que los miembros de esta denuncien el vídeo, jugando así con el sistema. Aquí, siendo justos, YouTube ha sido clara, alegando que permitirá los debates políticos siempre y cuando no se usen expresiones como “los musulmanes están enfermos y no se les debe permitir emigrar a Europa” (lo cuál es falso). Por otra parte, los miembros de estos canales podrían saltarse estas reglas intentando hacer pasar sus argumentos por neutrales, engañando así al algoritmo.

Queda por ver qué hace YouTube contra una lacra que está cada vez más presente en su plataforma y por la cuál están lloviendo cada vez más críticas. Desgraciadamente, con razón en la gran mayoría. De ver una aplicación correcta de estas medidas, miles de canales de YouTube desaparecerían, y con ellos miles de vídeos con esta clase de contenido.