Una investigación del New York Times basada en la documentación de Meta desvelada con motivo de los litigios que la compañía está manteniendo con treinta y tres estados norteamericanos revela que, de manera constante, recopiló datos y administró publicidad a usuarios de menos de trece años, que según la ley no podrían tener perfil en sus plataformas. Dentro de la compañía, además, esto era un auténtico secreto a voces que todos conocían y ante el cual, simplemente, no se hacía absolutamente nada.
Que los menores mientan en su edad para poder así saltarse las restricciones y abrir un perfil en una red social no es algo nuevo. Pero que una compañía tenga pruebas fehacientes de ello en un número muy elevado de casos —en algunos, incluso con los propios padres de los niños asegurando que eran menores y pidiendo que se diesen de baja sus perfiles por considerar que eran nocivos para ellos— hace que incurra en una infracción a la Children’s Online Privacy Protection Act, la conocida como COPPA, que en los Estados Unidos se castiga con multas que pueden llegar a los cincuenta mil dólares por cada caso.
Dado que hablamos de que la compañía recibió más de 1.1 millones de informes de usuarios menores de trece años en Instagram y Facebook y deshabilitó únicamente una pequeña fracción de ellos, podríamos estar hablando de una multa que alcanzaría uno límites impresionantes... pero que en el caso de Meta, sería, simplemente, una más.
[La IA, los accels y los decels]
Todo ello se agrava más aún cuando sabemos que el responsable de Instagram, Adam Mosseri, aseguró en el Senado de los Estados Unidos que si un niño tenía menos de trece años, no estaba permitido que tuviese un perfil en sun plataforma, mientras en memorandums y correos internos tan solo un mes antes afirmaba que "los niños quieren acceso a Instagram y mienten en su edad para conseguirlo ya".
Mientras tanto, el CEO y fundador de la compañía Mark Zuckerberg, se dedicaba sistemáticamente a rechazar toda iniciativa interna para proteger la salud mental de sus usuarios más jóvenes, haciendo incluso que muchos de sus directivos llegasen a sentirse incómodos.
Podríamos estar hablando de una multa que alcanzaría uno límites impresionantes
La pregunta es clara: ¿cuántas veces tiene que ser juzgada, encontrada culpable y multada una compañía para que se considere que su nivel de reincidencia la convierte en oficialmente peligrosa? En la aplicación de la ley, la reincidencia suele considerarse prácticamente siempre un agravante del delito, y cuando se estima que alguien tiene una elevada propensión o tendencia a reincidir, se tienden a intentar evitarlo con las medidas oportunas.
En el caso que nos ocupa, sin embargo, nos hallamos, claramente, ante un caso de impunidad total: una compañía que se ha disculpado más veces que ninguna otra por problemas que han generado todo tipo de situaciones nocivas para la sociedad, que ha tenido un papel central en casos que van desde la manipulación electoral organizada hasta el genocidio, pero que en ningún caso han llegado a conllevar nada más que unas disculpas públicas o algunas multas, que además resultaban claramente ridículas en su magnitud cuando las comparábamos con la facturación o los beneficios de la compañía.
[Usando la IA para saber qué dicen realmente los directivos]
Meta, claramente, es "too big to fail", y por ello puede, aparentemente, hacer cualquier cosa o incurrir en cualquier delito sin que ello conlleve más que una pequeña reprimenda del tipo "uy, malote, malote... que no se vuelva a repetir!". La pregunta es si esa característica de ser "too big to fail" se debe a su habilidad para manejarse con los legisladores y reguladores, o puestos a aplicar la conspiranoia, si es que en realidad juega un papel tan importante para el gobierno de su país a la hora de obtener información, que éste la protege todo lo que puede.
Estamos claramente ante un caso extremo que demuestra de manera evidente que la tecnología no es peligrosa, sino que las realmente peligrosas son las personas y las compañías que la gestionan. Las redes sociales no tendrían por qué ser especialmente peligrosas si se gestionasen de manera responsable, pero en manos de personas como Mark Zuckerberg y de compañías como Meta se convierten en herramientas diseñadas para ser completamente adictivas, para ponerse al servicio de la recopilación exhaustiva de datos personales y de la manipulación de sus usuarios para todo tipo de causas, y no únicamente económicas.
Las redes sociales no tendrían por qué ser especialmente peligrosas si se gestionasen de manera responsable
Las pruebas no pueden estar más claras: tenemos desde comprobaciones exhaustivas de los efectos que ha provocado Meta en diversos países completamente documentados, hasta personas que han trabajado en al compañía y que la conocían muy bien que, tras abandonarla, han denunciado muchas de sus prácticas por encontrarlas completamente deleznables.
Hay una amplísima recopilación de mensajes y comunicaciones entre sus directivos que demuestran negligencias voluntarias y dejaciones de responsabilidad de todo tipo, pero del mismo modo que tenemos todo esto, tenemos también la certeza de que, al final, a la compañía no le va a pasar nada, y que como mucho, tendrá que pagar alguna multa de vez en cuando. Multas que, además, son siempre sistemáticamente menores que lo que la compañía fue capaz de facturar gracias a haber llevado a cabo esas infracciones.
¿Cuantas veces tiene que ir el cántaro a la fuente para que al final se rompa? ¿No existen figuras como la inhabilitación que permiten que determinados directivos y compañías no puedan reincidir sistemáticamente en sus delitos? ¿Por qué se renuncia específicamente a proteger a la sociedad de este tipo de comportamientos irresponsables?
***Enrique Dans es Profesor de Innovación en IE University.