Durante años, las grandes plataformas digitales han intentado sostener un equilibrio imposible: proclamar que combaten el fraude mientras seguían haciendo dinero, mucho dinero, con él. El relato que han repetido se apoyaba en una premisa muy conveniente: que funcionan como una operadora telefónica y que, por tanto, no pueden ser responsables de lo que otros hagan sobre sus líneas. 

Pero esa comparación, tan útil para ellas, nunca resistió un análisis mínimamente serio. No porque deban detectar absolutamente todo, sino porque sí disponen de la capacidad técnica y del conocimiento interno para identificar patrones de abuso evidentes, y actuar cuando existe voluntad real de hacerlo. En plena era de la inteligencia artificial, pretender que el fraude es imposible de detectar es completamente absurdo. 

Es cierto que el ecosistema publicitario digital es gigantesco y que nadie puede esperar supervisión absoluta sobre millones de anuncios. Sin embargo, el problema no es la omnisciencia, sino la priorización. Estas compañías son capaces de analizar hasta el último milisegundo de comportamiento del usuario para maximizar sus ingresos, pero se vuelven estúpida y pretendidamente miopes cuando ese mismo análisis revela señales claras de fraude.

Google sabía desde hace más de una década que los anuncios de cerrajeros falsos generaban timos constantes y se concentraban en situaciones de urgencia. Conocía la anomalía de sus tasas de conversión y los patrones sospechosos en sus pujas.

Aun así, su reacción fue ha sido sistemáticamente lenta, reactiva e insuficiente. No hablamos de ambigüedades o zonas grises: hablamos de fraude reiterado, conocido y documentado.

TikTok podría alegar la dificultad de distinguir entre marketing agresivo y estafa organizada en un entorno de enormes volúmenes de contenido

TikTok podría alegar la dificultad de distinguir entre marketing agresivo y estafa organizada en un entorno de enormes volúmenes de contenido. Pero esa dificultad se convierte en coartada cuando vemos proliferar falsos gurús financieros, inversiones milagrosas o productos inexistentes que permanecen activos durante semanas pese a múltiples denuncias.

La propia plataforma presume de sistemas automáticos capaces de detectar tendencias virales en minutos y de analizar miles de señales internas para predecir comportamientos. Si puede identificar con precisión un baile, un meme o un patrón de consumo, también puede detectar que un anuncio utiliza imágenes de famosos sin permiso o promete retornos imposibles. La diferencia no es técnica, es estratégica.

Meta, por su parte, lleva años prometiendo mejoras en sus mecanismos de verificación, pero su historial demuestra que no ha priorizado la lucha contra el fraude. Campañas de criptomonedas falsas, imitaciones de marcas, inversiones inexistentes o productos milagro han circulado masivamente en Facebook e Instagram pese a las advertencias de reguladores y organismos nacionales.

La compañía puede alegar que los algoritmos no siempre distinguen entre incompetencia y engaño deliberado, pero cuando un anunciante acumula cientos de quejas, utiliza identidad de terceros o forma parte de redes reincidentes, la línea de lo “difícil de detectar” desaparece. Lo que queda es una plataforma que decide no cortar una fuente de ingresos, independientemente de que lo que haya detrás sea una estafa, una manipulación electoral o un genocidio. 

Algunos defensores de estas compañías advierten de los riesgos de una regulación demasiado estricta: la posible eliminación de anuncios legítimos, el freno a la innovación o las cargas excesivas. Pero ese argumento ignora un hecho evidente: la autorregulación fracasó precisamente porque las plataformas nunca tuvieron incentivos reales para actuar con diligencia.

La nueva normativa europea no pide milagros ni infalibilidad: pide actuación razonable ante señales claras de abuso

Cuando un país exige identificación verificable en sectores sensibles, los resultados mejoran de inmediato. Cuando no existe obligación, la diligencia disminuye. La nueva normativa europea no pide milagros ni infalibilidad: pide actuación razonable ante señales claras de abuso. No exige que detecten todo, sino que dejen de ignorar lo evidente. 

Es verdad que el fraude evoluciona rápidamente, a menudo más rápido que los mecanismos de control. Pero eso no exime de responsabilidad a quien obtiene beneficios directos del tráfico que generan esos fraudes. Ningún otro sector económico puede lucrarse con actividades perjudiciales alegando que son difíciles de controlar.

Si un banco detecta actividad sospechosa, actúa. Si un comercio recibe productos falsificados, los retira. Si un medio publica un anuncio engañoso, responde ante los tribunales. Solo las plataformas digitales habían conseguido instalar la idea de que su escala las convertía en entidades aparte, inmunes a los estándares aplicables al resto del tejido económico. Europa acaba de recordarles que su tamaño no las exime: las obliga.

La nueva legislación europea no erradicará todos los fraudes ni convertirá internet en un jardín vallado. Pero introduce un principio esencial: si te lucras con anuncios engañosos y no actúas cuando tienes evidencia suficiente, pagarás por ello.

No se trata de responsabilizar a las plataformas por todo lo que ocurre en ellas, sino de exigirles coherencia entre lo que saben y lo que hacen. No pueden presumir de inteligencia algorítmica cuando quieren vender publicidad y fingir torpeza cuando deben proteger a sus usuarios.

Al final, lo que se desmorona no es un modelo técnico, sino una ficción jurídica. Las plataformas no eran inocentes, pero tampoco se les pedía que lo fueran: solo se les pedía que asumieran las responsabilidades que corresponden a cualquier actor económico relevante.

Ahora, por fin, tendrán que decidir si siguen siendo máquinas de monetizar cualquier conducta, por dañina que sea, o si están dispuestas a comportarse como las infraestructuras críticas que llevan años diciendo que son. La indiferencia, a partir de ahora, tendrá precio. 

***Enrique Dans es Profesor de Innovación en IE University.